実際のアプリケーションでは、ニュースや天気予報などが必要になるなど、特殊な状況に遭遇することがよくあります。しかし、個人サイトや小規模サイトでは、これらのことを行うためにそれほど多くの人的資源、物的資源、資金的リソースを確保することはできません。どうすればいいですか?
幸いなことに、インターネットはリソースを共有するためのプログラムを使用して、他のサイトからページを自動的にキャプチャし、使用するために処理できます。
何を使えばよいでしょうか? 実際、Php にはこの機能があります。つまり、curl ライブラリを使用します。以下のコードを見てください。
$ch =curl_init ("http://dailynews.sina.com.cn");
$fp = fopen ("php_homepage.txt", "w") ;
curl_setopt ($ch, CURLOPT_FILE, $fp);
curl_exec ($ch); ;
ただし、時々エラーが発生することがありますが、実際にはダウンロードされています。外国人に聞いても答えてくれなかったので、$txt で適切な解析を行えば、関数の前に◎を付ければOKです。新浪ニュースをこっそり入手できます!ただし、使わないほうがいいですよ!法的紛争を避けるために、Php は非常に強力であることだけをお伝えしたいと思います。できることはたくさんあります!
【この記事の著作権は著者とOso.comが共有しています。転載する場合は著者と出典を明記してください】
http://www.bkjia.com/PHPjc/316648.html
www.bkjia.com