ホームページ >バックエンド開発 >PHPチュートリアル >カールクロールタイムアウト

カールクロールタイムアウト

WBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWB
WBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBオリジナル
2016-06-23 13:49:271065ブラウズ

curl を使用して他の Web サイトをクロールする場合は、正常に取得できますが、Web サイト http://www.fblife.com/ については、16K サイズをキャプチャした後は常にデータが返されなくなりました。 httpステータス 戻りコードが200のままです、アドバイスください


ディスカッション(解決策)への返信

阿弥陀様、寄付者様、基本的なプログラミングが解決できない場合は、ここに投稿するのと同じです。

set_time_limit(0); set_time_limit(0); ;

コードを投稿してください。

私は次のようになります:

<?php	$u="http://www.fblife.com/";	$h=curl_init();	curl_setopt($h, CURLOPT_URL, $u);	$s=curl_exec($h);	curl_close($h);	echo $s;?>

戻り値は正常です。ファイル情報は 165.56K です

重要なのは、この php をブラウザで実行することです。バックグラウンドで実行できないのはなぜですか?

コードを投稿してください:

PHP コード

dc72367547ec7ca0401c642bc7f17fc2それは正常です、ファイル メッセージ 165...


この Web サイト http://www.ydtuiguang.com/ についてできることは何もありません

ただ、curl をサポートしないでください
set_time_limit(0);
var_dump(file_get_contents("http://www.ydtuiguang.com/"));

私のものは問題ありません。エラーを報告しましたか?

この Web サイト http://www.ydtuiguang.com/ については何もできません


今日もう一度試して、このコードを fblife.php ファイルとして保存して実行しました。 Windowsのコマンドラインでは、php fblife.phpは正常に出力できますが、Linux環境では、php fblife.phpを実行すると、同じコマンドでその一部しか取得できません。これがLinuxシステムの問題なのか、それとも問題なのかわかる人はいますか。他の問題は?
さらに、Linux でこのコマンド wget "http://www.fblife.com/" を実行すると、

$ の一部しか取得できません。 h=curl_init();

curl_setopt($h, CURLOPT_URL, $u);

echo $s;

$timeout= 360;//タイムアウトを設定します
curl_setopt($ch, CURLOPT_CONNECTTIMEOUT,$timeout);


この問題ではありません -_-

$timeout=360;// タイムアウトを設定します

curl_setopt($ch, CURLOPT_CONNECTTIMEOUT) ,$タイムアウト);

声明:
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。