>백엔드 개발 >PHP 튜토리얼 >php用curl 爬取页面会不会只爬取一半停止

php用curl 爬取页面会不会只爬取一半停止

WBOY
WBOY원래의
2016-06-23 13:05:321202검색

php用curl 爬取页面会不会只爬取一半停止,如果停止了,是返回已经爬取到的那一部分html代码还是完全没有?


回复讨论(解决方案)

对方服务器如果不正常响应给你,就会停止了。所以需要看对方服务器情况。
规则正确,会得到爬取到的那一部分html代码。

会!可以是网络或对方的原因
中断后,以完成的数据是否还在?这要取决于你是怎么写代码的
常规的写法,自然是没有了,因为最终是超时而失败
但你若是指定了保存的文件 CURLOPT_FILE
或指定了写回调 CURLOPT_WRITEFUNCTION
还是有机会获得的

会!可以是网络或对方的原因
中断后,以完成的数据是否还在?这要取决于你是怎么写代码的
常规的写法,自然是没有了,因为最终是超时而失败
但你若是指定了保存的文件 CURLOPT_FILE
或指定了写回调 CURLOPT_WRITEFUNCTION
还是有机会获得的



curl有函数判断整个页面是否加载完了么?

对方服务器如果不正常响应给你,就会停止了。所以需要看对方服务器情况。
规则正确,会得到爬取到的那一部分html代码。



那curl有没有函数判断整个页面加载完了没有?我需要的是加载完的页面

curl_getinfo

성명:
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.