ホームページ >バックエンド開発 >PHPチュートリアル >なぜcurlやfile_get_contentsでURLを収集する際にk数が高すぎて取得できないのでしょうか?
http://bbs.csdn.net/topics/390572750 から入手方法を以前に学びましたが、いくつかのリンクは次のとおりです:
http://www.autohome.com.cn/77/options.html
http :/ /www.autohome.com.cn/59/options.html
は通常どおり入手できます
が、次のリンクが必要です:
http://www.autohome.com.cn/146/options.html
http:// www.autohome .com.cn/317/options.html
その後、検索が空になりますが、現時点では取得できるページ数が K ページよりも少ないと個人的には考えています。を取得できません
専門家の方、助けてください。何が問題ですか?弟はlnmpを使っています
htmlは取得できていることを確認するが、指定部分が正規表現で取得できない(urlのhtmlバイトが大きい場合)
は全て30~の間です35k、取得することは不可能です 問題は正規表現に何か問題があることです
正規表現を見て、場合によっては一致できないかどうかを確認してください。あなた自身が HTML を取得したと言っているので、問題を見つけるのは簡単です