가장 간단한 크롤러 모델은 다음과 같습니다. 초기 URL이 주어지면 크롤러는 콘텐츠를 풀다운하고 페이지에서 URL을 찾은 다음 이 URL을 시작점으로 사용하여 크롤링을 시작합니다.
다음은 PHP로 구현된 가장 간단한 크롤러 모델입니다.
<?php /** * 爬虫程序 -- 原型 * * BookMoth 2009-02-21 */ /** * 从给定的url获取html内容 * * @param string $url * @return string */ function _getUrlContent($url){ $handle = fopen($url, "r"); if($handle){ $content = stream_get_contents($handle,1024*1024); return $content; }else{ return false; } } /** * 从html内容中筛选链接 * * @param string $web_content * @return array */ function _filterUrl($web_content){ $reg_tag_a = '/<[a|A].*?href=[/'/"]{0,1}([^>/'/"/ ]*).*?>/'; $result = preg_match_all($reg_tag_a,$web_content,$match_result); if($result){ return $match_result[1]; } } /** * 修正相对路径 * * @param string $base_url * @param array $url_list * @return array */ function _reviseUrl($base_url,$url_list){ $url_info = parse_url($base_url); $base_url = $url_info["scheme"].'://'; if($url_info["user"]&&$url_info["pass"]){ $base_url .= $url_info["user"].":".$url_info["pass"]."@"; } $base_url .= $url_info["host"]; if($url_info["port"]){ $base_url .= ":".$url_info["port"]; } $base_url .= $url_info["path"]; print_r($base_url); if(is_array($url_list)){ foreach ($url_list as $url_item) { if(preg_match('/^http/',$url_item)){ //已经是完整的url $result[] = $url_item; }else { //不完整的url $real_url = $base_url.'/'.$url_item; $result[] = $real_url; } } return $result; }else { return; } } /** * 爬虫 * * @param string $url * @return array */ function crawler($url){ $content = _getUrlContent($url); if($content){ $url_list = _reviseUrl($url,_filterUrl($content)); if($url_list){ return $url_list; }else { return ; } }else{ return ; } } /** * 测试用主程序 * */ function main(){ $current_url = "http://hao123.com/";//初始url $fp_puts = fopen("url.txt","ab");//记录url列表 $fp_gets = fopen("url.txt","r");//保存url列表 do{ $result_url_arr = crawler($current_url); if($result_url_arr){ foreach ($result_url_arr as $url) { fputs($fp_puts,$url."/r/n"); } } }while ($current_url = fgets($fp_gets,1024));//不断获得url } main(); ?>