>  기사  >  백엔드 개발  >  스파이더 크롤링 기록을 기록하기 위한 PHP 구현 코드

스파이더 크롤링 기록을 기록하기 위한 PHP 구현 코드

WBOY
WBOY원래의
2016-07-25 08:56:281134검색
本文介绍下,用php实现的记录蜘蛛爬行历史的一段代码,用于分析蜘蛛对网站的爬行记录还是不错的,对研究seo也有好处,有需要的朋友参考下吧。

PHP记录蜘蛛爬行历史的代码,如下:

<? function 
//记录蜘蛛爬行记录,判断来自哪种搜索引擎
get_naps_bot()
{
$useragent = strtolower($_SERVER['HTTP_USER_AGENT']);

if (strpos($useragent, 'googlebot') !== false){
return 'Google';
}

if (strpos($useragent, 'baiduspider') !== false){
return 'Baidu';
}
if (strpos($useragent, 'msnbot') !== false){
return 'Bing';
}

if (strpos($useragent, 'slurp') !== false){
return 'Yahoo';
}

if (strpos($useragent, 'sosospider') !== false){
return 'Soso';
}

if (strpos($useragent, 'sogou spider') !== false){
return 'Sogou';
}

if (strpos($useragent, 'yodaobot') !== false){
return 'Yodao';
}
return false;
}

function nowtime(){
$date=date("Y-m-d.G:i:s");
return $date;
}

$searchbot = get_naps_bot();

//保存爬行记录
if ($searchbot) {
   $tlc_thispage = addslashes($_SERVER['HTTP_USER_AGENT']);
   $url=$_SERVER['HTTP_REFERER'];
   $file="robotlog.txt";
   $time=nowtime();
   $data=fopen($file,"a");
   fwrite($data,"Time:$time robot:$searchbot URL:$tlc_thispage\n");
    fclose($data);
}
?>


성명:
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.