>백엔드 개발 >파이썬 튜토리얼 >Scrapy는 대학 뉴스 보도 사례를 포착합니다.

Scrapy는 대학 뉴스 보도 사례를 포착합니다.

PHP中文网
PHP中文网원래의
2017-06-21 10:47:111706검색

사천대학교 행정학부 공식 홈페이지에서 모든 뉴스 문의를 받아보세요.

실험 과정

1. 크롤링 대상을 결정합니다.
2. 크롤링 규칙을 개발합니다.
3.
4. 크롤링된 데이터 가져오기

1. 크롤링 대상 결정

이번에 크롤링해야 할 대상은 쓰촨대학교 공공정책경영학부의 모든 뉴스 정보이므로 레이아웃 구조를 알아야 합니다.


WeChat 스크린샷_20170515223045.png

여기서 우리는 모든 뉴스 정보를 캡처하고 싶어도 공식 웹사이트 홈페이지에서 직접 캡처할 수 없다는 사실을 발견했습니다. 일반 뉴스 열을 입력하려면 "더 보기"를 클릭해야 합니다.


Paste_Image .png


특정 뉴스 열을 보았지만 이는 분명히 우리의 크롤링 요구 사항을 충족하지 않습니다. 현재 뉴스 웹 페이지는 뉴스의 시간, 제목, URL만 크롤링할 수 있지만 뉴스 내용은 크롤링할 수 없습니다. 따라서 뉴스의 특정 내용을 캡처하기 위해 뉴스 세부정보 페이지로 이동하려고 합니다.

2. 첫 번째 부분의 분석을 통해 뉴스의 특정 정보를 캡처하려면 뉴스 페이지를 클릭하여 뉴스 세부정보 페이지로 들어가 뉴스의 특정 내용을 파악해야 한다고 생각하겠습니다. 시도해 볼 만한 뉴스

Paste_Image.png
뉴스 세부정보 페이지에서 직접 필요한 정보를 얻을 수 있다는 것을 알았습니다. 데이터: 제목, 시간, 내용.URL.

자, 이제 우리는 아이디어를 알았습니다. ​​뉴스를 잡는 방법, 모든 뉴스 콘텐츠를 크롤링하는 방법은 무엇입니까?

이것은 분명히 어렵지 않습니다.


뉴스 열 하단에 페이지 이동 버튼이 표시됩니다.


생각을 정리한 후 확실한 캡처를 생각해 볼 수 있습니다. 가져오기 규칙:

'뉴스 섹션' 아래의 모든 뉴스 링크를 포착하고 뉴스 세부정보 링크를 입력하여 모두 가져옵니다.


3. '쓰기/디버깅' 크롤링 규칙

크롤러를 디버그하기 위해 세분성을 최대한 작게 하고

크롤러에서 구현하겠습니다. 다음 기능 포인트:


1. 페이지의 뉴스 열 아래에 있는 모든 뉴스 링크를 크롤링합니다.
2. 크롤링된 뉴스 링크를 통해 뉴스 세부정보를 입력하고 필요한 데이터(주로 뉴스 콘텐츠)를 크롤링합니다.



해당 지식 포인트는 다음과 같습니다.

1. 크롤링 페이지에서 기본 데이터를 가져옵니다.

3.


더 이상 고민하지 말고 지금 시작해 보세요.

3.1 한 페이지의 뉴스 열 아래에 있는 모든 뉴스 링크를 올라갑니다.

Paste_Image.png

소스를 분석하여 뉴스 칼럼의 코드에서 캡처된 데이터의 구조가

Paste_Image.png

그런 다음 크롤러의 선택기를 (li:newsinfo_box_cf)에 배치한 다음 for 루프를 수행하면 됩니다.
코드 작성
import scrapyclass News2Spider(scrapy.Spider):
    name = "news_info_2"
    start_urls = ["http://ggglxy.scu.edu.cn/index.php?c=special&sid=1&page=1",
    ]def parse(self, response):for href in response.xpath("//div[@class='newsinfo_box cf']"):
            url = response.urljoin(href.xpath("div[@class='news_c fr']/h3/a/@href").extract_first())

테스트하고 통과하세요!

Paste_Image.png

3.2 크롤링된 뉴스 링크를 통해 뉴스 세부정보를 입력하여 필요한 데이터(주로 뉴스 콘텐츠)를 크롤링합니다
이제 URL 세트를 얻었으므로 이제 필요한 제목을 크롤링하기 위해 각 URL을 입력해야 합니다. 시간과 콘텐츠의 코드 구현도 매우 간단합니다. 원본 코드가 URL을 캡처할 때 URL을 입력하고 캡처하기만 하면 됩니다. 따라서 해당 데이터를 뉴스 세부정보 페이지에 입력하려면 다른 캡처 방법만 작성하고 scapy.request를 사용하여 호출하면 됩니다.

코드 작성

#进入新闻详情页的抓取方法
def parse_dir_contents(self, response):item = GgglxyItem()item['date'] = response.xpath("//div[@class='detail_zy_title']/p/text()").extract_first()item['href'] = responseitem['title'] = response.xpath("//div[@class='detail_zy_title']/h1/text()").extract_first()
        data = response.xpath("//div[@class='detail_zy_c pb30 mb30']")item['content'] = data[0].xpath('string(.)').extract()[0]
        yield item

원본 코드에 통합한 후 다음이 있습니다. 테스트 통과!

Paste_Image.png

이제 루프를 추가합니다:
import scrapyfrom ggglxy.items import GgglxyItemclass News2Spider(scrapy.Spider):
    name = "news_info_2"
    start_urls = ["http://ggglxy.scu.edu.cn/index.php?c=special&sid=1&page=1",
    ]def parse(self, response):for href in response.xpath("//div[@class='newsinfo_box cf']"):
            url = response.urljoin(href.xpath("div[@class='news_c fr']/h3/a/@href").extract_first())#调用新闻抓取方法yield scrapy.Request(url, callback=self.parse_dir_contents)#进入新闻详情页的抓取方法                def parse_dir_contents(self, response):
            item = GgglxyItem()
            item['date'] = response.xpath("//div[@class='detail_zy_title']/p/text()").extract_first()
            item['href'] = response
            item['title'] = response.xpath("//div[@class='detail_zy_title']/h1/text()").extract_first()
            data = response.xpath("//div[@class='detail_zy_c pb30 mb30']")
            item['content'] = data[0].xpath('string(.)').extract()[0]yield item

원본 코드에 추가됨:
NEXT_PAGE_NUM = 1 

NEXT_PAGE_NUM = NEXT_PAGE_NUM + 1if NEXT_PAGE_NUM<11:next_url = &#39;http://ggglxy.scu.edu.cn/index.php?c=special&sid=1&page=%s&#39; % NEXT_PAGE_NUM
            yield scrapy.Request(next_url, callback=self.parse)
테스트:

Paste_Image.png

抓到的数量为191,但是我们看官网发现有193条新闻,少了两条.
为啥呢?我们注意到log的error有两条:
定位问题:原来发现,学院的新闻栏目还有两条隐藏的二级栏目:
比如:


Paste_Image.png


对应的URL为


Paste_Image.png


URL都长的不一样,难怪抓不到了!
那么我们还得为这两条二级栏目的URL设定专门的规则,只需要加入判断是否为二级栏目:

  if URL.find(&#39;type&#39;) != -1:      yield scrapy.Request(URL, callback=self.parse)

组装原函数:

import scrapy
from ggglxy.items import GgglxyItem

NEXT_PAGE_NUM = 1class News2Spider(scrapy.Spider):
    name = "news_info_2"
    start_urls = ["http://ggglxy.scu.edu.cn/index.php?c=special&sid=1&page=1",
    ]def parse(self, response):for href in response.xpath("//div[@class=&#39;newsinfo_box cf&#39;]"):
            URL = response.urljoin(href.xpath("div[@class=&#39;news_c fr&#39;]/h3/a/@href").extract_first())if URL.find(&#39;type&#39;) != -1:yield scrapy.Request(URL, callback=self.parse)yield scrapy.Request(URL, callback=self.parse_dir_contents)
        global NEXT_PAGE_NUM
        NEXT_PAGE_NUM = NEXT_PAGE_NUM + 1if NEXT_PAGE_NUM<11:
            next_url = &#39;http://ggglxy.scu.edu.cn/index.php?c=special&sid=1&page=%s&#39; % NEXT_PAGE_NUMyield scrapy.Request(next_url, callback=self.parse) def parse_dir_contents(self, response):
            item = GgglxyItem() 
            item[&#39;date&#39;] = response.xpath("//div[@class=&#39;detail_zy_title&#39;]/p/text()").extract_first()
            item[&#39;href&#39;] = response 
            item[&#39;title&#39;] = response.xpath("//div[@class=&#39;detail_zy_title&#39;]/h1/text()").extract_first()
            data = response.xpath("//div[@class=&#39;detail_zy_c pb30 mb30&#39;]")
            item[&#39;content&#39;] = data[0].xpath(&#39;string(.)&#39;).extract()[0] yield item

测试:


Paste_Image.png

我们发现,抓取的数据由以前的193条增加到了238条,log里面也没有error了,说明我们的抓取规则OK!

4.获得抓取数据

<code class="haxe">     scrapy crawl <span class="hljs-keyword">new<span class="hljs-type">s_info_2 -o <span class="hljs-number">0016.json</span></span></span></code><br/><br/>

위 내용은 Scrapy는 대학 뉴스 보도 사례를 포착합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.