사천대학교 행정학부 공식 홈페이지에서 모든 뉴스 문의를 받아보세요.
1. 크롤링 대상을 결정합니다.
2. 크롤링 규칙을 개발합니다.
3.
4. 크롤링된 데이터 가져오기
이번에 크롤링해야 할 대상은 쓰촨대학교 공공정책경영학부의 모든 뉴스 정보이므로 레이아웃 구조를 알아야 합니다.
여기서 우리는 모든 뉴스 정보를 캡처하고 싶어도 공식 웹사이트 홈페이지에서 직접 캡처할 수 없다는 사실을 발견했습니다. 일반 뉴스 열을 입력하려면 "더 보기"를 클릭해야 합니다.
특정 뉴스 열을 보았지만 이는 분명히 우리의 크롤링 요구 사항을 충족하지 않습니다. 현재 뉴스 웹 페이지는 뉴스의 시간, 제목, URL만 크롤링할 수 있지만 뉴스 내용은 크롤링할 수 없습니다. 따라서 뉴스의 특정 내용을 캡처하기 위해 뉴스 세부정보 페이지로 이동하려고 합니다.
자, 이제 우리는 아이디어를 알았습니다. 뉴스를 잡는 방법, 모든 뉴스 콘텐츠를 크롤링하는 방법은 무엇입니까?
이것은 분명히 어렵지 않습니다.
생각을 정리한 후 확실한 캡처를 생각해 볼 수 있습니다. 가져오기 규칙:
3. '쓰기/디버깅' 크롤링 규칙
2. 크롤링된 뉴스 링크를 통해 뉴스 세부정보를 입력하고 필요한 데이터(주로 뉴스 콘텐츠)를 크롤링합니다.
해당 지식 포인트는 다음과 같습니다.
1. 크롤링 페이지에서 기본 데이터를 가져옵니다.
3.Paste_Image.png3.1 한 페이지의 뉴스 열 아래에 있는 모든 뉴스 링크를 올라갑니다.
더 이상 고민하지 말고 지금 시작해 보세요.
import scrapyclass News2Spider(scrapy.Spider): name = "news_info_2" start_urls = ["http://ggglxy.scu.edu.cn/index.php?c=special&sid=1&page=1", ]def parse(self, response):for href in response.xpath("//div[@class='newsinfo_box cf']"): url = response.urljoin(href.xpath("div[@class='news_c fr']/h3/a/@href").extract_first())
테스트하고 통과하세요!
Paste_Image.png#进入新闻详情页的抓取方法 def parse_dir_contents(self, response):item = GgglxyItem()item['date'] = response.xpath("//div[@class='detail_zy_title']/p/text()").extract_first()item['href'] = responseitem['title'] = response.xpath("//div[@class='detail_zy_title']/h1/text()").extract_first() data = response.xpath("//div[@class='detail_zy_c pb30 mb30']")item['content'] = data[0].xpath('string(.)').extract()[0] yield item
원본 코드에 통합한 후 다음이 있습니다. 테스트 통과!
Paste_Image.pngimport scrapyfrom ggglxy.items import GgglxyItemclass News2Spider(scrapy.Spider): name = "news_info_2" start_urls = ["http://ggglxy.scu.edu.cn/index.php?c=special&sid=1&page=1", ]def parse(self, response):for href in response.xpath("//div[@class='newsinfo_box cf']"): url = response.urljoin(href.xpath("div[@class='news_c fr']/h3/a/@href").extract_first())#调用新闻抓取方法yield scrapy.Request(url, callback=self.parse_dir_contents)#进入新闻详情页的抓取方法 def parse_dir_contents(self, response): item = GgglxyItem() item['date'] = response.xpath("//div[@class='detail_zy_title']/p/text()").extract_first() item['href'] = response item['title'] = response.xpath("//div[@class='detail_zy_title']/h1/text()").extract_first() data = response.xpath("//div[@class='detail_zy_c pb30 mb30']") item['content'] = data[0].xpath('string(.)').extract()[0]yield item
抓到的数量为191,但是我们看官网发现有193条新闻,少了两条.
为啥呢?我们注意到log的error有两条:
定位问题:原来发现,学院的新闻栏目还有两条隐藏的二级栏目:
比如:
对应的URL为
URL都长的不一样,难怪抓不到了!
那么我们还得为这两条二级栏目的URL设定专门的规则,只需要加入判断是否为二级栏目:
if URL.find('type') != -1: yield scrapy.Request(URL, callback=self.parse)
组装原函数:
import scrapy from ggglxy.items import GgglxyItem NEXT_PAGE_NUM = 1class News2Spider(scrapy.Spider): name = "news_info_2" start_urls = ["http://ggglxy.scu.edu.cn/index.php?c=special&sid=1&page=1", ]def parse(self, response):for href in response.xpath("//div[@class='newsinfo_box cf']"): URL = response.urljoin(href.xpath("div[@class='news_c fr']/h3/a/@href").extract_first())if URL.find('type') != -1:yield scrapy.Request(URL, callback=self.parse)yield scrapy.Request(URL, callback=self.parse_dir_contents) global NEXT_PAGE_NUM NEXT_PAGE_NUM = NEXT_PAGE_NUM + 1if NEXT_PAGE_NUM<11: next_url = 'http://ggglxy.scu.edu.cn/index.php?c=special&sid=1&page=%s' % NEXT_PAGE_NUMyield scrapy.Request(next_url, callback=self.parse) def parse_dir_contents(self, response): item = GgglxyItem() item['date'] = response.xpath("//div[@class='detail_zy_title']/p/text()").extract_first() item['href'] = response item['title'] = response.xpath("//div[@class='detail_zy_title']/h1/text()").extract_first() data = response.xpath("//div[@class='detail_zy_c pb30 mb30']") item['content'] = data[0].xpath('string(.)').extract()[0] yield item
测试:
我们发现,抓取的数据由以前的193条增加到了238条,log里面也没有error了,说明我们的抓取规则OK!
<code class="haxe"> scrapy crawl <span class="hljs-keyword">new<span class="hljs-type">s_info_2 -o <span class="hljs-number">0016.json</span></span></span></code><br/><br/>
위 내용은 Scrapy는 대학 뉴스 보도 사례를 포착합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!