検索

ホームページ  >  に質問  >  本文

网页爬虫 - 求Python大神帮帮忙!

是一个豆瓣电影Top250代码,肿么能够实现在电影名前加上Top1 Top2
啊?

"""
爬取豆瓣电影TOP250 - 完整示例代码
"""

import codecs

import requests
from bs4 import BeautifulSoup

DOWNLOAD_URL = 'http://movie.douban.com/top250/'


def download_page(url):
    return requests.get(url, headers={
        'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/47.0.2526.80 Safari/537.36'
    }).content


def parse_html(html):
    soup = BeautifulSoup(html)
    movie_list_soup = soup.find('ol', attrs={'class': 'grid_view'})

    movie_name_list = []

    for movie_li in movie_list_soup.find_all('li'):
        detail = movie_li.find('p', attrs={'class': 'hd'})
        movie_name = detail.find('span', attrs={'class': 'title'}).getText()

        movie_name_list.append(movie_name)

    next_page = soup.find('span', attrs={'class': 'next'}).find('a')
    if next_page:
        return movie_name_list, DOWNLOAD_URL + next_page['href']
    return movie_name_list, None


def main():
    url = DOWNLOAD_URL

    with codecs.open('movies', 'wb', encoding='utf-8') as fp:
        while url:
            html = download_page(url)
            movies, url = parse_html(html)
            fp.write(u'{movies}\n'.format(movies='\n'.join(movies)))


if __name__ == '__main__':
    main()

谢谢大神!

高洛峰高洛峰2889日前235

全員に返信(4)返信します

  • 高洛峰

    高洛峰2017-04-18 09:21:30

    下に降りたらエクセルに追加するか、クロールしたページにランキング情報がある場合は一番上の文字列と組み合わせるだけです

    返事
    0
  • PHP中文网

    PHP中文网2017-04-18 09:21:30

    250 には API インターフェースがあり、json を解析するとすべてを取得できます。

    返事
    0
  • 阿神

    阿神2017-04-18 09:21:30

    とても簡単です。新しいリストを作成し、for ループを使用して追加する名前を先頭に置き、i 変数 topi を定義して名前の前に追加するだけですよね?

    返事
    0
  • 大家讲道理

    大家讲道理2017-04-18 09:21:30

    そうですか

    返事
    0
  • キャンセル返事