一、前言
qq music上的音樂還是不少的,有些時候想下載好聽的音樂,但有每次在網頁下載都是煩人的登入什麼的。於是,來了qqmusic的爬蟲。至少我覺得for循環爬蟲,最核心的應該就是找到待爬元素所在url吧。下面開始找(講的不對不要笑我)
<br>
#二、Python爬取QQ音樂單曲
之前看的慕課網的一個影片, 很好地講解了一般編寫爬蟲的步驟,我們也按這個來。
爬蟲步驟
1.確定目標
#1.確定目標首先我們要先明確目標,這次爬取的是QQ音樂歌手劉德華的單曲。
(百度百科)->分析目標(策略:url格式(範圍)、資料格式、網頁編碼)->編寫程式碼->執行爬蟲從左邊的截圖可以知道單曲採用分頁的方式排列歌曲訊息,每頁顯示30條,總共30頁。點擊頁碼或最右邊的">"會跳到下一頁,瀏覽器會向伺服器發送ajax非同步請求,從連結可以看到begin和num參數,分別代表起始歌曲下標(截圖是第2頁,起始下標是30)和一頁回傳30條,伺服器回應回傳json格式的歌曲訊息(MusicJsonCallbacksinger_track({"code":0,"data":{"list":[{"Flisten_count1":. .....]})),如果只是單獨想獲取歌曲信息,可以直接拼接鏈接請求和解析返回的json格式的數據。這裡不採用直接解析資料格式的方法,我採用的是Python Selenium方式,每獲取和解析完一頁的單曲信息,點擊">" 跳到下一頁繼續解析,直至解析並記錄所有的單曲資訊。最後請求每個單曲的鏈接,獲取詳細的單曲信息。
右邊的截圖是網頁的原始碼,所有歌曲資訊都在類別名稱為mod_songlist的div浮層裡面,類別名稱為songlist_list的無序列表ul下,每個子元素li展示一個單曲,類別名為songlist__album下的a標籤,包含單曲的鏈接,名稱和時長等。
<br>#3.寫程式碼
1 )下載網頁內容,這裡使用Python 的Urllib標準庫,自己封裝了一個download方法:
def download(url, user_agent='wswp', num_retries=2): if url is None: return None print('Downloading:', url) headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36'} request = urllib.request.Request(url, headers=headers) # 设置用户代理wswp(Web Scraping with Python) try: html = urllib.request.urlopen(request).read().decode('utf-8') except urllib.error.URLError as e: print('Downloading Error:', e.reason) html = None if num_retries > 0: if hasattr(e, 'code') and 500 <h1 id="strong-解析網頁內容-這裡使用第三方插件BeautifulSoup-具體可以參考BeautifulSoup-API-strong"><strong>2)解析網頁內容,這裡使用第三方插件BeautifulSoup,具體可以參考BeautifulSoup API 。 </strong></h1><pre class="brush:php;toolbar:false">def music_scrapter(html, page_num=0): try: soup = BeautifulSoup(html, 'html.parser') mod_songlist_div = soup.find_all('div', class_='mod_songlist') songlist_ul = mod_songlist_div[1].find('ul', class_='songlist__list') '''开始解析li歌曲信息''' lis = songlist_ul.find_all('li') for li in lis: a = li.find('div', class_='songlist__album').find('a') music_url = a['href'] # 单曲链接 urls.add_new_url(music_url) # 保存单曲链接 # print('music_url:{0} '.format(music_url)) print('total music link num:%s' % len(urls.new_urls)) next_page(page_num+1) except TimeoutException as err: print('解析网页出错:', err.args) return next_page(page_num + 1) return None
def get_music(): try: while urls.has_new_url(): # print('urls count:%s' % len(urls.new_urls)) '''跳转到歌曲链接,获取歌曲详情''' new_music_url = urls.get_new_url() print('url leave count:%s' % str( len(urls.new_urls) - 1)) html_data_info = download(new_music_url) # 下载网页失败,直接进入下一循环,避免程序中断 if html_data_info is None: continue soup_data_info = BeautifulSoup(html_data_info, 'html.parser') if soup_data_info.find('div', class_='none_txt') is not None: print(new_music_url, ' 对不起,由于版权原因,暂无法查看该专辑!') continue mod_songlist_div = soup_data_info.find('div', class_='mod_songlist') songlist_ul = mod_songlist_div.find('ul', class_='songlist__list') lis = songlist_ul.find_all('li') del lis[0] # 删除第一个li # print('len(lis):$s' % len(lis)) for li in lis: a_songname_txt = li.find('div', class_='songlist__songname').find('span', class_='songlist__songname_txt').find('a') if 'https' not in a_songname_txt['href']: #如果单曲链接不包含协议头,加上 song_url = 'https:' + a_songname_txt['href'] song_name = a_songname_txt['title'] singer_name = li.find('div', class_='songlist__artist').find('a').get_text() song_time =li.find('div', class_='songlist__time').get_text() music_info = {} music_info['song_name'] = song_name music_info['song_url'] = song_url music_info['singer_name'] = singer_name music_info['song_time'] = song_time collect_data(music_info) except Exception as err: # 如果解析异常,跳过 print('Downloading or parse music information error continue:', err.args)
4.執行爬蟲
#
<span style="font-size: 16px;">爬虫跑起来了,一页一页地去爬取专辑的链接,并保存到集合中,最后通过get_music()方法获取单曲的名称,链接,歌手名称和时长并保存到Excel文件中。</span><br><span style="font-size: 14px;"><img src="/static/imghwm/default1.png" data-src="https://img.php.cn/upload/article/000/000/001/a1138f33f00f8d95b52fbfe06e562d24-4.png?x-oss-process=image/resize,p_40" class="lazy" alt="" style="max-width:90%" style="max-width:90%"><strong><img src="/static/imghwm/default1.png" data-src="https://img.php.cn/upload/article/000/000/001/9282b5f7a1dc4a90cee186c16d036272-5.png?x-oss-process=image/resize,p_40" class="lazy" alt=""></strong></span>
<br>
三、Python爬取QQ音樂單曲總結
1.單曲採用的是分頁方式,切換下一頁是透過非同步ajax請求從伺服器取得json格式的資料並渲染到頁面,瀏覽器網址列連結是不變的,不能透過拼接連結來請求。一開始想過都透過Python Urllib函式庫來模擬ajax請求,後來想還是用Selenium。 Selenium能夠很好地模擬瀏覽器真實的操作,頁面元素定位也很方便,模擬點擊下一頁,不斷地切換單曲分頁,再透過BeautifulSoup解析網頁源碼,獲取單曲資訊。
2.url連結管理器,採用集合資料結構來保存單曲鏈接,為什麼要使用集合?因為多首單曲可能來自同一專輯(專輯網址一樣),這樣可以減少請求次數。
class UrlManager(object):<br> def __init__(self):<br> self.new_urls = set() # 使用集合数据结构,过滤重复元素<br> self.old_urls = set() # 使用集合数据结构,过滤重复元素
def add_new_url(self, url):<br> if url is None:<br> return<br> if url not in self.new_urls and url not in self.old_urls:<br> self.new_urls.add(url)<br><br> def add_new_urls(self, urls):<br> if urls is None or len(urls) == 0:<br> return<br> for url in urls:<br> self.add_new_url(url)<br><br> def has_new_url(self):<br> return len(self.new_urls) != 0<br><br> def get_new_url(self):<br> new_url = self.new_urls.pop()<br> self.old_urls.add(new_url)<br> return new_url<br><br>
3.透過Python第三方外掛程式openpyxl讀寫Excel十分方便,把單曲資訊透過Excel檔案可以很好地保存起來。
###def write_to_excel(self, content):<br> try:<br> for row in content:<br> self.workSheet.append([row['song_name'], row['song_url'], row['singer_name'], row['song_time']])<br> self.workBook.save(self.excelName) # 保存单曲信息到Excel文件<br> except Exception as arr:<br> print('write to excel error', arr.args)<br><br>######四、後語################最後還是要慶祝下,畢竟成功把QQ音樂的單曲訊息爬取下來了。這次能夠成功爬取單曲,Selenium功不可沒,這次只是用到了selenium一些簡單的功能,後續會更加深入學習Selenium,不僅在爬蟲方面還有UI自動化。 ######
後續還需要優化的點:
1.下載的連結比較多,一個一個下載起來比較慢,後面打算用多執行緒並發下載。
2.下載速度過快,為了避免伺服器停用IP,後面還要對於同一網域存取過於頻繁的問題,有個等待機制,每個請求之間有個等待間隔。
3. 解析網頁是一個重要的過程,可以採用正規表示式,BeautifulSoup和lxml,目前採用的是BeautifulSoup庫, 在效率方面,BeautifulSoup沒lxml效率高,後面會嘗試採用lxml。
以上是Python爬取qq音樂的過程實例的詳細內容。更多資訊請關注PHP中文網其他相關文章!

Python在遊戲和GUI開發中表現出色。 1)遊戲開發使用Pygame,提供繪圖、音頻等功能,適合創建2D遊戲。 2)GUI開發可選擇Tkinter或PyQt,Tkinter簡單易用,PyQt功能豐富,適合專業開發。

Python适合数据科学、Web开发和自动化任务,而C 适用于系统编程、游戏开发和嵌入式系统。Python以简洁和强大的生态系统著称,C 则以高性能和底层控制能力闻名。

2小時內可以學會Python的基本編程概念和技能。 1.學習變量和數據類型,2.掌握控制流(條件語句和循環),3.理解函數的定義和使用,4.通過簡單示例和代碼片段快速上手Python編程。

Python在web開發、數據科學、機器學習、自動化和腳本編寫等領域有廣泛應用。 1)在web開發中,Django和Flask框架簡化了開發過程。 2)數據科學和機器學習領域,NumPy、Pandas、Scikit-learn和TensorFlow庫提供了強大支持。 3)自動化和腳本編寫方面,Python適用於自動化測試和系統管理等任務。

兩小時內可以學到Python的基礎知識。 1.學習變量和數據類型,2.掌握控制結構如if語句和循環,3.了解函數的定義和使用。這些將幫助你開始編寫簡單的Python程序。

如何在10小時內教計算機小白編程基礎?如果你只有10個小時來教計算機小白一些編程知識,你會選擇教些什麼�...

使用FiddlerEverywhere進行中間人讀取時如何避免被檢測到當你使用FiddlerEverywhere...

Python3.6環境下加載Pickle文件報錯:ModuleNotFoundError:Nomodulenamed...


熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

AI Hentai Generator
免費產生 AI 無盡。

熱門文章

熱工具

Atom編輯器mac版下載
最受歡迎的的開源編輯器

ZendStudio 13.5.1 Mac
強大的PHP整合開發環境

SublimeText3漢化版
中文版,非常好用

WebStorm Mac版
好用的JavaScript開發工具

VSCode Windows 64位元 下載
微軟推出的免費、功能強大的一款IDE編輯器