透過上面爬取股票個股資金流的例子,大家應該已經能夠學會自己寫爬取程式碼。現在鞏固一下,做個相似的小練習題。要動手自己寫Python程序,爬取網路板塊的資金流。爬取網址為http://data.eastmoney.com/bkzj/hy.html,顯示介面如圖1所示。
圖1 板塊資金流網址介面
1,偵錯工具找出JS
##直接依照F12鍵,開啟開發工具找出偵錯工具找出JS##直接按F12鍵,開啟開發工具找出「JS#」所對應的網頁,如圖2所示。
圖2 找出JS所對應的網頁
#然後把網址輸入瀏覽器中,網址比較長。
http://push2.eastmoney.com/api/qt/clist/get?cb=jQuery112309073354919152763_1617455258434&pn=1&pz=500&po=1617455258434&pn=1&pz=500&po=1&np=200,000,4000,0000,000m&fm. t:2&ut=b2884a393a59ad64002292a3e90d46a5&_=1617455258435
此時,會得到網站的回饋,如圖3所示。
圖3 從網站取得板塊及資金流
該網址對應的內容即是我們想要爬取的內容。
2,request請求及response回應狀態
編寫爬蟲程式碼,詳見以下程式碼:
# coding=utf-8 import requests url=" http://push2.eastmoney.com/api/qt/clist/get?cb=jQuery112309073354919152763_ 1617455258436&fid=f62&po=1&pz=50&pn=1&np=1&fltt=2&invt=2&ut=b2884a393a59ad64002292a3 e90d46a5&fs=m%3A90+t%3A2&fields=f12%2Cf14%2Cf2%2Cf3%2Cf62%2Cf184%2Cf66%2Cf69%2Cf72%2 Cf75%2Cf78%2Cf81%2Cf84%2Cf87%2Cf204%2Cf205%2Cf124" r = requests.get(url)
r.status_code顯示200,表示回應狀態正常。 r.text也有數據,說明爬取資金流數據是成功的,如圖4所示。
圖4 response回應狀態
#3,清洗str變成JSON標準格式
(1)分析r.text資料。其內部是標準的JSON格式,只是前面多了一些前綴。將jQ前綴去掉,使用split()函數就能完成這個操作。詳見如下程式碼:
r_text=r.text.split("{}".format("jQuery112309073354919152763_1617455258436"))[1] r_text
運行結果如圖5所示。
.詳見如下程式碼:
r_text_qu=r_text.rstrip(';') r_text_json=json.loads(r_text_qu[1:-1])['data']['diff'] dfcf_code={"f12":"code","f2":"价格","f3":"涨幅","f14":"name","f62":"主净入√","f66":"超净入","f69":"超占比", "f72":"大净入","f75":"大占比","f78":"中净入","f81":"中占比","f84":"小净入","f87":"小占比","f124":"不知道","f184":"主占比√"} result_=pd.DataFrame(r_text_json).rename(columns=dfcf_code) result_["主净入√"]=round(result_["主净入√"]/100000000,2)#一亿,保留2位 result_=result_[result_["主净入√"]>0] result_["超净入"]=round(result_["超净入"]/100000000,2)#一亿,保留2位 result_["大净入"]=round(result_["大净入"]/100000000,2)#一亿,保留2位 result_["中净入"]=round(result_["中净入"]/100000000,2)#一亿,保留2位 result_["小净入"]=round(result_["小净入"]/100000000,2)#一亿,保留2位 result_
運作結果如圖6所示。
之後符號中排入時的資金中整理出排結果# 使用to_csv()函數保存到本地,如圖7所示。
透過以上兩種資金爬取的例子,想必大家已經了解了爬蟲的部分使用方法。其核心想法是:
(1)選取股票個股資金流的優勢;
(2)取得網址並加以分析;
(3)使用爬蟲進行數據取得並保存資料。
圖6 資料保存#總結JSON格式的資料是許多網站所使用的標準化資料格式之一,是一種輕量級的資料交換格式,十分易於閱讀編寫,可以有效提升網路傳輸效率。首先爬取到的是str格式的字串,透過資料加工與處理,將其變成標準的JSON格式,繼而變成Pandas格式。
透過案例分析與實戰,我們要學會自己編寫程式碼爬取金融資料並具備轉換為JSON標準格式的能力。完成每日資料爬取工作與資料保存工作,為日後資料進行歷史測試與歷史分析提供有效的資料支援。
當然,有能力的讀者可以將結果儲存到MySQL、MongoDB等資料庫中,甚至雲端資料庫Mongo Atlas中,這裡作者不作重點講解。我們將重點完全放在量化學習與策略的研究上。使用txt格式儲存數據,完全可以解決前期資料儲存問題,資料也是完整有效的。
以上是寫一個爬取板塊資金流的Python程序的詳細內容。更多資訊請關注PHP中文網其他相關文章!

每天學習Python兩個小時是否足夠?這取決於你的目標和學習方法。 1)制定清晰的學習計劃,2)選擇合適的學習資源和方法,3)動手實踐和復習鞏固,可以在這段時間內逐步掌握Python的基本知識和高級功能。

Python在Web開發中的關鍵應用包括使用Django和Flask框架、API開發、數據分析與可視化、機器學習與AI、以及性能優化。 1.Django和Flask框架:Django適合快速開發複雜應用,Flask適用於小型或高度自定義項目。 2.API開發:使用Flask或DjangoRESTFramework構建RESTfulAPI。 3.數據分析與可視化:利用Python處理數據並通過Web界面展示。 4.機器學習與AI:Python用於構建智能Web應用。 5.性能優化:通過異步編程、緩存和代碼優

Python在開發效率上優於C ,但C 在執行性能上更高。 1.Python的簡潔語法和豐富庫提高開發效率。 2.C 的編譯型特性和硬件控制提升執行性能。選擇時需根據項目需求權衡開發速度與執行效率。

Python在現實世界中的應用包括數據分析、Web開發、人工智能和自動化。 1)在數據分析中,Python使用Pandas和Matplotlib處理和可視化數據。 2)Web開發中,Django和Flask框架簡化了Web應用的創建。 3)人工智能領域,TensorFlow和PyTorch用於構建和訓練模型。 4)自動化方面,Python腳本可用於復製文件等任務。

Python在數據科學、Web開發和自動化腳本領域廣泛應用。 1)在數據科學中,Python通過NumPy、Pandas等庫簡化數據處理和分析。 2)在Web開發中,Django和Flask框架使開發者能快速構建應用。 3)在自動化腳本中,Python的簡潔性和標準庫使其成為理想選擇。

Python的靈活性體現在多範式支持和動態類型系統,易用性則源於語法簡潔和豐富的標準庫。 1.靈活性:支持面向對象、函數式和過程式編程,動態類型系統提高開發效率。 2.易用性:語法接近自然語言,標準庫涵蓋廣泛功能,簡化開發過程。

Python因其簡潔與強大而備受青睞,適用於從初學者到高級開發者的各種需求。其多功能性體現在:1)易學易用,語法簡單;2)豐富的庫和框架,如NumPy、Pandas等;3)跨平台支持,可在多種操作系統上運行;4)適合腳本和自動化任務,提升工作效率。

可以,在每天花費兩個小時的時間內學會Python。 1.制定合理的學習計劃,2.選擇合適的學習資源,3.通過實踐鞏固所學知識,這些步驟能幫助你在短時間內掌握Python。


熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

AI Hentai Generator
免費產生 AI 無盡。

熱門文章

熱工具

Atom編輯器mac版下載
最受歡迎的的開源編輯器

MantisBT
Mantis是一個易於部署的基於Web的缺陷追蹤工具,用於幫助產品缺陷追蹤。它需要PHP、MySQL和一個Web伺服器。請查看我們的演示和託管服務。

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用