Pythonのurllibライブラリの使い方と方法、Pythonのネットワークデータ収集Urllibライブラリの基本的な使い方、Pythonのurllibの高度な使い方についてお話しました。
今日は、Python で Requests ライブラリを使用する方法を学びます。
pip パッケージ (Python パッケージ管理ツール。Baidu を使用できるかどうかはわかりません) をインストールしている場合、または Python (x) などの統合環境をインストールしている場合は、pip を使用してインストールします。 、y) または anaconda の場合、pip を直接使用して Python ライブラリをインストールできます。
$ pip install requests
インストールが完了したら、基本的なメソッドを見てみましょう:
#get请求方法 >>> r = requests.get('https://api.github.com/user', auth=('user', 'pass')) #打印get请求的状态码 >>> r.status_code 200 #查看请求的数据类型,可以看到是json格式,utf-8编码 >>> r.headers['content-type'] 'application/json; charset=utf8' >>> r.encoding 'utf-8' #打印请求到的内容 >>> r.text u'{"type":"User"...' #输出json格式数据 >>> r.json() {u'private_gists': 419, u'total_private_repos': 77, ...}
小さな栗を見てみましょう:
#小例子 import requests r = requests.get('http://www.baidu.com') print type(r) print r.status_code print r.encoding print r.text print r.cookies '''请求了百度的网址,然后打印出了返回结果的类型,状态码,编码方式,Cookies等内容 输出:''' <class 'requests.models.Response'> 200 UTF-8 <RequestsCookieJar[]>
requests ライブラリは、http のすべての基本的なリクエスト メソッドを提供します。例:
r = requests.post("http://httpbin.org/post") r = requests.put("http://httpbin.org/put") r = requests.delete("http://httpbin.org/delete") r = requests.head("http://httpbin.org/get") r = requests.options("http://httpbin.org/get")
r = requests.get("http://httpbin.org/get") #如果想要加参数,可以利用 params 参数: import requests payload = {'key1': 'value1', 'key2': 'value2'} r = requests.get("http://httpbin.org/get", params=payload) print r.url #输出:http://httpbin.org/get?key2=value2&key1=value1
JSON ファイルをリクエストする場合は、json() メソッドを使用して解析できます。たとえば、次の内容を含む a.json という名前の JSON ファイルを作成します。
["foo", "bar", { "foo": "bar" }] #利用如下程序请求并解析: import requests r = requests.get("a.json") print r.text print r.json() '''运行结果如下,其中一个是直接输出内容,另外一个方法是利用 json() 方法 解析,感受下它们的不同:''' ["foo", "bar", { "foo": "bar" }] [u'foo', u'bar', {u'foo': u'bar'}]サーバーのSocketレスポンスから元データを取得したい場合は、r.rawを取得できます。 ただし、最初のリクエストでは stream=True を設定する必要があります。
r = requests.get('https://github.com/timeline.json', stream=True) r.raw #输出 <requests.packages.urllib3.response.HTTPResponse object at 0x101194810> r.raw.read(10) '\x1f\x8b\x08\x00\x00\x00\x00\x00\x00\x03'このようにして、Web ページの元のソケットのコンテンツが取得されます。 ヘッダーを追加したい場合は、headers パラメータを渡すことができます:
import requests payload = {'key1': 'value1', 'key2': 'value2'} headers = {'content-type': 'application/json'} r = requests.get("http://httpbin.org/get", params=payload, headers=headers) print r.url #通过headers参数可以增加请求头中的headers信息基本的な POST リクエスト POST リクエストの場合、通常、いくつかのパラメータを追加する必要があります。次に、パラメータを渡す最も基本的な方法として、data パラメータを使用できます。
import requests payload = {'key1': 'value1', 'key2': 'value2'} r = requests.post("http://httpbin.org/post", data=payload) print r.text #运行结果如下: { "args": {}, "data": "", "files": {}, "form": { "key1": "value1", "key2": "value2" }, "headers": { "Accept": "*/*", "Accept-Encoding": "gzip, deflate", "Content-Length": "23", "Content-Type": "application/x-www-form-urlencoded", "Host": "http://httpbin.org", "User-Agent": "python-requests/2.9.1" }, "json": null, "url": "http://httpbin.org/post" }パラメータが正常に渡され、サーバーが渡したデータを返したことがわかります。 送信する必要がある情報がフォームの形式ではない場合があり、データを JSON 形式で送信する必要があるため、json.dumps() メソッドを使用してフォーム データをシリアル化できます。
import json import requests url = 'http://httpbin.org/post' payload = {'some': 'data'} r = requests.post(url, data=json.dumps(payload)) print r.text #运行结果: { "args": {}, "data": "{\"some\": \"data\"}", "files": {}, "form": {}, "headers": { "Accept": "*/*", "Accept-Encoding": "gzip, deflate", "Content-Length": "16", "Host": "http://httpbin.org", "User-Agent": "python-requests/2.9.1" }, "json": { "some": "data" }, "url": "http://httpbin.org/post" }上記のメソッドを通じて、JSON 形式でデータを POST することができます ファイルをアップロードしたい場合は、file パラメーターを直接使用するだけです:
#新建一个 test.txt 的文件,内容写上 Hello World! import requests url = 'http://httpbin.org/post' files = {'file': open('test.txt', 'rb')} r = requests.post(url, files=files) print r.text { "args": {}, "data": "", "files": { "file": "Hello World!" }, "form": {}, "headers": { "Accept": "*/*", "Accept-Encoding": "gzip, deflate", "Content-Length": "156", "Content-Type": "multipart/form-data; boundary=7d8eb5ff99a04c11bb3e862ce78d7000", "Host": "http://httpbin.org", "User-Agent": "python-requests/2.9.1" }, "json": null, "url": "http://httpbin.org/post" }このようにして、ファイルのアップロードが正常に完了しました。 リクエストはストリーミング アップロードをサポートしているため、最初にメモリに読み込まずに大きなデータ ストリームやファイルを送信できます。ストリーミング アップロードを使用するには、リクエスト本文にファイルのようなオブジェクトを指定するだけで済みます。これは非常に便利です:
with open('massive-body') as f: requests.post('http://some.url/streamed', data=f)Cookies 応答に Cookie が含まれている場合は、Cookie 変数を使用してそれを取得できます:
import requests url = 'Example Domain' r = requests.get(url) print r.cookies print r.cookies['example_cookie_name']上記のプログラムは単なるサンプルであり、cookie 変数を使用してサイトの cookie を取得できますさらに、cookie 変数を使用して cookie 情報をサーバーに送信することもできます:
import requests url = 'http://httpbin.org/cookies' cookies = dict(cookies_are='working') r = requests.get(url, cookies=cookies) print r.text #输出: '{"cookies": {"cookies_are": "working"}}'タイムアウト設定タイムアウト変数を使用して最大リクエスト時間を設定します
requests.get(‘Build software better, together’, timeout=0.001)注: タイムアウトは接続プロセスに対してのみ有効であり、応答本文のダウンロードとは関係ありません。 つまり、今回は要求された時間のみを制限します。返されるレスポンスに大量のコンテンツが含まれている場合でも、ダウンロードには時間がかかります。 Session オブジェクト 上記のリクエストでは、各リクエストは実際には新しいリクエストを開始することと同じです。これは、異なるブラウザを使用して各リクエストを個別に開くことと同じです。つまり、同じ URL が要求された場合でも、セッションは参照されません。例:
import requests requests.get('http://httpbin.org/cookies/set/sessioncookie/123456789') r = requests.get("http://httpbin.org/cookies") print(r.text) #结果是: { "cookies": {} }明らかに、これはセッション内ではないため、Cookie を取得できません。では、一部のサイトで永続的なセッションを維持する必要がある場合はどうすればよいでしょうか。ブラウザを使用して Taobao を閲覧するのと同じように、異なるタブ間を移動すると、実際には長期間のセッションが作成されます。 解決策は次のとおりです:
import requests s = requests.Session() s.get('http://httpbin.org/cookies/set/sessioncookie/123456789') r = s.get("http://httpbin.org/cookies") print(r.text) #在这里我们请求了两次,一次是设置 cookies,一次是获得 cookies { "cookies": { "sessioncookie": "123456789" } }は Cookie を正常に取得できることがわかり、これによりセッションが確立されます。 セッションはグローバル変数なので、間違いなくグローバル設定に使用できます。
import requests s = requests.Session() s.headers.update({'x-test': 'true'}) r = s.get('http://httpbin.org/headers', headers={'x-test2': 'true'}) print r.text '''通过 s.headers.update 方法设置了 headers 的变量。然后我们又在请求中 设置了一个 headers,那么会出现什么结果?很简单,两个变量都传送过去了。 运行结果:''' { "headers": { "Accept": "*/*", "Accept-Encoding": "gzip, deflate", "Host": "http://httpbin.org", "User-Agent": "python-requests/2.9.1", "X-Test": "true", "X-Test2": "true" } }get メソッドで渡されたヘッダーも x-test だったらどうなるでしょうか?
r = s.get('http://httpbin.org/headers', headers={'x-test': 'true'}) #它会覆盖掉全局的配置: { "headers": { "Accept": "*/*", "Accept-Encoding": "gzip, deflate", "Host": "http://httpbin.org", "User-Agent": "python-requests/2.9.1", "X-Test": "true" } }グローバル設定に変数を入れたくない場合はどうすればよいですか?簡単です。「なし」に設定するだけです。
r = s.get('http://httpbin.org/headers', headers={'x-test': None}) { "headers": { "Accept": "*/*", "Accept-Encoding": "gzip, deflate", "Host": "http://httpbin.org", "User-Agent": "python-requests/2.9.1" } }以上がセッション session の基本的な使い方です。 SSL 証明書の検証 https で始まる Web サイトのどこでも利用できるようになりました。リクエストは、Web ブラウザと同じように、HTTPS リクエストの SSL 証明書を検証できます。特定のホストの SSL 証明書を確認するには、verify パラメーターを使用できます。12306 証明書は以前は無効ではなかったので、テストしてみましょう:
import requests r = requests.get('https://kyfw.12306.cn/otn/', verify=True) print r.text #结果: requests.exceptions.SSLError: [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed (_ssl.c:590)github を試してみましょう:
import requests r = requests.get('Build software better, together', verify=True) print r.textこれは通常のリクエストです。内容も同様です。さらにある場合は、出力を貼り付けません。 先ほどの 12306 の証明書検証をスキップしたい場合は、verify を False に設定してください:
import requests r = requests.get('https://kyfw.12306.cn/otn/', verify=False) print r.text判明したら通常どおりリクエストできます。デフォルトでは verify は True なので、必要に応じてこの変数を手動で設定する必要があります。 プロキシ プロキシを使用する必要がある場合は、任意のリクエスト メソッドに proxies パラメータを指定することで、個別のリクエストを構成できます。
りー
以上がPython で Requests ライブラリを使用する方法の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。