搜尋
首頁後端開發Python教學零基礎寫python爬蟲之使用Scrapy框架寫爬蟲

網路爬蟲,是在網路上進行資料抓取的程序,使用它能夠抓取特定網頁的HTML資料。雖然我們利用一些函式庫開發一個爬蟲程序,但使用框架可以大幅提高效率,縮短開發時間。 Scrapy是一個使用Python編寫的,輕量級的,簡單輕巧,並且使用起來非常的方便。使用Scrapy可以很方便的完成網上數據的採集工作,它為我們完成了大量的工作,而不需要自己費大力氣去開發。

首先要回答一個問題。
問:把網站裝進爬蟲裡,總共分幾步?
答案很簡單,四步:
新建項目(Project):新建一個新的爬蟲項目
明確目標(Items):明確你想要抓取的目標
製作爬蟲(Spider):製作爬蟲開始爬取網頁
儲存內容(Pipeline):設計管道儲存爬取內容

好的,基本流程既然確定了,那接下來就一步一步的完成就可以了。

1.新項目(Project)
在空目錄下按住Shift鍵右鍵,選擇“在此處打開命令視窗”,輸入一下命令:

scrapy startproject tutorial

其中,tutorial為項目名稱。
可以看到將會建立一個tutorial資料夾,目錄結構如下:

tutorial/  
    scrapy.cfg  
    tutorial/  
        __init__.py  
        items.py  
        pipelines.py  
        settings.py  
        spiders/  
            __init__.py  
            ...

下面來簡單介紹一下各個檔案的作用:
scrapy.cfg:專案的設定檔
tutorial/:專案的Python模組,將會從這裡引用程式碼
tutorial/items.py:專案的items檔案
tutorial/pipelines.py:專案的pipelines檔案
tutorial/settings.py:專案的設定檔
tutorial/spiders/:儲存爬蟲的目錄

2.明確目標(Item)
在Scrapy中,items是用來載入抓取內容的容器,有點像Python中的Dic,也就是字典,但提供了一些額外的保護減少錯誤。
一般來說,item可以用scrapy.item.Item類別來創建,並且用scrapy.item.Field物件來定義屬性(可以理解成類似ORM的映射關係)。
接下來,我們開始來建立item模型(model)。
首先,我們想要的內容有:
名稱(name)
連結(url)
描述(description)

修改tutorial目錄下的items.py文件,在原本的class後面添加我們自己的class。
因為要抓dmoz.org網站的內容,所以我們可以將其命名為DmozItem:

# Define here the models for your scraped items  
#  
# See documentation in:  
# http://doc.scrapy.org/en/latest/topics/items.html  
  
from scrapy.item import Item, Field  
  
class TutorialItem(Item):  
    # define the fields for your item here like:  
    # name = Field()  
    pass  
  
class DmozItem(Item):  
    title = Field()  
    link = Field()  
    desc = Field()

剛開始看起來可能會有些看不懂,但是定義這些item能讓你用其他組件的時候知道你的items到底是什麼。
可以把Item簡單的理解成封裝好的類別物件。

3.製作爬蟲(Spider)

製作爬蟲,整體分兩步:先爬再取。
也就是說,首先你要取得整個網頁的所有內容,然後再取出其中對你有用的部分。
3.1爬
Spider是使用者自己寫的類,用來從一個域(或域組)抓取資訊。
他們定義了用於下載的URL清單、追蹤連結的方案、解析網頁內容的方式,以提取items。
要建立一個Spider,你必須用scrapy.spider.BaseSpider創建一個子類,並確定三個強制的屬性:
name:爬蟲的識別名稱,必須是唯一的,在不同的爬蟲中你必須定義不同的名字。
start_urls:爬取的URL列表。爬蟲會從這裡開始抓取數據,所以,第一次下載的數據將會從這些urls開始。其他子URL將會從這些起始URL繼承性產生。
parse():解析的方法,呼叫的時候傳入從每一個URL傳回的Response物件作為唯一參數,負責解析並匹配抓取的資料(解析為item),追蹤更多的URL。
 
這裡可以參考寬度爬蟲教程中提及的思想來幫助理解,教程傳送:[Java] 知乎下巴第5集:使用HttpClient工具包和寬度爬蟲。
也就是把Url儲存下來並依此為起點逐步擴散開去,抓取所有符合條件的網頁Url儲存起來繼續爬取。

下面我們來寫第一隻爬蟲,命名為dmoz_spider.py,保存在tutorialspiders目錄下。
dmoz_spider.py代碼如下:

from scrapy.spider import Spider  
  
class DmozSpider(Spider):  
    name = "dmoz"  
    allowed_domains = ["dmoz.org"]  
    start_urls = [  
        "http://www.dmoz.org/Computers/Programming/Languages/Python/Books/",  
        "http://www.dmoz.org/Computers/Programming/Languages/Python/Resources/"  
    ]  
  
    def parse(self, response):  
        filename = response.url.split("/")[-2]  
        open(filename, 'wb').write(response.body)

allow_domains是搜尋的網域範圍,也就是爬蟲的約束區域,規定爬蟲只爬取這個網域下的網頁。
從parse函數可以看出,將連結的最後兩個位址取出作為檔案名稱進行儲存。
然後運行一下看看,在tutorial目錄下按住shift右鍵,在此處打開命令窗口,輸入:

scrapy crawl dmoz

運行結果如圖:

零基礎寫python爬蟲之使用Scrapy框架寫爬蟲

報錯了:
UnicodeDecodeError: 'ascii'codec cancanii' 't decode byte 0xb0 in position 1: ordinal not in range(128)
運行第一個Scrapy專案就報錯,真是命運多舛。
應該是出了編碼問題,谷歌了一下找到了解決方案:
在python的Libsite-packages文件夾下新建一個sitecustomize.py:

import sys    
sys.setdefaultencoding('gb2312')

再次運行,OK,問題解決了,看一下結果:

零基礎寫python爬蟲之使用Scrapy框架寫爬蟲

最后一句INFO: Closing spider (finished)表明爬虫已经成功运行并且自行关闭了。
包含 [dmoz]的行 ,那对应着我们的爬虫运行的结果。
可以看到start_urls中定义的每个URL都有日志行。
还记得我们的start_urls吗?
http://www.dmoz.org/Computers/Programming/Languages/Python/Books
http://www.dmoz.org/Computers/Programming/Languages/Python/Resources
因为这些URL是起始页面,所以他们没有引用(referrers),所以在它们的每行末尾你会看到 (referer: )。
在parse 方法的作用下,两个文件被创建:分别是 Books 和 Resources,这两个文件中有URL的页面内容。

那么在刚刚的电闪雷鸣之中到底发生了什么呢?
首先,Scrapy为爬虫的 start_urls属性中的每个URL创建了一个 scrapy.http.Request 对象 ,并将爬虫的parse 方法指定为回调函数。
然后,这些 Request被调度并执行,之后通过parse()方法返回scrapy.http.Response对象,并反馈给爬虫。

3.2取
爬取整个网页完毕,接下来的就是的取过程了。
光存储一整个网页还是不够用的。
在基础的爬虫里,这一步可以用正则表达式来抓。
在Scrapy里,使用一种叫做 XPath selectors的机制,它基于 XPath表达式。
如果你想了解更多selectors和其他机制你可以查阅资料:点我点我

这是一些XPath表达式的例子和他们的含义
/html/head/title: 选择HTML文档

元素下面的 标签。<br>/html/head/title/text(): 选择前面提到的<title> 元素下面的文本内容<br>//td: 选择所有 <td> 元素<br>//div[@class="mine"]: 选择所有包含 class="mine" 属性的div 标签元素<br>以上只是几个使用XPath的简单例子,但是实际上XPath非常强大。<br>可以参照W3C教程:点我点我。<p>为了方便使用XPaths,Scrapy提供XPathSelector 类,有两种可以选择,HtmlXPathSelector(HTML数据解析)和XmlXPathSelector(XML数据解析)。<br>必须通过一个 Response 对象对他们进行实例化操作。<br>你会发现Selector对象展示了文档的节点结构。因此,第一个实例化的selector必与根节点或者是整个目录有关 。<br>在Scrapy里面,Selectors 有四种基础的方法(点击查看API文档):<br>xpath():返回一系列的selectors,每一个select表示一个xpath参数表达式选择的节点<br>css():返回一系列的selectors,每一个select表示一个css参数表达式选择的节点<br>extract():返回一个unicode字符串,为选中的数据<br>re():返回一串一个unicode字符串,为使用正则表达式抓取出来的内容</p> <p>3.3xpath实验<br>下面我们在Shell里面尝试一下Selector的用法。</p> <p><img src="/static/imghwm/default1.png" data-src="https://img.php.cn//upload/image/353/298/615/1481607473483397.jpg?x-oss-process=image/resize,p_40" class="lazy" title="零基礎寫python爬蟲之使用Scrapy框架寫爬蟲" alt="零基礎寫python爬蟲之使用Scrapy框架寫爬蟲" style="max-width:90%" style="max-width:90%"></p> <p>熟悉完了实验的小白鼠,接下来就是用Shell爬取网页了。<br>进入到项目的顶层目录,也就是第一层tutorial文件夹下,在cmd中输入:</p><pre class='brush:php;toolbar:false;'>scrapy shell http://www.dmoz.org/Computers/Programming/Languages/Python/Books/</pre><p>回车后可以看到如下的内容:</p> <p><img src="/static/imghwm/default1.png" data-src="https://img.php.cn//upload/image/439/925/427/1481607511107368.jpg?x-oss-process=image/resize,p_40" class="lazy" title="零基礎寫python爬蟲之使用Scrapy框架寫爬蟲" alt="零基礎寫python爬蟲之使用Scrapy框架寫爬蟲" style="max-width:90%" style="max-width:90%"></p> <p>在Shell载入后,你将获得response回应,存储在本地变量 response中。<br>所以如果你输入response.body,你将会看到response的body部分,也就是抓取到的页面内容:</p> <p><img src="/static/imghwm/default1.png" data-src="https://img.php.cn//upload/image/430/606/291/1481607527678411.jpg?x-oss-process=image/resize,p_40" class="lazy" title="零基礎寫python爬蟲之使用Scrapy框架寫爬蟲" alt="零基礎寫python爬蟲之使用Scrapy框架寫爬蟲" style="max-width:90%" style="max-width:90%"></p> <p>或者输入response.headers 来查看它的 header部分:</p> <p><img src="/static/imghwm/default1.png" data-src="https://img.php.cn//upload/image/962/265/546/1481607541777297.jpg?x-oss-process=image/resize,p_40" class="lazy" title="零基礎寫python爬蟲之使用Scrapy框架寫爬蟲" alt="零基礎寫python爬蟲之使用Scrapy框架寫爬蟲" style="max-width:90%" style="max-width:90%"></p> <p>现在就像是一大堆沙子握在手里,里面藏着我们想要的金子,所以下一步,就是用筛子摇两下,把杂质出去,选出关键的内容。<br>selector就是这样一个筛子。<br>在旧的版本中,Shell实例化两种selectors,一个是解析HTML的 hxs 变量,一个是解析XML 的 xxs 变量。<br>而现在的Shell为我们准备好的selector对象,sel,可以根据返回的数据类型自动选择最佳的解析方案(XML or HTML)。<br>然后我们来捣弄一下!~<br>要彻底搞清楚这个问题,首先先要知道,抓到的页面到底是个什么样子。<br>比如,我们要抓取网页的标题,也就是</p> <title>这个标签:<p><img src="/static/imghwm/default1.png" data-src="https://img.php.cn//upload/image/630/582/688/1481607561230519.png?x-oss-process=image/resize,p_40" class="lazy" title="零基礎寫python爬蟲之使用Scrapy框架寫爬蟲" alt="零基礎寫python爬蟲之使用Scrapy框架寫爬蟲" style="max-width:90%" style="max-width:90%"></p> <p>可以输入:</p><pre class='brush:php;toolbar:false;'>sel.xpath(&#39;//title&#39;)</pre><p>结果就是:</p> <p><img src="/static/imghwm/default1.png" data-src="https://img.php.cn//upload/image/954/992/585/1481607596582683.png?x-oss-process=image/resize,p_40" class="lazy" title="零基礎寫python爬蟲之使用Scrapy框架寫爬蟲" alt="零基礎寫python爬蟲之使用Scrapy框架寫爬蟲" style="max-width:90%" style="max-width:90%"></p> <p>这样就能把这个标签取出来了,用extract()和text()还可以进一步做处理。<br>备注:简单的罗列一下有用的xpath路径表达式:<br>表达式 描述<br>nodename 选取此节点的所有子节点。<br>/ 从根节点选取。<br>// 从匹配选择的当前节点选择文档中的节点,而不考虑它们的位置。<br>. 选取当前节点。<br>.. 选取当前节点的父节点。<br>@ 选取属性。<br>全部的实验结果如下,In[i]表示第i次实验的输入,Out[i]表示第i次结果的输出</p><pre class='brush:php;toolbar:false;'>In [1]: sel.xpath(&#39;//title&#39;) Out[1]: [<Selector xpath='//title' data=u'<title>Open Directory - Computers: Progr'>] In [2]: sel.xpath(&#39;//title&#39;).extract() Out[2]: [u'<title>Open Directory - Computers: Programming: Languages: Python: Books'] In [3]: sel.xpath('//title/text()') Out[3]: [] In [4]: sel.xpath('//title/text()').extract() Out[4]: [u'Open Directory - Computers: Programming: Languages: Python: Books'] In [5]: sel.xpath('//title/text()').re('(\w+):') Out[5]: [u'Computers', u'Programming', u'Languages', u'Python']

当然title这个标签对我们来说没有太多的价值,下面我们就来真正抓取一些有意义的东西。
使用火狐的审查元素我们可以清楚地看到,我们需要的东西如下:

零基礎寫python爬蟲之使用Scrapy框架寫爬蟲

我们可以用如下代码来抓取这个

  • 标签:
    sel.xpath(&#39;//ul/li&#39;)

  • 标签中,可以这样获取网站的描述:
    sel.xpath(&#39;//ul/li/text()&#39;).extract()

    可以这样获取网站的标题:

    sel.xpath(&#39;//ul/li/a/text()&#39;).extract()

  • 标签中,可以这样获取网站的描述:
    sel.xpath(&#39;//ul/li/text()&#39;).extract()

    可以这样获取网站的标题:

    sel.xpath(&#39;//ul/li/a/text()&#39;).extract()

    可以这样获取网站的超链接:

    sel.xpath(&#39;//ul/li/a/@href&#39;).extract()

    当然,前面的这些例子是直接获取属性的方法。
    我们注意到xpath返回了一个对象列表,
    那么我们也可以直接调用这个列表中对象的属性挖掘更深的节点
    (参考:Nesting selectors andWorking with relative XPaths in the Selectors):
    sites = sel.xpath('//ul/li')
    for site in sites:
        title = site.xpath('a/text()').extract()
        link = site.xpath('a/@href').extract()
        desc = site.xpath('text()').extract()
        print title, link, desc

    3.4xpath实战
    我们用shell做了这么久的实战,最后我们可以把前面学习到的内容应用到dmoz_spider这个爬虫中。
    在原爬虫的parse函数中做如下修改:

    from scrapy.spider import Spider  
    from scrapy.selector import Selector  
      
    class DmozSpider(Spider):  
        name = "dmoz"  
        allowed_domains = ["dmoz.org"]  
        start_urls = [  
            "http://www.dmoz.org/Computers/Programming/Languages/Python/Books/",  
            "http://www.dmoz.org/Computers/Programming/Languages/Python/Resources/"  
        ]  
      
        def parse(self, response):  
            sel = Selector(response)  
            sites = sel.xpath(&#39;//ul/li&#39;)  
            for site in sites:  
                title = site.xpath('a/text()').extract()  
                link = site.xpath('a/@href').extract()  
                desc = site.xpath('text()').extract()  
                print title

    注意,我们从scrapy.selector中导入了Selector类,并且实例化了一个新的Selector对象。这样我们就可以像Shell中一样操作xpath了。
    我们来试着输入一下命令运行爬虫(在tutorial根目录里面):

    scrapy crawl dmoz

    运行结果如下:

    零基礎寫python爬蟲之使用Scrapy框架寫爬蟲

    果然,成功的抓到了所有的标题。但是好像不太对啊,怎么Top,Python这种导航栏也抓取出来了呢?
    我们只需要红圈中的内容:

    零基礎寫python爬蟲之使用Scrapy框架寫爬蟲

    看来是我们的xpath语句有点问题,没有仅仅把我们需要的项目名称抓取出来,也抓了一些无辜的但是xpath语法相同的元素。
    审查元素我们发现我们需要的

      具有class='directory-url'的属性,
      那么只要把xpath语句改成sel.xpath('//ul[@class="directory-url"]/li')即可
      将xpath语句做如下调整:
      from scrapy.spider import Spider  
      from scrapy.selector import Selector  
        
      class DmozSpider(Spider):  
          name = "dmoz"  
          allowed_domains = ["dmoz.org"]  
          start_urls = [  
              "http://www.dmoz.org/Computers/Programming/Languages/Python/Books/",  
              "http://www.dmoz.org/Computers/Programming/Languages/Python/Resources/"  
          ]  
        
          def parse(self, response):  
              sel = Selector(response)  
              sites = sel.xpath(&#39;//ul[@class="directory-url"]/li&#39;)  
              for site in sites:  
                  title = site.xpath(&#39;a/text()&#39;).extract()  
                  link = site.xpath(&#39;a/@href&#39;).extract()  
                  desc = site.xpath(&#39;text()&#39;).extract()  
                  print title

      成功抓出了所有的标题,绝对没有滥杀无辜:

      零基礎寫python爬蟲之使用Scrapy框架寫爬蟲

      3.5使用Item
      接下来我们来看一看如何使用Item。
      前面我们说过,Item 对象是自定义的python字典,可以使用标准字典语法获取某个属性的值:

      >>> item = DmozItem()  
      >>> item[&#39;title&#39;] = &#39;Example title&#39;  
      >>> item[&#39;title&#39;]  
      &#39;Example title&#39;

      作为一只爬虫,Spiders希望能将其抓取的数据存放到Item对象中。为了返回我们抓取数据,spider的最终代码应当是这样:

      from scrapy.spider import Spider  
      from scrapy.selector import Selector  
        
      from tutorial.items import DmozItem  
        
      class DmozSpider(Spider):  
          name = "dmoz"  
          allowed_domains = ["dmoz.org"]  
          start_urls = [  
              "http://www.dmoz.org/Computers/Programming/Languages/Python/Books/",  
              "http://www.dmoz.org/Computers/Programming/Languages/Python/Resources/"  
          ]  
        
          def parse(self, response):  
              sel = Selector(response)  
              sites = sel.xpath(&#39;//ul[@class="directory-url"]/li&#39;)  
              items = []  
              for site in sites:  
                  item = DmozItem()  
                  item[&#39;title&#39;] = site.xpath(&#39;a/text()&#39;).extract()  
                  item[&#39;link&#39;] = site.xpath(&#39;a/@href&#39;).extract()  
                  item[&#39;desc&#39;] = site.xpath(&#39;text()&#39;).extract()  
                  items.append(item)  
              return items

      4.存储内容(Pipeline)
      保存信息的最简单的方法是通过Feed exports,主要有四种:JSON,JSON lines,CSV,XML。
      我们将结果用最常用的JSON导出,命令如下:

      scrapy crawl dmoz -o items.json -t json

      -o 后面是导出文件名,-t 后面是导出类型。
      然后来看一下导出的结果,用文本编辑器打开json文件即可(为了方便显示,在item中删去了除了title之外的属性):

      零基礎寫python爬蟲之使用Scrapy框架寫爬蟲

      因为这个只是一个小型的例子,所以这样简单的处理就可以了。
      如果你想用抓取的items做更复杂的事情,你可以写一个 Item Pipeline(条目管道)。
      这个我们以后再慢慢玩^_^

      以上便是python爬虫框架Scrapy制作爬虫抓取网站内容的全部过程了,非常的详尽吧,希望能够对大家有所帮助,有需要的话也可以和我联系,一起进步


  • 陳述
    本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
    Python:遊戲,Guis等Python:遊戲,Guis等Apr 13, 2025 am 12:14 AM

    Python在遊戲和GUI開發中表現出色。 1)遊戲開發使用Pygame,提供繪圖、音頻等功能,適合創建2D遊戲。 2)GUI開發可選擇Tkinter或PyQt,Tkinter簡單易用,PyQt功能豐富,適合專業開發。

    Python vs.C:申請和用例Python vs.C:申請和用例Apr 12, 2025 am 12:01 AM

    Python适合数据科学、Web开发和自动化任务,而C 适用于系统编程、游戏开发和嵌入式系统。Python以简洁和强大的生态系统著称,C 则以高性能和底层控制能力闻名。

    2小時的Python計劃:一種現實的方法2小時的Python計劃:一種現實的方法Apr 11, 2025 am 12:04 AM

    2小時內可以學會Python的基本編程概念和技能。 1.學習變量和數據類型,2.掌握控制流(條件語句和循環),3.理解函數的定義和使用,4.通過簡單示例和代碼片段快速上手Python編程。

    Python:探索其主要應用程序Python:探索其主要應用程序Apr 10, 2025 am 09:41 AM

    Python在web開發、數據科學、機器學習、自動化和腳本編寫等領域有廣泛應用。 1)在web開發中,Django和Flask框架簡化了開發過程。 2)數據科學和機器學習領域,NumPy、Pandas、Scikit-learn和TensorFlow庫提供了強大支持。 3)自動化和腳本編寫方面,Python適用於自動化測試和系統管理等任務。

    您可以在2小時內學到多少python?您可以在2小時內學到多少python?Apr 09, 2025 pm 04:33 PM

    兩小時內可以學到Python的基礎知識。 1.學習變量和數據類型,2.掌握控制結構如if語句和循環,3.了解函數的定義和使用。這些將幫助你開始編寫簡單的Python程序。

    如何在10小時內通過項目和問題驅動的方式教計算機小白編程基礎?如何在10小時內通過項目和問題驅動的方式教計算機小白編程基礎?Apr 02, 2025 am 07:18 AM

    如何在10小時內教計算機小白編程基礎?如果你只有10個小時來教計算機小白一些編程知識,你會選擇教些什麼�...

    如何在使用 Fiddler Everywhere 進行中間人讀取時避免被瀏覽器檢測到?如何在使用 Fiddler Everywhere 進行中間人讀取時避免被瀏覽器檢測到?Apr 02, 2025 am 07:15 AM

    使用FiddlerEverywhere進行中間人讀取時如何避免被檢測到當你使用FiddlerEverywhere...

    Python 3.6加載Pickle文件報錯"__builtin__"模塊未找到怎麼辦?Python 3.6加載Pickle文件報錯"__builtin__"模塊未找到怎麼辦?Apr 02, 2025 am 07:12 AM

    Python3.6環境下加載Pickle文件報錯:ModuleNotFoundError:Nomodulenamed...

    See all articles

    熱AI工具

    Undresser.AI Undress

    Undresser.AI Undress

    人工智慧驅動的應用程序,用於創建逼真的裸體照片

    AI Clothes Remover

    AI Clothes Remover

    用於從照片中去除衣服的線上人工智慧工具。

    Undress AI Tool

    Undress AI Tool

    免費脫衣圖片

    Clothoff.io

    Clothoff.io

    AI脫衣器

    AI Hentai Generator

    AI Hentai Generator

    免費產生 AI 無盡。

    熱門文章

    R.E.P.O.能量晶體解釋及其做什麼(黃色晶體)
    3 週前By尊渡假赌尊渡假赌尊渡假赌
    R.E.P.O.最佳圖形設置
    3 週前By尊渡假赌尊渡假赌尊渡假赌
    R.E.P.O.如果您聽不到任何人,如何修復音頻
    3 週前By尊渡假赌尊渡假赌尊渡假赌
    WWE 2K25:如何解鎖Myrise中的所有內容
    4 週前By尊渡假赌尊渡假赌尊渡假赌

    熱工具

    MantisBT

    MantisBT

    Mantis是一個易於部署的基於Web的缺陷追蹤工具,用於幫助產品缺陷追蹤。它需要PHP、MySQL和一個Web伺服器。請查看我們的演示和託管服務。

    記事本++7.3.1

    記事本++7.3.1

    好用且免費的程式碼編輯器

    MinGW - Minimalist GNU for Windows

    MinGW - Minimalist GNU for Windows

    這個專案正在遷移到osdn.net/projects/mingw的過程中,你可以繼續在那裡關注我們。 MinGW:GNU編譯器集合(GCC)的本機Windows移植版本,可自由分發的導入函式庫和用於建置本機Windows應用程式的頭檔;包括對MSVC執行時間的擴展,以支援C99功能。 MinGW的所有軟體都可以在64位元Windows平台上運作。

    PhpStorm Mac 版本

    PhpStorm Mac 版本

    最新(2018.2.1 )專業的PHP整合開發工具

    SublimeText3漢化版

    SublimeText3漢化版

    中文版,非常好用