Heim > Artikel > Backend-Entwicklung > Erstellen Sie leistungsstarke gleichzeitige Crawler mit Go und Goroutinen
Verwenden Sie Go und Goroutinen, um leistungsstarke gleichzeitige Crawler zu erstellen
Im heutigen Internetzeitalter explodieren die Informationen explosionsartig und eine große Menge an Webinhalten steht uns zum Durchsuchen zur Verfügung. Für Entwickler ist die Beschaffung dieser Informationen und die Durchführung weiterer Analysen eine wichtige Aufgabe. Und Crawler sind die Werkzeuge, mit denen dieses Ziel erreicht wird. In diesem Artikel wird erläutert, wie Sie mithilfe der Go-Sprache und Goroutinen leistungsstarke gleichzeitige Crawler erstellen.
Go-Sprache ist eine von Google entwickelte Open-Source-Programmiersprache. Es ist bekannt für seine minimalistische Syntax und leistungsstarke Leistung. Goroutinen sind ein leichter Thread in der Go-Sprache, der zur Implementierung gleichzeitiger Vorgänge verwendet werden kann.
Bevor wir mit dem Schreiben des Crawlers beginnen, müssen wir zwei notwendige Bibliotheken vorbereiten: net/http
und golang.org/x/net/html
. Ersteres wird zum Senden von HTTP-Anfragen und Empfangen von HTTP-Antworten verwendet, und letzteres wird zum Parsen von HTML-Dokumenten verwendet. net/http
和golang.org/x/net/html
。前者用于发送HTTP请求和接收HTTP响应,后者用于解析HTML文档。
下面是一个简单的示例,演示了如何使用Go和Goroutines来编写一个并发爬虫:
package main import ( "fmt" "net/http" "golang.org/x/net/html" ) func main() { urls := []string{ "https://www.example.com/page1", "https://www.example.com/page2", "https://www.example.com/page3", } results := make(chan string) for _, url := range urls { go func(url string) { body, err := fetch(url) if err != nil { fmt.Println(err) return } links := extractLinks(body) for _, link := range links { results <- link } }(url) } for i := 0; i < len(urls); i++ { fmt.Println(<-results) } } func fetch(url string) (string, error) { resp, err := http.Get(url) if err != nil { return "", err } defer resp.Body.Close() body, err := ioutil.ReadAll(resp.Body) if err != nil { return "", err } return string(body), nil } func extractLinks(body string) []string { links := []string{} doc, err := html.Parse(strings.NewReader(body)) if err != nil { return links } var extract func(*html.Node) extract = func(n *html.Node) { if n.Type == html.ElementNode && n.Data == "a" { for _, attr := range n.Attr { if attr.Key == "href" { links = append(links, attr.Val) break } } } for c := n.FirstChild; c != nil; c = c.NextSibling { extract(c) } } extract(doc) return links }
在上面的代码中,我们首先定义了一个urls
数组,其中包含了我们要爬取的网页URL。然后,我们创建了一个results
通道,用于存放爬取结果。
接下来,我们使用for
循环迭代urls
数组中的每个URL。在每次循环中,我们都使用go
关键字来创建一个Goroutine,去并发地爬取指定的URL。在Goroutine中,我们首先调用fetch
函数来发送HTTP请求并获取响应的HTML内容。之后,我们根据HTML内容调用extractLinks
函数,提取其中的链接,并将它们发送到results
通道中。
最后,我们使用一个for
循环来从results
rrreee
Im obigen Code definieren wir zunächst einurls
-Array, das unsere Web-URL enthält Seite, die gecrawlt werden soll. Anschließend haben wir einen results
-Kanal erstellt, um die Crawling-Ergebnisse zu speichern. Als nächstes verwenden wir eine for
-Schleife, um jede URL im urls
-Array zu durchlaufen. In jeder Schleife verwenden wir das Schlüsselwort go
, um eine Goroutine zum gleichzeitigen Crawlen der angegebenen URL zu erstellen. In Goroutine rufen wir zunächst die Funktion fetch
auf, um eine HTTP-Anfrage zu senden und den HTML-Inhalt der Antwort abzurufen. Anschließend rufen wir die Funktion extractLinks
basierend auf dem HTML-Inhalt auf, extrahieren die Links und senden sie an den Kanal results
. 🎜🎜Schließlich verwenden wir eine for
-Schleife, um die Crawl-Ergebnisse vom Kanal results
zu empfangen und auszudrucken. 🎜🎜Durch die Verwendung von Goroutinen können wir mehrere HTTP-Anfragen gleichzeitig senden und so die Leistung des Crawlers verbessern. Darüber hinaus können IO-intensive Vorgänge wie HTTP-Anfragen und HTML-Parsing mithilfe von Goroutinen effizient abgewickelt werden. 🎜🎜Zusammenfassend stellt dieser Artikel vor, wie man die Go-Sprache und Goroutinen verwendet, um einen leistungsstarken gleichzeitigen Crawler zu erstellen. Durch die ordnungsgemäße Nutzung von Parallelitätsmechanismen können wir Informationen im Internet effizienter abrufen und analysieren. Ich hoffe, dass die Leser durch den Inhalt dieses Artikels verstehen und beherrschen können, wie man mit der Go-Sprache leistungsstarke gleichzeitige Crawler schreibt. 🎜Das obige ist der detaillierte Inhalt vonErstellen Sie leistungsstarke gleichzeitige Crawler mit Go und Goroutinen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!