Heim  >  Artikel  >  Backend-Entwicklung  >  Praxis für den Betrieb von PHP-Linux-Skripten: Leitfaden zur Webcrawler-Entwicklung

Praxis für den Betrieb von PHP-Linux-Skripten: Leitfaden zur Webcrawler-Entwicklung

WBOY
WBOYOriginal
2023-10-05 09:57:30731Durchsuche

PHP Linux脚本操作实战:网络爬虫开发指南

Betriebspraxis für PHP-Linux-Skripte: Leitfaden zur Webcrawler-Entwicklung

Einführung:
Mit der rasanten Entwicklung des Internets sind die Informationen explodiert und auch der Informationsbedarf der Menschen steigt. Als automatisiertes Tool können Webcrawler uns dabei helfen, schnell und effizient die erforderlichen Informationen aus dem Internet zu erhalten, und haben große Aufmerksamkeit und Anwendung gefunden. In diesem Artikel wird die Verwendung von PHP- und Linux-Skriptoperationen zum Entwickeln von Webcrawlern vorgestellt und spezifische Codebeispiele bereitgestellt, um den Lesern den schnellen Einstieg in die Entwicklung von Webcrawlern zu erleichtern.

1. Umgebungsvorbereitung:
Bevor wir mit der Entwicklung von Webcrawlern beginnen, müssen wir die folgende Umgebung vorbereiten:

  1. Ein Server mit einem installierten Linux-Betriebssystem;
  2. PHP-Umgebung, Sie können „php“ in das Terminal eingeben. v“, um zu sehen, ob es installiert ist. Wenn es nicht installiert ist, können Sie es über „apt-get install php“ installieren.
  3. Um die Curl-Erweiterung zu installieren, können Sie es über „apt-get install php-curl“ installieren. Sie können es über „apt-get install wget“ installieren.
  4. 2. Crawlen von Webseiteninhalten:
Um einen Webcrawler zu entwickeln, besteht die grundlegendste Aufgabe darin, Inhalte von einer bestimmten Webseite abzurufen. Das Folgende ist ein einfaches Beispiel, um den Inhalt einer bestimmten Webseite über die Curl-Erweiterung von PHP abzurufen:

<?php
// 创建一个curl句柄
$ch = curl_init();

// 设置curl的参数
curl_setopt($ch, CURLOPT_URL, "http://www.example.com/");
curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1);

// 执行请求并获取返回的内容
$result = curl_exec($ch);

// 关闭curl句柄
curl_close($ch);

// 输出获取到的内容
echo $result;
?>

Im obigen Code verwenden Sie zuerst die Funktion „curl_init()“, um ein Curl-Handle zu erstellen, und verwenden Sie dann die Funktion „curl_setopt()“, um Legen Sie das Format der Adresse und des Rückgabeinhalts für die Webseite fest, auf die zugegriffen werden muss. Verwenden Sie schließlich die Funktion „curl_exec()“, um die Anforderung auszuführen und den zurückgegebenen Inhalt abzurufen, und verwenden Sie schließlich die Funktion „curl_close()“, um das Curl-Handle zu schließen. Schließlich wird der erhaltene Inhalt über die Echo-Anweisung ausgegeben.

3. Analysieren Sie den Inhalt der Webseite:

Das Abrufen des Inhalts der Webseite ist nur der erste Schritt. Als Nächstes müssen wir die benötigten Daten daraus extrahieren. Normalerweise können wir reguläre Ausdrücke verwenden, um Daten zu extrahieren:

<?php
// 获取网页内容
$ch = curl_init();
curl_setopt($ch, CURLOPT_URL, "http://www.example.com/");
curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1);
$result = curl_exec($ch);
curl_close($ch);

// 使用正则表达式提取标题
preg_match("/<title>(.*?)</title>/", $result, $matches);
$title = $matches[1];

// 使用正则表达式提取正文内容
preg_match("/<div class="content">(.*?)</div>/", $result, $matches);
$content = $matches[1];

// 输出提取到的标题和正文内容
echo "标题:".$title."
";
echo "正文内容:".$content."
";
?>

Im obigen Code verwenden wir Curl, um den Inhalt der Webseite abzurufen und den Titel und den Text durch reguläre Ausdrücke zu extrahieren. Abschließend werden die extrahierten Daten über die Echo-Anweisung ausgegeben.

4. Daten speichern:

Nachdem wir die Daten erhalten haben, speichern wir sie normalerweise zur späteren Analyse und Verwendung in einer Datenbank oder Datei. Das Folgende ist ein Beispiel für das Speichern gecrawlter Daten in einer Datei:

<?php
// 获取网页内容
$ch = curl_init();
curl_setopt($ch, CURLOPT_URL, "http://www.example.com/");
curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1);
$result = curl_exec($ch);
curl_close($ch);

// 使用正则表达式提取标题
preg_match("/<title>(.*?)</title>/", $result, $matches);
$title = $matches[1];

// 使用正则表达式提取正文内容
preg_match("/<div class="content">(.*?)</div>/", $result, $matches);
$content = $matches[1];

// 将数据保存到文件中
$file = fopen("data.txt", "w");
fwrite($file, "标题:".$title."
");
fwrite($file, "正文内容:".$content."
");
fclose($file);

echo "数据已保存到文件 data.txt 中
";
?>

Im obigen Code haben wir eine Datei mit dem Namen data.txt erstellt und die extrahierten Daten über die Funktion fwrite() in die Datei geschrieben und schließlich die Datei geschlossen die Funktion fclose(). Abschließend wird über die echo-Anweisung eine Meldung über den erfolgreichen Speichervorgang ausgegeben.

Zusammenfassung:

In der Einleitung dieses Artikels haben wir gelernt, wie man PHP- und Linux-Skripte zur Entwicklung von Webcrawlern verwendet. Zuerst haben wir gelernt, wie man die Curl-Erweiterung verwendet, um den Inhalt einer bestimmten Webseite zu erhalten. Anschließend haben wir gelernt, wie man reguläre Ausdrücke verwendet, um die erforderlichen Daten aus dem Webseiteninhalt zu extrahieren Datei Mitte. Ich glaube, dass Leser durch das Üben dieser Beispielcodes grundlegende Fähigkeiten zur Webcrawler-Entwicklung erlernen und tiefergehendes Lernen und Erkunden erlangen können.

Das obige ist der detaillierte Inhalt vonPraxis für den Betrieb von PHP-Linux-Skripten: Leitfaden zur Webcrawler-Entwicklung. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn