首页 >后端开发 >php教程 >如何构建一个简单的 PHP 爬虫来从网站中提取链接和内容?

如何构建一个简单的 PHP 爬虫来从网站中提取链接和内容?

Linda Hamilton
Linda Hamilton原创
2024-11-07 19:04:02922浏览

How do I build a simple PHP crawler to extract links and content from a website?

创建一个简单的 PHP 爬虫

爬取网站并提取数据是 Web 编程中的常见任务。 PHP 提供了一个灵活的框架来构建爬虫,允许您访问和检索远程网页的信息。

要创建一个简单的 PHP 爬虫来收集给定网页的链接和内容,您可以使用以下方法:

使用 DOM 解析器:

<?php
function crawl_page($url, $depth = 5)
{
    // Prevent endless recursion and circular references
    static $seen = array();
    if (isset($seen[$url]) || $depth === 0) {
        return;
    }

    // Mark the URL as seen
    $seen[$url] = true;

    // Load the web page using DOM
    $dom = new DOMDocument('1.0');
    @$dom->loadHTMLFile($url);

    // Iterate over all anchor tags (<a>)
    $anchors = $dom->getElementsByTagName('a');
    foreach ($anchors as $element) {
        $href = $element->getAttribute('href');

        // Convert relative URLs to absolute URLs
        if (0 !== strpos($href, 'http')) {
            $path = '/' . ltrim($href, '/');
            if (extension_loaded('http')) {
                $href = http_build_url($url, array('path' => $path));
            } else {
                $parts = parse_url($url);
                $href = $parts['scheme'] . '://';
                if (isset($parts['user']) &amp;&amp; isset($parts['pass'])) {
                    $href .= $parts['user'] . ':' . $parts['pass'] . '@';
                }
                $href .= $parts['host'];
                if (isset($parts['port'])) {
                    $href .= ':' . $parts['port'];
                }
                $href .= dirname($parts['path'], 1) . $path;
            }
        }

        // Recursively crawl the linked page
        crawl_page($href, $depth - 1);
    }

    // Output the crawled page's URL and content
    echo "URL: " . $url . PHP_EOL . "CONTENT: " . PHP_EOL . $dom->saveHTML() . PHP_EOL . PHP_EOL;
}
crawl_page("http://example.com", 2);
?>

此爬虫使用 DOM 解析器浏览网页的 HTML,识别所有锚标记,并跟踪任何链接它们包含。它收集链接页面的内容并将其转储到标准输出中。您可以将此输出重定向到文本文件,以在本地保存收集的数据。

其他功能:

  • 防止多次抓取同一 URL。
  • 正确处理相对 URL。
  • 使用 http PECL 扩展时支持 HTTPS、用户身份验证和端口号。

以上是如何构建一个简单的 PHP 爬虫来从网站中提取链接和内容?的详细内容。更多信息请关注PHP中文网其他相关文章!

声明:
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn