Heim >Backend-Entwicklung >PHP-Tutorial >So implementieren Sie einen verteilten Crawler mithilfe der Client-IP

So implementieren Sie einen verteilten Crawler mithilfe der Client-IP

WBOY
WBOYOriginal
2016-08-08 09:06:431325Durchsuche

Wenn Sie einen serverseitigen Crawler verwenden, treten verschiedene Probleme auf. Wie können Sie die IP des Besuchers verwenden, um beim Öffnen der Webseite auf die gecrawlte Website zuzugreifen und die Daten dann hochzuladen? ? Ajax ruft die gecrawlten Daten ab und sendet sie dann an Ihren eigenen Server?

Gibt es ähnliche Beispiele oder Open-Source-Projekte?

Antwortinhalt:

Wenn Sie einen serverseitigen Crawler verwenden, treten verschiedene Probleme auf. Wie können Sie die IP des Besuchers verwenden, um beim Öffnen der Webseite auf die gecrawlte Website zuzugreifen und dann die Daten hochzuladen? ? Ajax ruft die gecrawlten Daten ab und sendet sie dann an Ihren eigenen Server?

Gibt es ähnliche Beispiele oder Open-Source-Projekte?

Sie stehlen die Privatsphäre der Benutzer, das wird nicht funktionieren~

Das Grundprinzip besteht darin, einen versteckten Iframe zu erstellen und dann die Zielwebsite anzufordern. Wenn die Anforderung erfolgreich ist, speichern Sie sie mit Ajax auf dem lokalen Server. . Da viele Websites Anti-Crawling-Strategien implementiert haben, schlagen serverseitige Crawler häufig fehl. In diesem Fall ist es sehr nützlich, clientseitige Crawler zu verwenden.

Allerdings ist die Benutzererfahrung nicht sehr gut. . . .

Stellungnahme:
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn