Heim > Artikel > Backend-Entwicklung > Wie kann verhindert werden, dass Ihre Website direkt von Curl erfasst und selbstständig angezeigt wird?
Ich habe kein Problem damit, Baidu unter meinem eigenen Domainnamen anzuzeigen, aber gibt es eine Möglichkeit, dies zu vermeiden?
Ich habe kein Problem damit, Baidu unter meinem eigenen Domainnamen anzuzeigen, aber gibt es eine Möglichkeit, dies zu vermeiden?
Tatsächlich ist es unmöglich, vollständig zu verhindern, dass die andere Partei erwischt wird. Manchmal ist auch das Crawlen in Suchmaschinen von Vorteil. Wenn Sie das Crawlen wirklich verhindern möchten, können Sie dies auf viele Arten tun, z. B. indem Sie das Hotlinken von Bildern verhindern, einige Algorithmen bei der Textanzeige verwenden oder einige Einschränkungen auf der Serverseite vornehmen usw. Erfassen und Anti-Erfassen ist ein Spielprozess, hehehe~~~
Solange Sie über normalen Zugriff verfügen, können Sie dies nicht simulieren
Das dynamische Laden von Ajax kann verhindert werden, aber es gibt Möglichkeiten.
Aber ich denke, daran ist nichts auszusetzen ... Wenn jemand Ihre Software sperrt, bedeutet das nicht, dass auch Ihr Software-Urheberrecht gekürzt wurde. Das Studium des Codes und die Erstellung einer Website mit hoher Stabilität und guter Benutzererfahrung sind das Ziel Hauptanliegen eines Ingenieurs
Solange Ihre Seite öffentlich ist, lässt sich dieses Problem nicht vermeiden.
Dies ist unvermeidlich, aber Sie können seinen Hinweis beurteilen, um das Crawlen zu verhindern. Es gibt jedoch eine Möglichkeit, dieses Problem zu lösen. . . Sie können die Anzahl der Besuche jedoch nach IP begrenzen. .
IP, Zugriffshäufigkeit, Anzahl der Besuche usw.
Es sind immer noch einige Einschränkungen erforderlich. Es ist auch gut, Nginx einzurichten, um Hotlinking zu verhindern