Heim >Web-Frontend >js-Tutorial >NgSysV.SEO (Suchmaschinenoptimierung)
Diese Beitragsserie ist auf NgateSystems.com indiziert. Dort finden Sie auch eine äußerst nützliche Stichwortsuchfunktion.
Letzte Bewertung: 24. November
Sobald Sie Ihre Anwendung in der Google Cloud bereitgestellt haben, wird sie zum Ziel für die „Webspider“, die im Internet auf der Suche nach Inhalten patrouillieren, die sie zu ihren Schlüsselwort-„Indizes“ hinzufügen können. Sobald Ihre Website indiziert ist, wird sie möglicherweise in Suchmaschinenergebnissen angezeigt.
Das ist großartig, wenn alles funktioniert. Die Suchmaschine wird das Geschäft in Ihre Richtung lenken und Ihnen keinen Cent in Rechnung stellen. Aber in der Praxis müssen Sie die Spider ermutigen, Ihre Website prominent zu indizieren. Darum geht es bei der „Suchmaschinenoptimierung“ (kurz SEO) – .
Eine gute Suchmaschinenoptimierung für Ihre Website erfordert Folgendes:
Ihre Website sollte eine Sitemap-Datei bereitstellen, die alle Routen auflistet, die Google (und andere Suchmaschinen) indizieren sollen. Indexierungs-Spider werden sie normalerweise trotzdem entdecken, vorausgesetzt, die Seiten in der „Baum“-Hierarchie Ihrer Website sind ordnungsgemäß über verlinkt. Ankerlinks. Es können jedoch Probleme auftreten, wenn Ihre Website groß oder neu ist und von anderen Websites immer noch schlecht referenziert wird.
Diese Probleme werden durch die Erstellung einer „Sitemap“-Datei behoben. Sitemaps können auf verschiedene Arten formatiert werden, aber im einfachsten Fall reicht die Indexierungs-Engine eine einfache Textdatei aus, die Ihre Seiten wie folgt auflistet:
// /static/sitemap.txt - Don't copy this line https://myProjectURL/inventory-display https://myProjectURL/inventory-maintenance etc
Beachten Sie Folgendes:
Die Robots-Datei stellt einen „Partner“ für die Sitemap-Datei bereit, der:
Hier ist ein Beispiel
// /static/sitemap.txt - Don't copy this line https://myProjectURL/inventory-display https://myProjectURL/inventory-maintenance etc
In einem Svelte-Projekt muss die robots.txt-Datei (obligatorischer Dateiname) in einer /static/robots.txt-Datei gespeichert werden.
Sie können überprüfen, ob Ihre robots.txt- und sitemap.txt-Dateien korrekt im URL-Stammverzeichnis Ihres Projekts bereitgestellt werden, indem Sie versuchen, sie mit Ihrem Browser anzuzeigen:
Jede der folgenden URLs, die in das Suchfeld des Browsers eingegeben werden, sollte mit der Anzeige des Dateiinhalts antworten.
// /static/robots.txt - Don't copy this line User-agent: * Disallow: https://myProjectURL/inventory-maintenance Sitemap: https://myProjectURL/sitemap.txt
Weitere Informationen zu all diesen Themen finden Sie unter Erfahren Sie mehr über Sitemaps
Sobald Sie Ihre Sitemap erfolgreich bereitgestellt haben, könnte es nützlich sein, Google eine „Vorwarnung“ zu geben, indem Sie die Sitemap an die Google Search Console senden.
Sie beginnen hier mit der Registrierung eines „Prinzipals“ – also der URL Ihrer Website. Dazu gehört die Durchführung eines Verfahrens, mit dem Sie Google versichern können, dass Sie der Eigentümer der Website sind. Der Vorgang beginnt damit, dass die Konsole eine „Site-Verification“-Datei in Ihren „Downloads“-Ordner herunterlädt. Sie müssen dies in Ihren statischen Svelte-Ordner kopieren und Ihre Webanwendung neu erstellen/bereitstellen, um die Datei auf Ihre Remote-Site hochzuladen. Wenn Google die Datei mit dem erwarteten Inhalt finden kann, wenn Sie auf dem Authentifizierungsbildschirm auf die Schaltfläche „Bestätigen“ klicken, geht Google davon aus, dass Sie tatsächlich der Eigentümer sind.
Wenn Sie im Menü auf der linken Seite des Bildschirms auf das Tool „Sitemaps“ klicken, können Sie nun Ihre Sitemap-URL (sitemap.txt) eingeben und erhalten im Fenster „Eingereichte Sitemaps“ den Status „Erfolgreich“
Die Search Console ist ein hochentwickeltes Tool zur Überwachung des Indexierungsfortschritts auf Ihrer Website und zur Lösung eventuell gemeldeter Probleme. Weitere Informationen finden Sie unter Erste Schritte mit der Search Console
Während Suchmaschinen in den letzten Jahren bei der Indexierung von Inhalten, die mit clientseitigem JavaScript gerendert wurden, besser geworden sind, sind sie mit Seiten, die nur HTML enthalten, zufriedener. Serverseitig gerenderte (SSR) Inhalte (d. h. Seiten, deren HTMl bereits durch die Ausführung von Datenbankzugriffs-Javascript auf dem Server generiert wurde) werden häufiger und zuverlässiger indiziert. Niemand außer Google weiß, wie ihre Indexierungs-Engines funktionieren, aber eine vernünftige Vermutung sieht ungefähr so aus.
Zuerst wird Ihrer Webanwendung ein „Site-Ranking“ zuerkannt (das auf unklare Weise bestimmt wird, aber wahrscheinlich durch die Anzahl der „Backlinks“ auf Websites beeinflusst wird, die auf Ihre URL verweisen). Dadurch erhalten Sie wiederum ein bestimmtes „Crawling-Budget“ – die Zeit, die die Indexierungs-Engine bereit ist, für die Indexierung Ihrer Seiten aufzuwenden. Sie sollten dies mit Bedacht ausgeben. Serverseitiges Rendering entlastet den Bot und schont Ihr Budget. Wenn Sie also eine gute Suchmaschinenoptimierung wünschen, sollten Sie SSR verwenden!
Der ultimative Ausdruck des serviceseitigen Renderings besteht darin, dass eine „statische“ Seite – eine Seite, die Daten anzeigt, die sich entweder nie oder nur selten ändern – zum Build--Zeitpunkt durch Vorhandensein der folgenden Anweisung gerendert wird seine page.js- oder page.server.js-Datei:
// /static/sitemap.txt - Don't copy this line https://myProjectURL/inventory-display https://myProjectURL/inventory-maintenance etc
Da der Server jetzt nur noch reines HTML herunterladen muss, reicht Ihr Crawl-Budget noch weiter und Ihre Benutzer erhalten eine blitzschnelle Antwort! Einzelheiten zu einer Anordnung zur Automatisierung von Pre-Rendering-Builds mithilfe eines Planers finden Sie in Beitrag 4.3.
Die Dokumente von Google unter Übersicht über Crawling- und Indexierungsthemen enthalten alles, was Sie wissen. Hier ist eine Zusammenfassung:
Zunächst müssen Sie sich mit der „Mobile First“-Richtlinie von Google vertraut machen. Der Google Spider analysiert Ihre Website so, wie sie von einem Browser auf einem Mobiltelefon angezeigt würde. Das bedeutet, dass die „Reputation“ Ihrer Website (und ihr Crawling-Budget) herabgestuft wird, wenn sie beispielsweise der Meinung ist, dass Ihre Schriftgröße zu klein ist.
Wenn Ihre Webanwendung für Desktop-Benutzer entwickelt wurde, wird dies ein schwerer Schlag für Sie sein. Probieren Sie Ihre Website auf Ihrem Telefon aus und Sie werden wahrscheinlich zu dem Schluss kommen, dass sie völlig nutzlos ist.
Der Ausweg besteht darin, „responsives Styling“ zu verwenden (siehe Beitrag 4.4), sodass die Webanwendung die Seitenbreite des Geräts erkennt, auf dem sie ausgeführt wird, und die Dinge entsprechend anpasst.
Es kann sein, dass Teile Ihrer Webanwendung nicht für den Betrieb der Website geeignet sind. Möglicherweise möchten Sie diese entfernen, Google möchte Sie jedoch daran erinnern, dass der Großteil der Indexierung über mobile Seiten erfolgt. Sie empfehlen, solche Inhalte vorsichtig hinter Tabulatoren oder „Akkordeons“ zu verbergen.
Wonach Webspider in erster Linie suchen, sind Inhalte – Informationen, die Suchmaschinenkunden nützlich finden. Sie benötigen jedoch Ihre Hilfe, um dies zu finden und zu interpretieren. Hier sind einige Tipps, wie Sie dies tun könnten@
// /static/robots.txt - Don't copy this line User-agent: * Disallow: https://myProjectURL/inventory-maintenance Sitemap: https://myProjectURL/sitemap.txt
Diese Vereinbarung delegiert Svelte die umständliche Aufgabe des Einfügens von
// /static/sitemap.txt - Don't copy this line https://myProjectURL/inventory-display https://myProjectURL/inventory-maintenance etc
Das obige ist der detaillierte Inhalt vonNgSysV.SEO (Suchmaschinenoptimierung). Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!