ホームページ >トピック >SEO >robots.txtの書き方

robots.txtの書き方

anonymity
anonymityオリジナル
2019-05-26 15:12:253717ブラウズ

robots.txtの書き方はSEO担当者なら知っておくべきこと(robots.txtとは)ですが、どのように書くのか、何を禁止し、何を許可するのかは自分で設定する必要があります。

Baidu Spider は機械であり、数字、文字、漢字のみを認識し、robots.txt は Baidu との最も重要かつ最初の「対話」です。

robots.txtの書き方

Web サイトがまだ構築されていないときは、Baidu に Web サイトをクロールしてほしくありません。また、Baidu による Web サイトのクロールを禁止する人もよくいます。ただし、このアプローチは、Baidu スパイダーが Web サイトに再び来るのを困難にするため、非常に悪いです。したがって、今すぐローカルに Web サイトを構築し、すべてが完了してからドメイン名とスペースを購入する必要があります。そうしないと、Web サイトの変更を繰り返すと、Web サイトに悪影響が及ぶ可能性があります。

弊社 Web サイトの最初の robots.txt は次のように記述されています:

User-agent: *

Disallow: /wp-admin/

Disallow : / wp-includes/

User-agent: * は、すべてのエンジンのクロールを許可することを意味します。

Disallow: /wp-admin/ および Disallow: /wp-includes/ は、Baidu がユーザーのパスワードやデータベースなどのプライバシーをクロールすることを禁止します。この書き方は私たちのプライバシーを保護するだけでなく、Baidu Spider のクロールを最大限に高めます。

Baidu Spider による 123.html などの特定のページのクロールを禁止したい場合は、「Disallow: /123.html/」というコードを追加します。

robots.txt を作成したら、それを Web サイトのルート ディレクトリにアップロードするだけです。

以上がrobots.txtの書き方の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。