ホームページ  >  記事  >  CMS チュートリアル  >  Wordpressのマルチサイトでロボットを使用する方法

Wordpressのマルチサイトでロボットを使用する方法

angryTom
angryTomオリジナル
2019-08-02 11:26:342371ブラウズ

Wordpressのマルチサイトでロボットを使用する方法

SEO に少し関わりのあるウェブマスターの友人は、ロボット プロトコル (クローラー プロトコル、クローラー ルール、ロボット プロトコルなどとも呼ばれる) について知っているはずです。 Web サイトのルート ディレクトリに追加される .txt ファイルの機能は、どのページがクロール可能でどのページがクロールできないかを検索エンジンに伝え、それによって Web サイトの包含結果と重みを最適化することです。

推奨チュートリアル: wordpress チュートリアル

## Web サイトのルート ディレクトリにまだ robots.txt がない場合は、次のように作成できます。 it 一、具体的な書き方については百度百科を参照してください。以下は、WordPress の基本的なロボット プロトコルです。

User-agent: *
Disallow: /feed/
Disallow: /trackback/
Disallow: /wp-admin/
Disallow: /wp-content/
Disallow: /wp-includes/
Disallow: /xmlrpc.php
Disallow: /wp-
Allow: /wp-content/uploads/
Sitemap: http://example.com/sitemap.xml

以下では主に、WordPress が仮想 robots.txt を自動作成する機能を紹介します。実際の robots.txt が Web サイトのルート ディレクトリに存在しない場合、WordPress に仮想 robots.txt を自動的に作成させることができます (このファイルは実際には存在しませんが、http://ドメイン名にアクセスすると正常に表示されます) /robots.txt)

次のコードをテーマの

functions.php に追加します。

/**
 * 为你的 WordPress 站点添加 robots.txt
 * https://www.wpdaxue.com/add-robots-txt.html
 */add_filter( 'robots_txt', 'robots_mod', 10, 2 );function robots_mod( $output, $public ) {
	$output .= "Disallow: /user/"; // 禁止收录链接中包含 /user/ 的页面
	return $output;}

注: さらにルールを追加したい場合は、コピーしてください。上記のコードの 7 行目を変更してください。

http://ドメイン名/robots.txt にアクセスすると、次の内容が表示されます。

User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /user/

つまり、WordPress はデフォルトで最初の 3 行のルールを追加しています。

Robots.txt には Web サイトのインクルードが含まれるため、その記述方法を必ず理解し、すべてのルールが正しいことを確認してください。

以上がWordpressのマルチサイトでロボットを使用する方法の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。