【SEO】Search Consoleで、sitemap.xmlが反映されない時

謎のプリン語る。
プログラミングの役立つ、エンジニア技術情報とか、どうでもいい雑談とか書いてます。
一人書く人増えました。

【SEO】Search Consoleで、sitemap.xmlが反映されない時

【SEO】Search Consoleで、sitemap.xmlが反映されない時 - サムネイル

※この記事は5年以上前の記事です。
現在は状況が異なる可能性がありますのでご注意ください。

そう、最近やたらとSEOにハマっている。
いや、前からか。

さて、ということで、なにかと欲しい情報が見つからない、サイトマップについてだが、
今回のエントリーは、Search Consoleにて、そのsitemap.xmlが認識されない、反映されない時に確認することについてだ。

ファイルが存在していること

当たり前なんだけど、そもそもsitemap.xmlがないと、そら認識もくそもない。
CMSとか使ってたり、ファイルの場所を変えたりとすると、意外に忘れがちなので注意。

robots.txtの設定

ここ、実は重要で、robots.txtでの設定がsitemap.xml送信時に影響がある。
なぜなら、Search Consoleにてのsitemap.xmlの認識は、ロボットが行うからである。
下記のように設定をするといいだろう。

Sitemap: https://example.com/sitemap.xml

もちろん、これ入れなくてもいいんだけど、明示的に指定することによって、サイトマップとして認識されやすくなる。

robots.txtの更新を反映させる

さて、実は本エントリーの主題はここにある。
sitemap.xmlは、robots.txtの影響を受けることは上記の通りなのだが、
robots.txtの更新の反映に関しては、Search Console側にあるのだ。

どういうことかというと、例えば、
/xml/sitemap.xmlとファイルを置いていた場合でも、実はロボットは、
/sitemap.xmlを参照しようとしてくる。
ここに関しては、だいたいのWebサイトがそうであり、また、Google自体がその置き場所を推奨しているからだ。
そんな時に、Search Consoleでは404だ!とエラーを吐きやがるので、うざいことこのうえない。
なので、下記のようにして、ロボット避けをしたりするのだが、

Disallow: /sitemap.xml

その後、やっぱり、ルールに従おう・・・ってなった時に、
/sitemap.xmlにファイルを置き直したとしよう。
すると、ファイルが存在しているのに、sitemap.xmlを有効にできないなんて現象が起こる。
これは、上記のロボット避けを削除してもだ。

そう、こうなった時、robots.txtSearch Console上で更新をしなければいけないのだ!
つまり、キャッシュクソ強いってことよ、robots.txtは!
そのSearch Console上で更新をするには、
robots.txtを更新した上で、下記にアクセスして、ログイン、プロパティの選択をした後、
送信 > Google に更新をリクエスト の送信と押さなければいけない。

Search Console

上記三点の確認で、だいたいは解決できると思う。
あとは、sitemap.xmlの中身次第だ。
書き方のコツとかはそのうちやりますわ。

いやでもさ、三つ目なんだけどさ、Googleさん、これ旧バージョンツールやで?
robots.txtを更新しなきゃいけないのはまぁ別にいいさ。
でもさ、そんな重要な機能、旧バージョンでしかできないって、まずくね??

ってわけで、実は半分以上は愚痴なエントリーでした。

国内最大級の品揃え!【DMM電子書籍】 - メイン

著者

みやびプリン 職業:フロントエンドエンジニア
基本はイラストレイター(自称)だが、
本職は札幌市のフロントエンドエンジニア。
フロントエンドだけではなく、各種プログラミング言語に精通していると自負している。
HTML、CSSはもちろんのこと、JavaScript、TypeScript、PHP、Perl、Python、C#、Kotlin、Swift、Objective-Cなど多くの多くの言語に精通している他、
Movable Type、WordPressなど各種CMS、React.js、Angularなどフロントエンドフレームワークも扱える。
最近はUnityによる3Dコンテンツにも手を出している。

トラックバック(0)

トラックバックURL:

コメントする

ページトップへ戻る