そう、最近やたらとSEOにハマっている。
いや、前からか。
さて、ということで、なにかと欲しい情報が見つからない、サイトマップについてだが、
今回のエントリーは、Search Consoleにて、そのsitemap.xmlが認識されない、反映されない時に確認することについてだ。
ファイルが存在していること
当たり前なんだけど、そもそもsitemap.xmlがないと、そら認識もくそもない。
CMSとか使ってたり、ファイルの場所を変えたりとすると、意外に忘れがちなので注意。
robots.txtの設定
ここ、実は重要で、robots.txtでの設定がsitemap.xml送信時に影響がある。
なぜなら、Search Consoleにてのsitemap.xmlの認識は、ロボットが行うからである。
下記のように設定をするといいだろう。
Sitemap: https://example.com/sitemap.xml
もちろん、これ入れなくてもいいんだけど、明示的に指定することによって、サイトマップとして認識されやすくなる。
robots.txtの更新を反映させる
さて、実は本エントリーの主題はここにある。
sitemap.xmlは、robots.txtの影響を受けることは上記の通りなのだが、
robots.txtの更新の反映に関しては、Search Console側にあるのだ。
どういうことかというと、例えば、
/xml/sitemap.xmlとファイルを置いていた場合でも、実はロボットは、
/sitemap.xmlを参照しようとしてくる。
ここに関しては、だいたいのWebサイトがそうであり、また、Google自体がその置き場所を推奨しているからだ。
そんな時に、Search Consoleでは404だ!とエラーを吐きやがるので、うざいことこのうえない。
なので、下記のようにして、ロボット避けをしたりするのだが、
Disallow: /sitemap.xml
その後、やっぱり、ルールに従おう・・・ってなった時に、
/sitemap.xmlにファイルを置き直したとしよう。
すると、ファイルが存在しているのに、sitemap.xmlを有効にできないなんて現象が起こる。
これは、上記のロボット避けを削除してもだ。
そう、こうなった時、robots.txtをSearch Console上で更新をしなければいけないのだ!
つまり、キャッシュクソ強いってことよ、robots.txtは!
そのSearch Console上で更新をするには、
robots.txtを更新した上で、下記にアクセスして、ログイン、プロパティの選択をした後、
送信 > Google に更新をリクエスト の送信と押さなければいけない。
上記三点の確認で、だいたいは解決できると思う。
あとは、sitemap.xmlの中身次第だ。
書き方のコツとかはそのうちやりますわ。
いやでもさ、三つ目なんだけどさ、Googleさん、これ旧バージョンツールやで?
robots.txtを更新しなきゃいけないのはまぁ別にいいさ。
でもさ、そんな重要な機能、旧バージョンでしかできないって、まずくね??
ってわけで、実は半分以上は愚痴なエントリーでした。
コメントする