※この記事は4年以上前の記事です。
現在は状況が異なる可能性がありますのでご注意ください。
そう、最近やたらとSEOにハマっている。
いや、前からか。
さて、ということで、なにかと欲しい情報が見つからない、サイトマップについてだが、
今回のエントリーは、Search Consoleにて、そのsitemap.xml
が認識されない、反映されない時に確認することについてだ。
ファイルが存在していること
当たり前なんだけど、そもそもsitemap.xml
がないと、そら認識もくそもない。
CMSとか使ってたり、ファイルの場所を変えたりとすると、意外に忘れがちなので注意。
robots.txtの設定
ここ、実は重要で、robots.txt
での設定がsitemap.xml
送信時に影響がある。
なぜなら、Search Consoleにてのsitemap.xml
の認識は、ロボットが行うからである。
下記のように設定をするといいだろう。
Sitemap: https://example.com/sitemap.xml
もちろん、これ入れなくてもいいんだけど、明示的に指定することによって、サイトマップとして認識されやすくなる。
robots.txtの更新を反映させる
さて、実は本エントリーの主題はここにある。
sitemap.xml
は、robots.txt
の影響を受けることは上記の通りなのだが、
robots.txt
の更新の反映に関しては、Search Console側にあるのだ。
どういうことかというと、例えば、
/xml/sitemap.xml
とファイルを置いていた場合でも、実はロボットは、
/sitemap.xml
を参照しようとしてくる。
ここに関しては、だいたいのWebサイトがそうであり、また、Google自体がその置き場所を推奨しているからだ。
そんな時に、Search Consoleでは404
だ!とエラーを吐きやがるので、うざいことこのうえない。
なので、下記のようにして、ロボット避けをしたりするのだが、
Disallow: /sitemap.xml
その後、やっぱり、ルールに従おう・・・ってなった時に、
/sitemap.xml
にファイルを置き直したとしよう。
すると、ファイルが存在しているのに、sitemap.xmlを有効にできないなんて現象が起こる。
これは、上記のロボット避けを削除してもだ。
そう、こうなった時、robots.txt
をSearch Console上で更新をしなければいけないのだ!
つまり、キャッシュクソ強いってことよ、robots.txt
は!
そのSearch Console上で更新をするには、
robots.txt
を更新した上で、下記にアクセスして、ログイン、プロパティの選択をした後、
送信 > Google に更新をリクエスト の送信
と押さなければいけない。
上記三点の確認で、だいたいは解決できると思う。
あとは、sitemap.xml
の中身次第だ。
書き方のコツとかはそのうちやりますわ。
いやでもさ、三つ目なんだけどさ、Googleさん、これ旧バージョンツールやで?
robots.txt
を更新しなきゃいけないのはまぁ別にいいさ。
でもさ、そんな重要な機能、旧バージョンでしかできないって、まずくね??
ってわけで、実は半分以上は愚痴なエントリーでした。
コメントする