Bloggerからの移行作業が一段落し、Google Search Console(以下、サチコ)へのプロパティ登録を行いました。 かつてBloggerで運用していた頃は、「記事を書いてもなかなかインデックスされない」という悩みを抱えており、これが今回の移行を決意する一つの要因でもありました。

今回は、移行直後のSEOステータスがどのように変化したか、そしてサイトマップの扱いについて記録します。

観測結果:記事単位では即時反映

Astro + Cloudflare Pagesで構築した新サイトをデプロイし、サチコでドメインプロパティを設定しました。 その後、URL検査ツールでいくつかの記事を確認したところ、即座に「URL は Google に登録されています」というステータスになりました

以前運用していた環境では、リクエストを送ってから数日待つことも珍しくなかったため、このスピード感には驚きました。 Cloudflareのエッジ配信によるレスポンス速度の向上(Lighthouseスコア 100点)や、AstroによるセマンティックなHTML構造への最適化が、GoogleのBotに対してポジティブに働いていると考えられます。

課題:サイトマップのステータス

一方で、送信した sitemap-index.xml については、現時点では「取得できませんでした」というステータスのままとなっています。 外部からのアクセスは正常であり、XMLの構造にもバリデーション上のエラーはありません。

これについて調査したところ、移行直後のサイトや小規模なサイトでは、インデックスファイル(親サイトマップ)の処理に時間がかかるケースがよくあるようです。

Googleの見解

「サイトマップが処理されない」「取得できませんでした」という事象については、以下の公式ドキュメントに詳細な記述があります。

サイトマップ レポートを使用してサイトマップを管理する - Search Console ヘルプ

このドキュメントでは、取得エラーの際は 「URL検査ツールでサイトマップのURL自体を検査する」 ことで原因を特定できると解説されています。 しかし同時に、サイトマップそのものの位置づけについて、以下のようにも明記されています。

サイトマップのクロールの必要性が低い。サイトのコンテンツの質が高いほど、クロールの必要性は高くなります。

つまり、個別のエラーに対処するデバッグ手順は用意されているものの、Googleの根本的なスタンスとしては「サイトマップがあるからクロールする」のではなく、「コンテンツに価値があるならクロールする」ということのようです。

ただ、今回のケースでは「記事のインデックス登録」という実利はすでに得られています。 「有用で信頼性の高い、ユーザー第一のコンテンツの作成」こそがクロールを促進するという基本原則(上記ドキュメント内リンク参照)に立ち返り、サイトマップの数値遊びに没頭するのではなく、コンテンツ制作に注力する構えです。

記事自体がすでにインデックスされている(URL検査で確認済み)以上、サイトマップのステータス表示のみを気にして設定を変更し続けるのは、本質的ではありません。

結論

今回は小手先のSEO対策(サイトマップの再送信やPING送信など)は行わず、「しばらく待つ」 ことにします。

エンジニアとしてやるべきことは、サイトマップの設定を変えることではなく、ページのパフォーマンスを維持し、質の高い技術記事を書き続けることです。 土台となるインデックス登録は完了しました。これからは、その中身を充実させていくフェーズに入ります。