Googleサーチコンソールやウェブマスターツールなど、Googleの一連のSEOツールはテクニカルSEO担当者には紹介するまでもないでしょう。
しかし、本当にこれらのツールを完全に活用できているでしょうか?この記事では、この強力なツールを使いこなすための30の方法をお伝えします。
権限レベル
- “フルユーザー”というステータスは権限が最も高いのではなく、重要なアラートを見逃す可能性があることを意味しています。サイト管理関係者は必ず所有者として設定するようにしましょう。
- Googleは現在サイトの直接的な所有者に対してのみサイトに関する通知を送っていますが、上位プロパティの所有者は下位プロパティに位置付けられるサイトに関するメッセージを受け取ることができません。
認証
- ウェブサーバー上でファイルを削除する権限を持つ開発チームや関連チームが、認証ファイルやメタタグの重要性を必ず理解しておくようにしておきましょう。これらは意図せず削除されてしまうことがよく起こります。システム管理者による変更が全体的に素早くなり、思いがけず削除してしまうようなことが最も発生しにくいため、DNSを活用した方法は驚くほど簡単に導入できます。
- ページに複数のアナリティクス用のトラッキングコードがある場合にはGoogleアナリティクスを活用した方法はうまくいかないでしょう。
リンクデータ
- 最新のリンクレポートでは、Googleにより直近に検出された100,000リンクを確認することができます。小さなサイトであれば、この量で過去何年もさかのぼったデータを取得できることになるでしょう。
- 残念ながら、最新のリンクではソースURLを提供するに留まるため、ターゲットURLやアンカーテキストなど他のデータを取得するためにはこれらのリンクをクロールする必要があります。
- 多様なデータを見たい場合、リンクされているURLのリストには新旧のURL構造が含まれているため便利でしょう。
サイトマップ
- インデックスにおいて最高レベルの詳細を確認したい場合は、”多層型”サイトマップを送信するようにしましょう。複数のサイトマップに含まれている同一のURLにはサイトマップの配列を使い、インデックスしないサイトマップとして最も適しているものを見つけましょう(例: 不動産サイトはおそらく売買用のサイトマップと賃貸用のサイトマップを持っており、2つをまとめてはじめて全ての物件を含むようになったり、すべての物件について寝室の数で整理された他のサイトマップがあって別の見方を提供しているなど)。
- Googleがより早くインデックスを更新できるようにサイトマップだけではなくRSSフィードも送信してください。RSSフィードはサイトへの最新のアップデート内容しか含まないため、基本的にサイトマップよりも細かく頻繁にダウンロードされます。
- Googleニュースサイトマップよりも素早くインデックスを行うためにPubSubHubbub (John Mueller氏推奨)を追加してください。
- インデックスから更に早く削除するためには、期限切れのページと共にXMLサイトマップを送信(英語) (404を返しているもの)してください。別のサイトマップに入れて、他のインデックス可能なURLとは区別して見れるようにしておくことをおすすめします。インデックスから削除されたらすぐにそれらを削除し、インデックス数が実際のサイトのページ数にリアルタイムで反映されているようにしてください。
- リダイレクトをより早く検出してもらえるように、1回きりで リダイレクトURLを送信(英語)することもできます。変更を加えたURLと共にサイトマップを送信すると、サイトマップにはリダイレクトURLのみ含まれているため、サーチコンソールではエラーが表示されますが、この場合には問題ありません。
- モバイルサイトマップはフィーチャーフォン向けであり、スマートフォン対応ではないため、デスクトップサイトとは別のスマホサイトのURLがある場合にはそれを送信する必要はありません。
HTMLエラー
- 仮に正規化されていたとしても、サーチコンソールではタイトルが重複しているとレポート(英語)されます。
- サーチコンソールのソフト404エラーレポートを使えば、Googleが元々のコンテンツがないと判断した薄いページをすばやく検出することができます(英語)。
URLパラメータ
- URLパラメータツールはクロールの効率性を確保する上で最も利用価値の高いものといえます。これを使うことで、クローラーに検出されるよりも前に、他のシステムがURLを削除できるようになります。そして、ほしいデータを確実に取得するために当ツール内でURLの構築を行うこともできます。詳しくは、DeepCrawlのパラメータ管理ガイドをご覧ください。
履歴の保存
- サイトの更新履歴を作成しておいて問題が発生したときに見返せるように、主要なサーチコンソールのレポートからのデータ抽出内容を保存しておくと便利です。3年ほど前のレポートまで保存しておくことをおすすめしており、以下のようなレポートから着手してみてください。
- 最新のリンク(バックリンクの多いサイトに有効)
- クロールエラー
- 検索アナリティクスデータ(クリック、インプレッション、CTR、掲載順位)
弱点とバグ
- ニュースサイトマップにあるクロールエラーには2日のタイムラグがあるため、公開後にこれらの記事が拒否された理由までを把握することはできません。
- サーチコンソールのグラフにはクロール結果に基づくクロールエラーが表示されており、ページが再度クロールされるか、データの有効期限が切れた場合には別途変更が起こる可能性があります。
- サーチコンソールのrobots.txtテスターはGoogleと全く同じように機能するわけではなく、相反するallow/disallowルールが同じ長さであるなど微妙な違いがあります。robots.txtテスターではこれらが許可されていると表示されるのに対し、Googleは結果が不明確であればrobots.txtの評価としてはクロールを許可する/しないのどちらもあり得ると指摘しています。したがって、いずれかの結果を全面的に信頼しないようにしてください。詳しくは、Googleのヘルプ内容をご覧ください。
メッセージ
- 以下、DeepCrawlが発見した全てのメッセージです。
- 404エラー
- オーガニック検索をインポートするGoogleアドワーズのリクエスト
- YouTubeチャンネルとの連携
- 認証/権限エラー
- 大きなトラフィックの変化
- アドレスの変更
- サイトリンクの変更
- シルバーライトプラグインに関するChromeの段階的なサポートの停止
- クロール頻度の有効期限切れ
- リンク否認 (disavowed link)の更新
- DMCA通告
- アプリのディープリンク修正
- モバイルユーザービリティに関する問題の修正
- Googleアナリティクスリンク
- Googleがサイトにアクセスできません。
- Google+のリンクが認証されました。
- Google+のリンクのリクエストがありました。
- スマホ用のGooglebotでエラーの増加を検出しました。
- ハッキングの疑いがあります。
- 大量のURL
- 検索での存在感を向上させる
- フォローされていないページの増加
- サイトを新しいサイトリンクの検索ボックスに対応させる
- マルウェア
- 新しい機能のお知らせ
- 新しいジオターゲット設定
- 新しく認証された所有者
- Googleの検索結果からの削除通知
- オーナーの削除が完了していない
- フィッシング通知
- サイトが停止している可能性
- 優先的なドメイン変更
- 再検討のリクエスト
- オーガニック検索をインポートするリクエスト
- サーバーエラー
- ソフト404エラー
- ハッキングの疑い
- 薄いコンテンツ
- 不自然な被リンク
- WordPressのアップデートがあります。
Googleセーフブラウジング
- サーチコンソールはGoogleのセーフブラウジングツールから取得したデータをまとめて、ハッキングされたサイトへリンクしているか、またはマルウェアをホストしているかなどを表示します。
URL削除ツール
- URL削除ツールを使うことで、指定した全てのwww/非wwwやhttp/httpsなどのバージョンを削除(英語)できます。そのため、URL削除ツールは間違ったプロトコルにあるURLに付随する問題を解決することはできません。
検索アナリティクス
- 同じSERPに複数回表示されている場合、新しい検索アナリティクスダッシュボード(ローカル検索結果も含む)では1回のインプレッションとだけカウントされています(英語)。最も高い順位で検索結果に表示されたものを利用し、平均をとって表示されます。
ジオターゲティング
- グローバルサイトを運営していて特定の国をターゲットとしていない場合、ターゲットとなる国を指定しないというよりは、[インターナショナルターゲティング > 国] から地域ターゲット設定で [指定なし] を選択(英語)するようにしてください。
アドレス変更ツール
- HTTPからHTTPSへサイト移行する際、アドレス変更ツールを使って変更をする必要はありません(英語)。
DeepCrawlやRobottoと組み合わせてサーチコンソールを活用する
- サーチコンソールのクロールエラーレポートからURLを抽出した上で、DeepCrawlを使ってURLを再度クロールしてください。これにより現状に関する最新のレポートを見ることができ、Googlebotにより検出されてから変更されたエラーを除外することができます。
- RobottoはダウンロードしたクロールエラーデータとGoogleアナリティクスデータを組み合わせて、サイトへの訪問者を生み出していた削除済のページを検出します。
- Robottoは更にオリジナルバージョンが誤って削除された場合に備えて、サーチコンソールの過去のメッセージを蓄積し、サイトにセキュリティ警告があった際にアラートを出してくれます。
- DeepCrawlのGSC連携機能を使ってサーチコンソールのデータをDeepCrawlへ直接抽出できます。