サイトやブログのアクセスアップ方法のメモ・雑記

ウェブマスター向けガイドライン(品質に関するガイドライン)

サイトの検出、クロール、インデックスに関するベスト プラクティス

次のガイドラインに沿ってサイトを作成すると、Google がサイトを認識し、インデックスに登録し、ランク付けをするプロセスをスムーズにおこなう手助けとなります。ガイドラインの提案項目を導入しないサイトでも、「品質に関するガイドライン」には目を通されますようお願い致します。このガイドラインでは、Google のインデックスから完全に削除されるか、アルゴリズムまたは手動によるスパム対策が実施される可能性のある不正行為について説明しています。スパム対策が実施されたサイトは、Google.co.jp や Google のパートナー サイトの検索結果に表示されなくなることがあります。

サイトの準備ができたら:
  • Google ウェブマスター ツールを使用してサイトマップを送信します。サイトマップを送信することで、Google が、サイトの構造を認識し、ウェブページを検出することが容易となります。
  • 必要なすべてのサイトにあなたのサイトが公開されたことを連絡します。

デザインとコンテンツに関するガイドライン
  • わかりやすい階層とテキスト リンクを持つサイト構造にします。各ページには、少なくとも 1 つの静的なテキスト リンクからアクセスできるようにします。
  • サイトの主要なページへのリンクを記載したサイトマップを用意します。サイトマップ内にリンクが非常に多数ある場合は、サイトマップを複数のページに分けることをおすすめします。
  • 1 ページのリンクを妥当な数に抑えます。
  • 情報が豊富で便利なサイトを作成し、コンテンツをわかりやすく正確に記述します。
  • ユーザーがあなたのサイトを検索するときに入力する可能性の高いキーワードをサイトに含めるようにします。
  • 重要な名前、コンテンツ、リンクを表示するときは、画像の代わりにテキストを使用します。Google のクローラでは、画像に含まれるテキストは認識されません。テキスト コンテンツの代わりに画像を使用する必要がある場合は、alt 属性を使用して簡単な説明テキストを組み込みます。
  • <title> タグの要素と alt 属性の説明をわかりやすく正確なものにします。
  • 無効なリンクがないかどうか、HTML が正しいかどうかを確認します。
  • 動的なページ(URL に「?」が含まれているページなど)を使用する場合、検索エンジンのスパイダーによっては、静的なページと同じようにはクロールされない場合があります。パラメータを短くしたり、パラメータの数を少なくしたりすると、クローラで見つけやすくなります。

技術に関するガイドライン
  • Lynx などのテキスト ブラウザを使用して、サイトを確認します(ほとんどの検索エンジンのスパイダーには Lynx で見えるようにサイトが映ります)。JavaScript、Cookie、セッション ID、フレーム、DHTML、Flash などの特殊な機能が使用されているためにサイトの一部がテキスト ブラウザで表示されない場合、検索エンジンのスパイダーがサイトをうまくクロールできない可能性があります。
  • セッション ID やサイト内のパスをトラッキングする引数がなくても、検索ロボットがサイトをクロールできるようにします。これらの技術は個々のユーザーの行動をトラッキングする場合には便利ですが、ロボットがアクセスするパターンとはまったく異なります。そのため、これらの技術を使用すると、実際は同じページにリンクしている別の URL をロボットが排除できず、そのサイトのインデックスが不完全なものになる可能性があります。

ウェブ サーバーが If-Modified-Since HTTP ヘッダーに対応していることを確認します。この機能を使用すると、Google が前回サイトをクロールした後にコンテンツが変更されたかどうかがサーバーから Google に通知されるため、帯域幅や負荷を軽減できます。
  • ウェブ サーバーの robots.txt ファイルを活用します。このファイルでは、クロールを実行するディレクトリと実行しないディレクトリを指定できます。誤って Googlebot クローラがブロックされることのないよう、このファイルにサイトの最新の状態が反映されていることを確認してください。サイトへのロボットによるアクセスを制御する方法については http://code.google.com/web/controlcrawlindex/docs/... をご覧ください。Google ウェブマスター ツールの robots.txt 分析ツールを使用して、robots.txt ファイルを正しく使用しているかどうかをテストできます。
  • 広告が検索エンジンの掲載順位に影響を与えないように、適切な対処をします。たとえば Google の AdSense 広告や DoubleClick のリンクは、robots.txt ファイルでクロールをブロックします。
  • コンテンツ管理システムを導入する場合は、検索エンジンがサイトをクロールできるようなページやリンクを、システムが作成することを確認します。
  • robots.txt を使用して、検索結果ページや、検索エンジンからアクセスしたユーザーにとってあまり価値のない他の自動生成ページをクロールしないよう制御します。
  • サイトをテストして、各ブラウザで正しく表示されることを確認します。
  • サイトのパフォーマンスを監視して、読み込み時間を最適化します。Google の目標は、最も関連性の高い検索結果と優れた利便性をユーザーに提供することです。表示が速いサイトは、ユーザーの満足度を高め、ウェブ全体の質を向上させます(特にインターネット接続速度が遅い場合)。そのため、Google では、ウェブマスターがサイトを改善することで、ウェブ全体の速度が上がることを期待しています。

ウェブマスターの皆様には、Page Speed、YSlow(英語)、WebPagetest(英語)、またはその他のツールを使用して定期的にサイト パフォーマンスを監視することを強くおすすめします。ツールやリソースなどの詳細については、ウェブ高速化?をご覧ください。また、ウェブマスター ツールのサイト パフォーマンス ツールを使用すると、ウェブサイトの平均読み込み時間を表示できます。


品質に関するガイドライン
この品質に関するガイドラインでは一般的な偽装行為や不正行為について説明していますが、ここに記載されていない不正行為についても、Google で対応策を実施することがあります。また、このページに記載されていない行為が許可されているとは限りません。抜け道を探すことに時間をかけるより、ガイドラインを厳守することでユーザーの利便性が向上し、検索結果の上位に表示されるようになります。

Google の品質に関するガイドラインに従っていないと思われるサイトを見つけた場合は、スパム報告(ウェブマスターツールより)で Google にお知らせください。個別の不正行為対策を最小限に抑えられるよう、Google では拡張可能で自動化された解決方法の開発に努めています。Google では、すべての報告に対して手動による対策を講じるとは限りませんが、ユーザーへの影響度に応じて各スパム報告に優先度を設定し、場合によってはスパム サイトを Google の検索結果から完全に削除することがあります。ただし、手動による対策を講じた場合には必ずサイトを削除する、というわけではありません。また、報告を受けたサイトに対して Google で対策を講じた場合でも、その効果があったかどうかが明確にならないこともあります。


品質に関するガイドライン - 基本方針
  • 検索エンジンではなく、ユーザーの利便性を最優先に考慮してページを作成する。
  • ユーザーをだますようなことをしない。
  • 検索エンジンでの掲載位置を上げるための不正行為をしない。ランクを競っているサイトや Google 社員に対して自分が行った対策を説明するときに、やましい点がないかどうかが判断の目安です。その他にも、ユーザーにとって役立つかどうか、検索エンジンがなくても同じことをするかどうか、などのポイントを確認してみてください。
  • どうすれば自分のウェブサイトが独自性、価値、または魅力のあるサイトといえるようになるかを考えてみる。同分野の他のサイトとの差別化を図ります。


品質に関するガイドライン - 具体的なガイドライン
次のような手法を使用しないようにします:
  • フィッシングや、ウイルス、トロイの木馬、その他のマルウェアのインストールといった悪意のある動作を伴うページを作成すること
  • 自動化されたクエリ?を Google に送信すること


次のような望ましい行動を習慣付けます:
  • サイトがハッキングされていないかどうかを監視し、ハッキングされたコンテンツを見つけたときはすぐに削除する

サイトが上記のガイドラインに従っていない場合は、ガイドラインに沿ってサイトを修正し、再審査をリクエストしてください。



Googleと相性の良いサイト

フリーエリア












メンバーのみ編集できます