ブログ/お知らせ Knowledge
Web制作で見落としがちなテクニカルSEOのポイント【第1弾-検出】
こんにちは!アカウントプランナーの渡辺です!
今回もSEO対策についてお話しできればと思っています。
SEO対策と一口に言っても、
- ①外部対策
- ②内部対策(テクニカルSEO、コンテンツSEO)
など多岐にわたりますが、その中でもWeb制作会社がサイト制作時に密接にかかわる領域としてテクニカルSEOがあります。
テクニカルSEOの基本を押さえることで、クローラーのURL検出を手助けしたり、クロール効率を高めたりと、検索結果にWebサイトを掲載するための基礎が整います。
ここでは、Web制作時に見落としがちなテクニカルSEOのポイントを、シリーズで解説しますので参考にしてみてください。
まず第一弾として、URLの検出を高めるためのポイントです。
※SEOの解説についてはGoogleの「検索エンジン最適化(SEO)スターターガイド」に基づき解説しています。
検索結果にWebサイトが表示されるまでのプロセス

検索エンジンは、主に以下4つのプロセスに沿って、検索結果にWebサイトを表示させています。
- 検出:内部リンクやsitemap.xmlからクローラーがURLを検出
- クロール:クローラーがURL内の情報を収集
- インデックス:収集したURL内の情報を検索データベースに格納
- 検索結果に表示:データベースに格納された情報から、検索アルゴリズムに沿って最適なサイトを表示
テクニカルSEOとは
テクニカルSEOとは、前述の「1.検出」から「3.インデックス」のプロセスにおいて、検索エンジンのクローラーがWebサイトを効率的に巡回・理解・インデックスできるようにする施策のこと。
プロセスごとのテクニカルSEOの役割は以下の通りです。
- 検出:URLの検出を手助けする
- クロール:クロール効率を高める
- インデックス:インデックス登録を最適化する
テクニカルSEOは、SEOの土台とも言える対策なので、Web制作時にも切っても切れない関係なのです。
例えると、基礎の上に建てられた建物がどんなに素晴らしくても、基礎がグラグラだと倒壊のリスクが高まるのと似ています。
検索エンジンにWebサイトを表示させるという、今では当たり前となった仕組みを支えるのがテクニカルSEOと言っても過言ではありません。
【検出】テクニカルSEOを実施するポイント
さて本題です。
まずは、クローラーがWebサイトのURLを効率よく検出できるようにするための、テクニカルSEOのポイントを解説します。
検出段階では、制作するWebサイトの各ページが、クローラーに発見されるように以下の対策を強化すればOKです。
- sitemap.xmlの設置
- robots.txtにsitemapのURLを記載
- 内部リンクの最適化
sitemap.xmlの設置
新規サイトや外部からの言及(被リンク)が少ないサイトの場合は、クローラビリティが低いため、なかなかクロールされずに、インデックスも促進されません。
そのようなケースでは、sitemap.xmlを設置してあげることによって、クローラーにURLが発見されやすくなります。
【sitemap.xmlを設置する際のポイント】
- sitemap.xmlに記載するURLはインデックスさせたいページのみに限定する
- no-indexページはクロール効率が落ちるためsitemap.xmlには掲載しない
- 低品質ページや、わざわざ検索結果に表示させなくてもよいページはsitemap.xmlに掲載しない
- 301、302リダイレクトを実施している場合は、リダイレクト元のURLではなくリダイレクト先のURLを記述する
- 最終更新日を示す<lastmod>を記載し、更新頻度を伝える
※なおsitemap.xmlを設定したら、Googleサーチコンソールでの送信作業を忘れずに行いましょう。
robots.txtにsitemapのURLを記載
sitemap.xmlの設置と併せて対策したいのが、robots.txtにsitemapのURLを記載するということ。
robots.txtはクローラーに対して、サイト内のどのページをクロールしてよいか、あるいはクロールしてはいけないかを指示するためのテキストファイルです。
ここにはsitemap.xmlのURLを記述できることになっており、記述をすることで、クローラーにsitemapの場所が的確に伝わります。
その結果、sitemapに記載されているURLの検出もスムーズに行われるというわけです。
【robots.txtへのsitemapの書き方】
User-agent: *
Disallow: /example/
Sitemap: https://example.com/sitemap.xml
※User-agentは、robots.txtを適用するクローラーの種類を指定する記述。「*」はすべてのクローラーを対象にするという意味。
※Disallowは、クローラーにクロールしてほしくないディレクトリやファイルがある場合には指定します。
※Sitemapは、sitemapが存在するURLを、httpsから始まる絶対パスで記述します。
ちなみに、検索エンジンのクローラーはURLを見つけると、最初にrobots.txtにアクセスし、Webサイト全体のクロール方針を確認します。
このような背景から、最初にアクセスするファイルにsitemapの場所を記述しておくことで、スムーズにsitemap内のURLを見つけられるというわけです。
内部リンクの最適化

クローラーがWebサイトのURLを検出するルートには、sitemap.xmlのほかに、内部リンク経由もあります。
ほかのページに貼り付けられた内部リンクから、新規ページを見つけてくれるわけです。
そのため、内部リンクを貼り付ける際は、ページを孤立させないという考え方が重要。
また、以下のポイントを意識しましょう。
【内部リンクを貼り付ける際のポイント】
- やみくもに貼り付けるのではなく、このページの内容なら次どんな内容知りたい?というユーザー心理を意識して貼り付ける
- 関連性の高い上層ページ→下層ページ、下層ページ→上層ページ、同層ページ→同層ページの構造を意識する
- 内部リンクがない孤立ページはゼロにする
- 内部リンクは上層ページにより多く集まる特性があるため、検索結果に表示させたい重要なページはできるだけ上層に置く
サイト制作時にサイトマップを作り終えると、ディレクトリマップを作成するシーンが多いと思いますが、この段階で内部リンクも設計しておくと、とてもスムーズです。
まとめ
ARUTEGAでは、デザインだけでなく、堅牢なWebサイト作りにも力を入れています。
SEOの土台であるテクニカルSEOについても、Googleの検索エンジン最適化(SEO)スターター ガイドにのっとり、基本を整備した状態でご納品することが可能です。
私自身もSEO畑出身でしたので、クローラーから検出されやすく、インデックスされやすいサイト制作に力を入れています。
また、デジタルマーケティングに強みを持つCOUNTER株式会社と業務提携しており、大規模なデータベース型サイトのSEO対策にも精通しています。
「デザインにもマーケティングにも強い会社を探している、パートナーシップを結びたい」など、お気軽にご相談ください!
ほなね!