
AI検索で無名の新ブランドは勝てるのか?1カ月実験で見えた可視化ルール
実在しない架空のブランドでも、AI検索結果に表示され、あたかも業界の有力企業であるかのように引用される。そんな実験結果が、SEOツールを提供するSE Ranking社の研究チームによって2026年4月に公開された。実験開始からわずか1カ月で、作りたてのブランドがAIに「学習」され、検索結果で確固たるポジションを築いたのだ。
この実験が示すのは、AI検索(ChatGPTやGoogleのAI Overviewsなど)の可視性には、明確で再現可能なパターンが存在するということだ。AIはデタラメに結果を表示しているわけではない。特定のシグナルに反応し、そのシグナルは戦略的に操作できる可能性がある。
データに基づいた、AI時代の新しい情報発信のルールを見ていこう。
実験の設計と5つのAIエンジン

この実験を主導したのは、Search Engine Landに寄稿したSE Ranking社の研究チームだ。彼らは実在する市場の中に、完全に架空の新ブランドを作り出した。そのブランドに関する情報を、専用に取得した新しいWebサイトと、過去の運用履歴がある11の追加ドメインに分散して公開。複数のサイト間で情報をどう拾い上げるかも検証した。
作成したコンテンツは以下の7形式に及ぶ。
- 詳細ガイド(5000~6000語の網羅的ページ)
- 「代替品」リスト
- 「ベスト」リスト
- レビュー記事
- 比較(vs)ページ
- ハウツー・チュートリアル記事
- クリックベイト風の記事
2026年3月にコンテンツの公開を開始し、以下の5つのAIシステムがどのように反応するかを1カ月間追跡した。
- ChatGPT
- GoogleのAI Overviews(検索結果の上部に表示される生成AI要約)
- GoogleのAI Mode(AI Overviewsより対話型の検索体験)
- Perplexity(リアルタイムWeb検索に特化したAI)
- Gemini
追跡したプロンプト数は全カテゴリで825件。これに対してAIが生成した回答は合計15,835件にのぼった。各回答において、架空ブランドが「登場したか」「情報源として引用されたか」「1番目の主要な情報源として扱われたか」をチェックしている。
新興ブランドがAI検索を制する3つの発見

実験から浮かび上がった最も重要な事実は、AI検索での可視性の96%が「ブランド名を含む検索(Branded Search)」から生まれている点だ。「最高のプロジェクト管理ツール」のような一般キーワードでは、まったく新しいドメインが既存の権威あるサイトに勝つのは極めて難しい。
しかし、見方を変えれば、これは新規ブランドにとって大きなチャンスでもある。具体的な3つのパターンを見ていこう。
自社の物語は自社で定義できる
架空ブランドのメインサイトでは、ブランド名を含むクエリで10,253件のAI回答が生成されたのに対し、非ブランドクエリではわずか6件だった。その差は約1,700倍だ。AIは、答えが一意に定まる「ブランド固有の質問」に対して、驚くほどの信頼を寄せる。
「御社の製品は元々社内ツールとして開発されたのですか?」といった質問には、そのブランド自身しか答えられない。AIは複数の情報源を比較する必要がなく、結果としてドメインの権威がなくとも、そのサイトの記述をそのまま正解として採用する。実験では、この種のクエリで、権威スコアが40を超える既存の競合を最大32倍も上回る結果を残した。
実際に最も引用されたページは、ブランドの核となる情報をまとめた「完全ガイド」で、1,799件のAI回答に登場した。「会社概要(About Us)」ページも1,500件で続く。LLM(大規模言語モデル)は、これらの基本ページを他のどの追加ドメインよりも3~5倍の頻度で情報源として利用した。
AIはあなたのブランドをすぐに学び始める。しかし、何を学ぶかは、あなたがサイトに何を書くかで決まる。権威がなくとも、「自分たちは何者か」「何を提供しているか」「何が違うのか」を明確に説明することで、AI内でのブランドの語られ方を形成できるのである。
AIエンジンごとの振る舞いはまったく異なる
5つのAIは、それぞれが異なる「性格」を持っていた。この違いを理解することは、AI検索対策において極めて実践的な意味を持つ。
Google AI Mode: 最も安定した支持者
ブランド関連のクエリにおいて、約90%のケースで架空ブランドのドメインを情報源の1位に据えた。変動が少なく、特定の補助ドメインに依存する様子も見られなかった。ブランドの直接的な可視性を最も予測しやすいエンジンと言える。
Google AI Overviews: 高揚感と不安定さの同居
ブランドを認識し、検索結果の上位に表示する能力は高い。しかし、その可視性は安定しない。実験中、2週間連続で1位を維持した後、月中に急に姿を消し、回復しなかったプロンプトもある。AI Overviewsがブランドを「知らない」と回答したり、公開情報がないと主張するケースも散見された。リンクが表示される時は正確な説明を伴うが、その状態を維持するのが難しい。
Perplexity: 俊足の曲者
新しく公開されたページを、インデックスされてからわずか1~3日で拾い上げる圧倒的なスピードを持つ。実験初期の可視性はほぼPerplexityが牽引した。だが、そのスピードにはトレードオフがある。Perplexityは、ブランドのメインサイトよりも、実験用の補助ドメインを情報源として好む傾向を示した。月の後半には、メインのブランドサイトではなく、6つの異なる外部ドメインが引用されるようになった。可視性の総量は増えるが、それが必ずしもブランド本体への直接的な評価向上につながるとは限らない。
ChatGPT: 遅効性で深く浸透
実験開始当初はブランドをまったく認識しなかった。それが月の後半にかけて徐々に可視性を増していく。特に、ブランド固有の主張や製品レビュー、競合との比較ページで強さを発揮した。比較ページでは、月末までに31日中29日間という高い一貫性で引用を続けた。一度認識すると、繰り返し情報源として取り上げる傾向が見て取れる。
Gemini: 最も不安定な存在
実験で最もパフォーマンスが低かった。最初はブランドの事業領域すら誤認するほどだった。プロンプトを「X vs Y」のような比較形式に変えると精度が上がったが、それでもブランド固有のクエリに対して、約60%の回答でブランドへの言及や引用を一切行わなかった。
コンテンツの量と質の意外な関係
AIに引用されやすいコンテンツ形式は明らかだった。1ページあたりのAI回答数で見ると、詳細ガイドが約900件と圧倒的で、レビュー記事(約257件)、比較記事(約145件)がそれに続く。一方、ハウツー記事(22件)やクリックベイト記事(19件)、リスト記事(4~11件)はほとんど引用されなかった。
しかし、ここには明確な逆説がある。実験チームは、1つのテストドメインに、1ページ500~750語程度の薄い内容のページを30ページだけ公開するという、いわば「質より量」のテストも実施した。この30ページは、1ページあたりの平均AI回答数が63件と、詳細ガイドには遠く及ばない。
ところが、ドメイン全体の合計で見ると、総AI回答数は1,897件となり、これが全テストドメインの中で最も高い数値となった。個々のページの質では勝てなくとも、量で総露出を稼ぐ戦略が通用することを示している。これは、Perplexityのように新鮮さを重視するエンジンが存在するAI検索ならではの現象と言える。
トピッククラスターの神話が崩れた瞬間

この実験で最も注目すべき「失敗」のデータがある。それは、従来のSEOで効果的とされてきた「トピッククラスター」が、AI検索ではまったく機能しなかった点だ。
実験チームは、1つのテストドメイン内に、ハブとなる1ページと、それを支える10の関連記事を作成した。これらはすべて適切にインデックスされ、内部リンクで構造化され、検索エンジンにとって意味的なまとまりを形成していた。古典的なSEO理論で言えば、これは「専門性の塊」であり、検索エンジンからの高い評価を得られるはずの構成だ。
結果は、AI回答からの引用ゼロ。1件も引用されなかった。これは、従来の「内部リンクとセマンティックな広がりが権威性を高め、検索されやすくなる」という前提に対する痛烈な反証である。AIが必要としているのは、「構造化された知識のネットワーク」だけではない。AIがその情報を「なぜ、その回答のために引用しなければならないのか」という明確な理由なのだ。そこが欠けていれば、完璧に見えるコンテンツ群もAIの目には留まらない。
AIは「一貫性」に弱い。これはチャンスでありリスクだ

1カ月の実験が突きつけた結論は明快だ。AI検索は、情報の真偽を厳密に検証するよりも、「その情報がどれだけ一貫して、繰り返し、事実のように語られているか」に強く反応する。決して「AIは何でも信じ込む」と言うつもりはない。しかし、ある主張が明確に構造化され、関連する複数のページで何度も繰り返され、それが検索可能な形で存在すれば、AIはそれを驚くほど簡単に「事実」として表面化させる可能性がある。
これは正規のブランドにとっては、自社の強みを定義し、AIに正しく理解させるための能動的な戦略が必要だという警鐘である。AIは黙っていても正確な企業情報を語ってくれるわけではない。こちらから情報環境を整え、学習させにいかなければならない。
同時に、これは大きなリスクでもある。実験では「そのブランドに価値はあるか?」という問いに対し、AIが、まったく無名の架空ブランドを肯定的に推薦するケースも確認された。AIには、まだ情報の空白を批判的に捉えるのではなく、利用可能な限られたシグナルから「中立的」あるいは「好意的」な回答を生成することで埋めようとする傾向があるからだ。
これはAI検索の世界において、ブランド認知がこれまで以上に「柔軟」で、戦略的な影響を受けやすいものであることを意味する。あなたが事業を定義しなければ、他者(あるいは何者でもない情報)が、あなたのブランドの物語を上書きしてしまうかもしれないのだ。
この記事のポイント
- AI検索での可視性の96%は「ブランド名を含む検索」から生まれる。最初に集中すべきは、自社の核となる情報(「私たちは誰か」「何が違うのか」)を明確に定義し公開することである。
- 5つの主要AI(ChatGPT、Google AI Overviews / AI Mode、Perplexity、Gemini)は、情報の拾い上げ速度や引用の安定性がまったく異なる。戦略はこれを前提に設計する必要がある。
- AIに最も引用されるのは網羅的な詳細ガイドや比較記事だ。ただし、質の高い少数の記事が勝つとは限らず、大量のコンテンツが総露出で勝利するケースもある。
- 従来の内部リンクを中心としたトピッククラスター戦略だけでは、AIからの引用を獲得できない。AIに「なぜこれを引用すべきか」という理由を与えることの方が重要である。
- AIの判断は「一貫性」と「反復」に影響を受けやすい。自社のブランド情報を放置すれば、AIは情報の空白を推測で埋め、実態とかけ離れたブランドイメージが形成されるリスクがある。

・ 複数業界における17年間のデジタルビジネス開発経験
・ ウェブサイト開発のためのHTML、PHP、CSS、Java等の実用的知識
・ 15ヶ国語対応の多言語SaaSの開発経験
・ 17年間にも及ぶ、Eコマース長期運営経験
・ 幅広い業界でのSEO最適化の豊富な経験

AIがマーケティングの常識を書き換える——データは「資産」から「AIの燃料」へ
かつて、データは「ビジネスの副産物」に過ぎなかった。しかし、AIの急速な普及により、その価値は「蓄積すべき資産」から「AIを動かすためのリアルタイムな燃料」へと劇的な変化を遂げている。マーケターは今、従来のデータ収集のあり方を根本から見直す必要に迫られている。
2026年3月現在、大規模言語モデル(LLM)は単なる便利なツールを超え、企業の意思決定プロセスを再構築する存在となった。元記事の著者であるクリス・ロブソン氏は、データがマーケティングの中心となった経緯を振り返りつつ、AIがどのようにそのルールを書き換えようとしているかを鋭く分析している。
この記事では、データがたどってきた歴史的な変遷と、AI時代における「新しいデータの役割」について詳しく解説する。特に、自社独自のデータをいかにしてAIに読み込ませ、具体的なアクション(処方箋)へとつなげるかが、今後の競争力を左右する重要なポイントだ。
データは「ゴミ」から「資産」へ:マーケティングにおけるデータの変遷

1970年代のオフィスを想像してみてほしい。そこには書類が詰まったキャビネットが並び、必要な情報だけがカード型インデックスに記録されていた。当時のビジネスにおいて、データは「どうしても必要なもの」だけを保管する対象であり、それ以外は「ビジネス上のゴミ」として扱われていたのだ。
70年代の「不要な副産物」時代
当時はデジタルストレージが極めて高価で、速度も遅かった。そのため、企業の基幹業務に関わる最小限のデータ以外を保存することは、コスト面でもリスク面でも現実的ではなかった。記事によれば、この時代のデータは「一度書き込んだら二度と参照されない」ことも珍しくなく、活用されることはほとんどなかったという。
「新しい石油」となった現代のデータ活用
テクノロジーの進化により、ストレージコストが劇的に低下すると、データの価値は一変した。あらゆるトランザクションデータを保存する「データレイク」や「データオーシャン」といった概念が登場し、データは「新しい石油」と呼ばれるほどの重要な資産へと昇華した。企業は「いつか役に立つかもしれない」という期待のもと、膨大なデータを蓄積し始めたのである。
予測から「処方」へ:AI以前のデータ分析の限界

データの蓄積が進むにつれ、分析の手法も高度化していった。しかし、従来のデータサイエンスには明確なステップが存在し、現在のAIによる革命が起こるまでは、人間がその結果を解釈して行動を決定する必要があった。
分析の3段階(記述・予測・処方)
データ分析は、大きく分けて以下の3つのステップで進化してきた。まず「何が起きたか」を把握する記述的分析(Descriptive)、次に「次に何が起きるか」を推測する予測的分析(Predictive)、そして「何をすべきか」を提示する処方的分析(Prescriptive)だ。
処方的分析とは、例えば「この顧客には20%の割引クーポンを提示すべきだ」といった具体的なアクションをシステムが提案することを指す。ロブソン氏によれば、これまではこの「処方」の範囲は限定的であり、常に過去のデータを参照して「より良いレンズ」で現状を見るための作業に過ぎなかったという。
AI(LLM)が変えるデータの役割:なぜ「保存」だけでは足りないのか

LLM(大規模言語モデル)の登場は、この「処方」のプロセスを根底から変えた。AIは単にデータを分析するだけでなく、膨大な知識ベースを基に自ら思考し、最適なアクションを生成できるようになったからだ。ここで重要になるのが、AIがデータをどのように「記憶」しているかという点である。
LLMは「ウェブ全体のぼやけたJPEG」である
SF作家のテッド・チャン氏は、LLMを「ウェブ全体のぼやけたJPEG」と表現した。これは非常に的を射た比喩だ。LLMは学習データそのものをデータベースとして持っているわけではなく、数十億のパラメータを通じて、知識を高度に圧縮した状態で保持している。画像ファイルを圧縮すると細部がぼやけるように、AIの記憶もまた、完全な複製ではない。
独自データがAIに「高精細な視力」を与える
AIが「フランスの首都は?」という問いに「パリ」と答えられるのは、学習時にそのパターンを圧縮して記憶したからだ。しかし、あなたの会社の昨日の売上や、特定の顧客の好みまでは知らない。そこで必要になるのが、AIという「ぼやけた画像」に、自社独自の「高精細なデータ」を補足として与える作業だ。これにより、汎用的なAIが「自社専用の極めて賢いアドバイザー」へと変貌する。
新しいデータ戦略「MCP」とリアルタイム性の重要性

AIに自社データを効率的に読み込ませるための技術として、現在注目されているのが「MCP(Model Context Protocol)」だ。これは、AIモデルが企業のライブデータベースを直接参照できるようにするための標準的な接続方式を指す。
Model Context Protocol(MCP)とは何か
MCPは、いわばAIとデータの間の「ユニバーサルアダプター」のような役割を果たす。これまでのAI活用では、データを一度AIに学習させる(ファインチューニング)か、プロンプトに大量のデータを詰め込む必要があった。しかしMCPを使えば、AIは必要な時に、必要なデータだけを、安全にデータベースから読み取ることができる。
ロブソン氏は、MCPはまだ初期段階にあるものの、データ資産のあり方を再考する上で不可欠な要素になると述べている。データを「溜め込む」のではなく、AIがいつでも「つまみ食い」できる状態に整えておくことが、これからのデータ戦略の肝となるのだ。
ECサイト運営者が今すぐ見直すべきデータ収集のポイント

WooCommerceなどのECサイトを運営している場合、この変化は売上に直結する。単に「購入履歴」を保存するだけでなく、AIがそのデータを活用して「次にこの顧客が欲しがるもの」をリアルタイムで提案できる環境を整えなければならない。
「何でも貯める」から「AIが使いやすい」形へ
これからのデータ収集で意識すべきは、データの「鮮度」と「構造」だ。AIは古いデータよりも、今この瞬間のユーザーの行動を重視する。例えば、カートを放棄した理由や、特定の商品ページでの滞在時間など、文脈(コンテキスト)を含んだデータを構造化して保持しておくことが、AIによる精度の高い「処方」を引き出す鍵となる。
このデモは、データ活用の目的が「過去の振り返り」から「即時のアクション」へとシフトしている様子を視覚化したものだ。AIが介在することで、データは単なる記録から、ビジネスを動かす動的なエネルギーへと変わる。
独自分析:AI時代の「ゼロパーティデータ」の重要性
ここで筆者(当ブログ)独自の視点を加えたい。AIが「ウェブ全体の知識」をすでに持っている以上、企業が今後最も注力すべきは「ゼロパーティデータ」の収集である。ゼロパーティデータとは、顧客が意図的かつ積極的に企業と共有するデータ(好み、購入動機、将来の計画など)を指す。
GoogleやMetaが持つ膨大な行動データ(サードパーティデータ)は、AIモデルの基礎訓練にすでに使われている。しかし、あなたのサイトを訪れた顧客が「なぜこの商品に興味を持ったのか」という具体的な動機は、AIも持っていない。この「AIが持っていないパズルの一片」をいかにして収集し、AIに与えるかが、パーソナライズの精度を劇的に高める差別化要因になるだろう。
この記事のポイント
- データは「保存すべき資産」から「AIを動かすための燃料」へと役割を変えた。
- LLMは知識を圧縮して保持しているため、自社独自の「高精細なデータ」による補完が不可欠。
- MCP(Model Context Protocol)などの新技術により、AIがライブデータを直接参照する環境が整いつつある。
- ECサイト運営者は、単なる履歴だけでなく、顧客の「文脈」や「動機」を構造化して収集すべきだ。
- AI時代における最大の武器は、汎用AIが持ち得ない「自社独自のクリーンなデータ」である。
出典
- MarTech「Data built modern marketing, but AI is rewriting the rules」(2026年3月26日)

・ 複数業界における17年間のデジタルビジネス開発経験
・ ウェブサイト開発のためのHTML、PHP、CSS、Java等の実用的知識
・ 15ヶ国語対応の多言語SaaSの開発経験
・ 17年間にも及ぶ、Eコマース長期運営経験
・ 幅広い業界でのSEO最適化の豊富な経験

SEOの新戦場「コンセンサス・レイヤー」攻略法——AI検索時代に生き残る信頼の構築術
検索結果の1位を獲得していても、ユーザーからは全く見えない存在になるリスクが高まっている。従来の検索エンジンが「URLのリスト」を提示していたのに対し、生成AIやAI検索エンジンは、複数のソースから情報を合成して「一つの回答」を提示するからだ。
2024年半ば以降、AIによる検索概要(AI Overviews)が表示されるクエリにおいて、オーガニック検索のクリック率(CTR)は61%も低下した。AIが回答を完結させてしまうため、ユーザーはサイトを訪問する必要がなくなっている。この変化は、SEOの主戦場が「掲載順位」から「コンセンサス(合意)」へと移行したことを意味する。
この記事では、AIがどの情報を信頼し、どのブランドを回答に採用するかを決定する「コンセンサス・レイヤー」の仕組みを解説する。最新のSEO戦略において、なぜ分散型の信頼構築が必要なのか、その具体的な手法を紐解いていく。
検索順位の価値が変わる?「コンセンサス・レイヤー」の正体

これまでのSEOは、特定のキーワードで自社サイトを上位に表示させ、クリックを促すことがゴールだった。しかし、ChatGPTやPerplexityのようなAI検索エンジンが登場したことで、その論理は通用しなくなっている。著者のアダム・ハイツマン氏は、これを「リトリーバル(検索)からコンセンサス(合意)への移行」と表現している。
AIが回答を生成する仕組み「RAG」
AI検索の裏側では、RAG(Retrieval-Augmented Generation / 検索拡張生成)という技術が動いている。これは、AIがWeb上の膨大な情報をリアルタイムで検索し、信頼できる複数のソースから共通する主張を抽出して、一つの回答にまとめ上げる仕組みだ。
RAGとは、AIが学習データだけに頼らず、外部の最新情報を参照して回答の精度を高める手法を指す。このプロセスにおいて、AIは一つのサイトの情報だけを信じることはない。複数の独立したメディアやプラットフォームが同じ内容を述べているとき、AIはその情報を「事実」としての確信度が高いと判断し、回答に採用する。
コンセンサス・レイヤーは「パターンの認識」
コンセンサス・レイヤーとは、複数のAIシステムが特定のブランドやサービスについて、どれだけ一貫した情報を出力できるかを示す指標だ。AIはハルシネーション(事実に基づかない嘘)を防ぐために、情報の裏付け(Corroboration)を常に行っている。
例えば、あるブランドが自社サイトだけで「業界No.1」と主張していても、AIはそれをコンセンサスとは見なさない。一方で、複数のニュースサイト、レビュープラットフォーム、SNS、業界フォーラムで同様の評価を受けていれば、AIはそれを強力なパターンとして認識する。孤立した権威ではなく、分散された信頼こそがAI時代のSEOの鍵となる。
AIが信頼性を判断する「コンセンサス」の構成要素

AIがどのブランドを回答に含めるかを決める際、従来のバックリンク(被リンク)以外のシグナルを重視するようになっている。ハイツマン氏は、特に以下の要素がコンセンサス形成に寄与すると指摘している。
リンクのない「サイテーション(言及)」の重み
これまでのSEOでは、リンクがない言及は価値が低いとされることが多かった。しかし、AIシステムはWebページをテキストデータとしてスキャンするため、リンクの有無に関わらずブランド名が語られている文脈を理解する。信頼性の高い業界メディアでブランド名が出るだけで、それは強力なコンセンサス・シグナルとなる。
Semrushの調査によれば、ChatGPTが引用したウェブページの約90%は、同じクエリの検索結果で上位20位以内に入っていないという。これは、AIが「検索順位が高いページ」ではなく「広範囲で信頼されている情報源」を優先して選んでいる証拠だ。
コミュニティとエンティティの明確化
RedditやQuoraなどのコミュニティプラットフォームでの評判も無視できない。AIはリアルなユーザーの声を重視するため、特定のサブレディット(Reddit内の掲示板)で推奨されているブランドは、AIの回答に反映されやすくなる。これは「偽造できない信頼」としてAIに評価されるためだ。
また、エンティティ(実体)の明確化も重要だ。エンティティとは、人、場所、組織など、検索エンジンが識別できる概念を指す。Schema.org(構造化データ)やJSON-LDを適切に設定し、自社が「何者であり、どのカテゴリーで、どのような専門性を持っているか」を機械可読な形式で伝えることで、AIは情報を取得しやすくなる。
実践的な戦略:AI検索で選ばれるブランドになるために

コンセンサスを構築するには、自社サイトの改善だけでは不十分だ。Web全体に自社の信頼の証拠を散りばめる必要がある。具体的なステップは以下の通りだ。
自社LLMオーディット(監査)の実施
まずは、主要なAI(ChatGPT、Perplexity、Geminiなど)に対して、顧客が尋ねそうな質問を投げかけてみることから始める。「〇〇の課題を解決する最適なツールは?」「△△業界の主要なプロバイダーは?」といった質問だ。
この監査により、自社がどのように認識されているか、あるいは無視されているかが浮き彫りになる。もし競合他社ばかりが推奨されているのであれば、どのメディアが引用源になっているかを特定し、そこへの露出を強化する戦略が必要になる。古い情報が回答に使われている場合は、外部メディアの情報を更新する働きかけも重要だ。
独自調査データによる「引用源」の確立
AI時代に最も強力なコンテンツは「独自調査データ」である。業界のベンチマークとなる統計、独自のアンケート結果、実験データなどは、他のメディアやジャーナリストが引用しやすいためだ。多くの外部ソースから引用されることで、そのデータの「発信元」としての地位が確立され、AIは確信を持ってそのブランドを回答に採用するようになる。
また、専門家による監修や寄稿も効果的だ。AIは執筆者の専門性(E-E-A-T)を評価するため、業界で認知されている人物がブランドに関わっている証拠を、構造化データとともにWeb上に残していくことが求められる。
成果をどう測るか?新しいSEOのKPI設定

検索順位が唯一の指標ではなくなった今、計測すべきKPIも変化している。従来の「クリック数」や「順位」だけに固執すると、戦略を見誤る可能性がある。
シェア・オブ・ボイスとエンティティの共起
AIの回答内での「シェア・オブ・ボイス(占有率)」を測定することが重要だ。特定のカテゴリに関するAIの回答のうち、自社ブランドが言及された割合を追跡する。また、どのようなキーワードや競合他社と一緒に語られているかという「共起(Co-occurrence)」のパターンも分析対象となる。
さらに、言及されているドメインの多様性(Mention Density)も指標になる。特定のサイトだけでなく、幅広い独立したメディアで自社が語られている状態を目指すべきだ。これらの指標は、単なるトラフィックよりも、ブランドの長期的な「AI視認性」を正確に表すものとなる。
この記事のポイント
- 順位から合意へ:AI検索は単一のページではなく、Web上の「コンセンサス(合意)」を基に回答を合成する。
- RAGの理解:AIは複数の信頼できるソースから情報を引き出し、裏付けが取れたものだけを回答に採用する。
- サイテーションの重要性:リンクの有無に関わらず、信頼性の高いメディアやコミュニティでの言及がAIの信頼シグナルになる。
- 独自データの活用:独自調査や統計を発信することで、AIが引用せざるを得ない「情報の源泉」としての地位を築く。
- KPIの刷新:クリック率だけでなく、AI回答内でのシェアや言及の多様性を追跡し、分散型のオーソリティを評価する。
出典
- Search Engine Land「SEO’s new battleground: Winning the consensus layer」(2026年3月20日)

・ 複数業界における17年間のデジタルビジネス開発経験
・ ウェブサイト開発のためのHTML、PHP、CSS、Java等の実用的知識
・ 15ヶ国語対応の多言語SaaSの開発経験
・ 17年間にも及ぶ、Eコマース長期運営経験
・ 幅広い業界でのSEO最適化の豊富な経験
