Podcast Episode Details

Back to Podcast Episodes
第571回: 放置は危険… Google AIモードや ChatGPTが潜在的に持つ 自社の評判への脅威

第571回: 放置は危険… Google AIモードや ChatGPTが潜在的に持つ 自社の評判への脅威


Episode 571


第571回:放置は危険…-Google-AIモードや-ChatGPTが潜在的に持つ-自社の評判への脅威

Googleの生成AI機能、日本上陸で問われる新たなウェブ戦略

先日、Googleの検索結果に生成AIが要約を表示する「AIモード(AI Overview)」が、ついに日本でも利用可能になりました。多くの方が、ご自身のビジネスに関連するキーワードで、どのような結果が表示されるか試されたのではないでしょうか。

しかし、競合や市場の動向を調べること以上に、まず確認すべき重要なポイントがあります。それは、「自社について検索した際に、生成AIがどのような情報を生成するか」です。今回は、生成AI検索の時代に必須となる「ブランド情報の防衛」という観点について、その重要性と具体的な対策をお話しします。

生成AI検索と従来の検索、その決定的な違いとは

なぜ、自社に関する生成AIの結果をモニタリングする必要があるのでしょうか。それは、生成AIによる検索体験が、従来の検索とは根本的に異なる特性を持っているからです。

単一の「答え」として提示されることの危うさ

従来のGoogle検索では、あるキーワードで検索すると、様々なウェブサイトがリスト形式で表示されました。私たちはその中から複数の情報を比較・検討し、「この情報は信頼できそうだ」「こちらは少し違う視点だ」と、総合的に判断を下すことができました。

一方、AIモードやAI Overviewは、多くの場合、単一の要約された「答え」を提示します。複数の意見が併記されることもありますが、基本的には一つのまとまった回答として表示されるため、ユーザーはそれをそのまま事実として受け入れてしまいがちです。検索結果に表示される多様な視点が失われ、生成AIが生成した一つの回答が、そのまま世間の認識として広まってしまうリスクをはらんでいます。

生成AIは「事実」を語っているわけではない

ここで理解しておくべきなのは、大規模言語モデル(LLM)は、情報の正しさや善悪を判断しているわけではない、という点です。大規模言語モデル(LLM)は、膨大なテキストデータから文脈における単語同士の関連性パターンを学習し、次に来る確率が最も高いと判断した言葉を予測して繋ぎ合わせることで、文章を生成しています。つまり、ファクトチェックの機能が働いているわけではありません。

そのため、学習データの中に誤った情報や古い情報、あるいは意図的に操作された情報が含まれていると、LLMはそれを「事実」として学習し、回答に含めてしまう可能性があります。これが、生成AI時代のブランド管理を難しくする大きな要因です。

生成AI時代に潜む新たな脅威「ブランドへの意図的な攻撃」

このLLMの特性は、悪意を持った第三者による攻撃のリスクも生み出します。実際に、海外メディアでもこうした攻撃手法を「Directed Bias Attacks」と名付け、警鐘を鳴らしています。これは、特定のブランドに対して意図的に偏った(バイアスのかかった)情報をウェブ上に大量に拡散することで、生成AIに「このブランドはネガティブな情報と関連が深い」と誤って学習させ、その評判を毀損する回答を生成させようとする攻撃です。

例えば、特定の企業に関する事実無根のネガティブな情報を、様々なブログや掲示板に大量に書き込む、といった手法が考えられます。実際に、これまでご支援してきたクライアントの社名やサービス名で生成AI検索を試した際、過去の古い情報や、たった一件のネガティブなレビューブログに内容が引きずられてしまうケースが見られました。こうした状況は、意図的な攻撃がなくとも起こりうるのですから、「Directed Bias Attacks」は決して対岸の火事ではありません。

私たちが今すぐ始めるべき「生成AI時代のブランド衛策」

では、こうしたリスクに対して、私たちはどのように備えればよいのでしょうか。重要なのは、受け身ではなく能動的に自社の情報を管理していく「自衛」の姿勢です。

1. 定期的なモニタリング

まずは、自社が生成AIによってどのように語られているかを把握することから始めましょう。

  • 何を調べるか:会社名、サービス名、商品名、代表者名など。可能であれば「会社名 評判」「サービス名 ブラック」といった、想定されうるネガティブな掛け合わせキーワードも試してみましょう。
  • どのプラットフォームで調べるか:現状、世界のシェアのほとんどを占めている「ChatGPT」と、これから検索の中心になっていくであろう「GoogleのAIモード/AI Overview」の2つは最低限チェックすることをお勧めします。
  • どのくらいの頻度で調べるか:特にBtoBビジネスや採用活動に力を入れている企業の場合、評判がビジネスに直結しやすいため、少なくとも週に1回程度はチェックする習慣をつけるのが理想です。

2. 問題を発見した場合の対処法

モニタリングの過程で、事実と異なる情報や、意図しないネガティブな情報が表示された場合は、迅速な対応が必要です。

幸い、現在のGoogleのAIモードやChatGPTは、回答の根拠となった「情報源(ソース)」へのリンクを表示してくれます。まずはその情報源を特定し、ウェブサイトの運営者に連絡して記述の修正を依頼することが第一歩です。

同時に、自社のウェブサイトやオウンドメディア、プレスリリースなどを通じて、正しい情報を積極的に発信していくことも極めて重要です。正確で質の高い情報を増やすことで、生成AIが参照する情報源を上書きし、より適切な回答が生成されるよう働きかけていきます。

3. 法的対応の現状と難しさ

生成AIが生成した内容について、プラットフォーム提供者(GoogleやOpenAIなど)の法的な責任を問うことは、現状の法律では非常に難しいとされています。サービス自体が成り立たなくなる


Published on 3 months, 1 week ago






If you like Podbriefly.com, please consider donating to support the ongoing development.

Donate