Google検索は今や巨大な幻覚だ

Google検索は今や巨大な幻覚だ

Googleは先週、AIによる概要表示を全米で公開する前に数ヶ月間テストを行っていましたが、明らかにそれだけの時間では足りませんでした。AIはユーザーの複数の質問に対して幻覚的な回答をしており、Googleの主力製品全体で信頼性の低い体験を生み出しています。先週、GizmodoはGoogleからAIによる概要表示を受け取りました。そこには、糊で覆われたピザについて言及したり、バラク・オバマがイスラム教徒だったと示唆したりする内容が含まれていました。

幻覚は懸念すべき事態ですが、全く驚くべきことではありません。AIチャットボットの過去の事例と同様に、この技術は風刺とジャーナリズムを混同しているようです。私たちが発見したAIによる誤った概要のいくつかは、The Onionを参照しているようです。問題は、このAIが、毎日何かを調べるためにGoogle検索を利用する何百万人もの人々に、権威ある回答を提供していることです。今、少なくとも一部の人々には、幻覚的な回答が提示されることになります。

「AIオーバービューの大部分は高品質な情報を提供しており、ウェブ上でより深く掘り下げるためのリンクも提供しています」と、Googleの広報担当者はGizmodo宛てのメールで声明を発表し、同社が確認した事例の多くは一般的ではないクエリからのものだと指摘しました。「当社はコンテンツポリシーに基づき、適切な場合には迅速に対応し、これらの事例を基にシステムのより広範な改善を進めています。その一部はすでに展開を開始しています。」 

私の経験では、AIによる概要は間違っているよりも正しい場合が多いです。しかし、間違った回答が出るたびに、Google検索での体験全体に疑問を抱くようになりました。一つ一つの回答を慎重に評価しなければならないからです。GoogleはAIが「実験的」であると述べていますが、デフォルトですべてのユーザーがこの実験に参加しているようです。

「検索では、数十億ものクエリを処理しています」と、Google CEOのサンダー・ピチャイ氏は月曜日、AI概要機能の展開について問われたThe Vergeに語った。「クエリを見つけて私に渡して、『あのクエリはもっと​​うまくできたのではないか?』と尋ねることは確かに可能です。確かに、その通りです。しかし多くの場合、人々がAI概要機能に好意的に反応する理由の一つは、私たちが提供する概要が明らかに付加価値をもたらし、そうでなければ考えもしなかったような事柄に目を向けるのに役立つからです。」

不思議なことに、Google検索は時々「この検索で​​はAIによる概要は利用できません」という応答を返す一方で、何も言わずに従来の検索結果を表示することもあります。「アメリカ大統領の民族はどれが多いですか?」と検索したときも、「me」という単語が出てくる果物は何でしょう?と検索したときも、この回答を得ました。

スクリーンショット: Google 検索
スクリーンショット: Google 検索

Googleの広報担当者によると、同社のシステムは時折AIによる概要生成を開始するものの、品質基準を満たしていない場合は表示を停止しているという。特に注目すべきは、人種問題が国内の広範囲で大きな反響を呼んだ後、Googleは人種問題に関するGeminiの回答と画像生成を数ヶ月間停止せざるを得なかったことだ。この「停止と開始」を繰り返すAIによる概要生成が、この状況と関連しているかどうかは不明だ。

明らかなのは、Googleが言葉だけでなく行動で示すプレッシャーを感じていたということです。それはつまり、検索にAIを組み込むことを意味します。人々はますます、ChatGPT、Perplexity、その他のAIサービスをインターネットで情報を探す主な手段として選ぶようになっています。Googleはこの競争を存亡の危機と捉えていますが、追いつこうとすることで検索体験を危険にさらしてしまったのかもしれません。

今週、Google検索はAIによる概要を通じて、人々に多くの奇妙な情報を伝えてきました。ギズモードが見つけた、特に奇妙なものをいくつかご紹介します。

Tagged: