これまでのGoogle AIの回答の中で最悪のもの

これまでのGoogle AIの回答の中で最悪のもの

Googleは最近、AIが生成した回答をウェブ検索の上位に表示することを発表し、物議を醸しています。これは広く批判されています。実際、ソーシャルメディアには、GoogleのAI検索結果で目立つようになった、全く馬鹿げた回答の例が溢れています。中には、かなり面白いものもあります。

ソーシャルメディアで話題になっている奇妙な検索ワードの一つに、「ピザからチーズが滑り落ちないようにする方法」というものがあります。AIからの返信で表示されるヒントのほとんどは、ピザを冷ましてから食べるようにといった普通のものです。しかし、一番上のヒントは、以下に示すように、非常に奇妙です。

ピザからチーズが滑り落ちないようにする方法について、Gizmodoが5月22日にGoogle検索を行った。
5月22日にギズモードが行ったGoogle検索で、ピザからチーズが滑り落ちないようにする方法が紹介されている。スクリーンショット:Google

一番面白いのは、ちょっと考えてみれば、接着剤を加えてもチーズがピザにくっつくことはまずあり得ないということです。でも、この答えはおそらく11年前に「fucksmith」というユーザーがRedditに投稿した冗談めいたコメントから引用されたのでしょう。AIは確かに盗作はできる、それは認めざるを得ません。

約 11 年前に Reddit で行われたジョークが、Google で AI が生成したひどい回答の元になっているようです。
約11年前にRedditで投稿されたジョークが、GoogleでAIが生成したひどい回答の元になっているようだ。
スクリーンショット:Reddit

最近ソーシャルメディアで注目を集めたもう一つの検索は、歴史家なら誰もが知る大統領に関する豆知識に関するものです。GoogleのAI検索に「どのアメリカ大統領がウィスコンシン大学マディソン校に通っていたか」と尋ねると、13人の大統領が通っていたと答えます。

GoogleのAIは、13人の大統領が在学中に59もの学位を取得したと主張するだろう。しかも、彼らが大学に通っていたとされる年数を見てみると、その大半は大統領の死後ずっと後のことだ。第17代大統領アンドリュー・ジョンソンは1875年に亡くなったにもかかわらず、1947年から2012年の間に14もの学位を取得したのだろうか?我々が知らないような特別なゾンビテクノロジーでもない限り、それは非常に考えにくい。

スクリーンショット: Google
スクリーンショット: Google

ちなみに、アメリカ合衆国はウィスコンシン州出身の大統領を選出したことはなく、ウィスコンシン大学マディソン校出身者も選出していません。Google AIは、マディソン大学を卒業し大統領と同じ名前を持つ様々な人物について、同窓会が2016年に書いた気楽なブログ記事から回答を抽出しているようです。

多くのユーザーが気づいたもう一つのパターンは、GoogleのAIが犬がプロスポーツ選手のような並外れた偉業を成し遂げられると考えていることです。NHLで犬がプレーしたことがあるか尋ねると、要約はYouTube動画を引用し、次のような答えを吐き出しました。

スクリーンショット: Google
スクリーンショット: Google

別の例では、スポーツ以外にも、犬がホテルを経営したことがあるかどうかを検索エンジンに尋ねてみました。プラットフォームからの回答は次の通りでした。

スクリーンショット: ルーカス・ロペック/Google
スクリーンショット: ルーカス・ロペック/Google

念のため言っておくと、犬がホテルを所有していたことがあるかと尋ねられたとき、Googleは肯定的に答えました。そして、犬を飼っているホテルオーナーの例を2つ挙げ、その証拠として高さ30フィート(約9メートル)のビーグル犬の像を示しました。

Google の AI サマリーとやり取りしながら私たちが「学習」した他の事柄としては、犬はブレイクダンスができる(できない)こと、野球の試合では始球式を犬が投げることが多い(フロリダ マーリンズの試合で投球した犬も含む)こと(実際には、犬はボールが投げられた後にボールを拾いに行った)などがあります。

Google側は、ユーザーが「一般的ではない」質問をしたせいで誤った情報が表示されると主張している。しかし、正直に言うと、これは非常に奇妙な言い訳に思える。信頼できる回答を得るには、Googleに最もありふれた、ありふれた質問をするだけでいいのだろうか?

「私たちが確認した例は、一般的に非常に珍しいクエリであり、ほとんどの人の体験を代表するものではありません」と、Googleの広報担当者はGizmodoにメールで回答しました。「AI概要の大部分は、ウェブ上でより深く掘り下げるためのリンクを含む、高品質な情報を提供しています。この新しいエクスペリエンスをリリースする前に、広範囲にわたるテストを実施しました。これらの個別の例を活用し、システム全体を改良していきます。」

なぜこのような反応が起きているのでしょうか?簡単に言えば、これらのAIツールは本来あるべきよりもずっと早く導入され、大手テクノロジー企業は視聴者の注目を集めるために熾烈な競争を繰り広げているのです。

OpenAIのChatGPT、GoogleのGemini、そして今やGoogleのAI SearchといったAIツールは、どれも人間の通常の言語を模倣しているという点で、一見素晴らしいものに思えるかもしれない。しかし、これらの機械は予測テキストモデルとして機能し、本質的には高度なオートコンプリート機能として機能している。膨大な量のデータを蓄積し、説得力のある、時には深遠な響きを持つ言葉を素早く組み合わせることができる。しかし、機械は自分が何を言っているのか理解していない。人間のように推論したり論理を適用したりする能力がないのだ。これが、AI推進派が汎用人工知能(AGI)の可能性にこれほど期待を寄せる多くの理由の一つだ。だからこそ、Googleはピザに糊を塗るように指示するのかもしれない。機械は愚かですらない。愚かになる能力さえないのだ。

これらのシステムを設計する人々は、実際に起こっていることよりもずっとクールに聞こえるため、これを幻覚と呼んでいます。人間は現実との繋がりを失うと幻覚を見​​ます。しかし、皆さんのお気に入りのAIチャットボットが幻覚を見ているのは、そもそも推論や論理ができなかったからです。それはただ、2022年11月にChatGPTのようなツールが初めて公開された際に私たち全員を感動させたあの言語よりも説得力に欠ける、言葉の嘔吐を吐き出しているだけです。そして、地球上のあらゆるテクノロジー企業が、自社の未完成な製品でその最初の高揚感を追い求めています。

しかし、ChatGPTが当初目覚ましい成果を上げた後、これらのツールを正確に評価する時間が十分にあった人は誰もおらず、その宣伝は容赦なく続いています。もちろん、問題は、答えがわからない質問をAIに尋ねた場合、追加の事実確認をしなければ、その答えを信頼することができないということです。そして、それはそもそもこれらの賢い機械に質問する目的を台無しにしてしまうのです。信頼できる答えが欲しかったのですから。

この件についてコメントを求められたGoogleの広報担当者は、Gizmodoに次のように語った。

私たちが目にした例は、一般的に非常にまれなクエリであり、大多数の人々の体験を代表するものではありません。AI概要の大部分は、ウェブ上でより深く掘り下げるためのリンクを含む、高品質な情報を提供しています。この新しいエクスペリエンスをリリースする前に、広範なテストを実施しており、これらの個別の例を参考にしながら、システム全体の改良を進めていきます。

とはいえ、AIシステムの知能をテストする中で、私たちは確かにいくつかの新しいことを学びました。例えば、ある時、犬が飛行機を操縦したことがあるかGoogleに尋ねました。答えは「いいえ」だろうと思っていました。ところがなんと、GoogleのAIによる要約は、根拠のある答えを提供しました。「はい、実際に犬は飛行機を操縦したことがあります。そして、それはアルゴリズムによる幻覚ではありません」。

スクリーンショット: Google
スクリーンショット: Google

Googleの検索におけるAI導入について、皆さんはどのような経験をされましたか? 返答に何かおかしな点や危険な点に気づきましたか? コメント欄で教えてください。スクリーンショットがあれば、ぜひ添付してください。これらのツールは、私たちが好むと好まざるとにかかわらず、今後も定着しそうです。

Tagged: