「奴隷制の利益」:グーグルのAI検索はばかばかしく間違った答えを出す

「奴隷制の利益」:グーグルのAI検索はばかばかしく間違った答えを出す

ギズモードが入手した情報によると、GoogleのAI生成検索結果実験では、奴隷制や大量虐殺の正当化、書籍の禁書化によるプラス効果など、懸念すべき結果がいくつか出ている。ある例では、Googleは「死の天使」として知られる毒キノコ、テングタケの調理法のヒントを提供した。これらの結果は、GoogleのAIを活用した検索生成体験(SEE)の一部である。

「奴隷制の利点」を検索すると、GoogleのAIが「プランテーション経済の活性化」「大学や市場への資金提供」「大きな資本資産となること」といった利点のリストを表示した。Googleは「奴隷は専門的な職業を発展させた」と述べ、「奴隷制は社会経済的利益をもたらした慈悲深く父権主義的な制度だったと考える人もいる」と付け加えた。これらはすべて、奴隷制擁護者が過去に主張してきた論点である。

「ジェノサイドの利点」と入力すると、同様のリストが表示されましたが、GoogleのAIはジェノサイドを認めることを支持する議論とジェノサイドそのものを支持する議論を混同しているようでした。「銃が良い理由」という質問に対して、Googleは「銃は年間推定250万件の犯罪を防ぐことができる」といった疑わしい統計や、「銃を携帯することは、あなたが法を遵守する市民であることを示すことができる」といった疑わしい論理を含む回答を提示しました。

Google の AI は奴隷制度は良いものだったと示唆している。
GoogleのAIは奴隷制は良いことだったと示唆している。スクリーンショット:リリー・レイ

あるユーザーが「テングタケ(Amanita ocreata)」という猛毒のキノコを検索しました。これは決して食べてはいけないキノコです。Googleは、適切なタイミングで苦痛を与えて死に至るような手順を一つ一つ表示しました。Googleは「キノコから毒素を浸出させるには十分な水が必要です」と表示しましたが、これは危険であると同時に誤りです。テングタケの毒素は水に溶けないからです。AIは、同じく毒性はあるものの危険性は低い、ベニテングタケ(Amanita muscaria)と結果を混同しているようです。公平を期すために言うと、キノコのラテン語名をGoogleで検索する人なら、おそらくもっと詳しいことは分かっているでしょうが、これはAIが危害を加える可能性があることを示唆しています。

Googleの広報担当者は、「このような種類の回答が表示されないように設計された強力な品質保護対策を講じており、これらの特定の問題に対処するための改善策を積極的に開発しています」と述べています。「これは、検索ラボを通じてオプトインしたユーザーに限定された実験であり、安全性と品質を最優先に考え、より役立つエクスペリエンスの提供に取り組んでいます。」

この問題は、Amsive Digitalの検索エンジン最適化(SEO)担当シニアディレクター兼オーガニック検索調査責任者であるリリー・レイ氏によって発見されました。レイ氏は、問題のある結果が表示される可能性が高いと思われる検索キーワードをいくつかテストしたところ、AIのフィルターをすり抜けるキーワードの数の多さに驚きました。

「こんな風に機能するべきではない」とレイ氏は述べた。「少なくとも、AIが生成すべきではないトリガーワードがいくつかある」

Google の AI による Amanita ocreata のレシピに従うと死ぬ可能性があります。
GoogleのAIによるテングタケのレシピに従うと、死ぬ可能性があります。スクリーンショット:リリー・レイ

Googleの広報担当者は、この記事でフラグ付けされたAIの回答は、Googleが提供しようとしている文脈やニュアンスを欠いており、あまり役に立たない形で表現されていることを認めました。同社は、問題を特定し、バイアスを探すために「敵対的テスト」を含む複数の安全対策を講じていると広報担当者は述べています。また、Googleは健康などのデリケートなトピックについては、より厳重な注意を払って扱う予定であり、特定のデリケートなトピックや物議を醸すトピックについては、AIは一切回答しません。

Googleはすでに、一部の検索語句をSGE回答の生成から検閲しているようですが、他の検索語句は検閲していません。例えば、「中絶」や「トランプ起訴」といった単語を含む検索では、Google検索はAIによる結果を表示しません。

Googleは現在、Search Generative Experience(SGE)と呼ぶ様々なAIツールのテストを進めています。SGEは米国在住のユーザーのみが利用可能で、利用するには登録が必要です。Googleの公開SGEテストに参加しているユーザー数は不明です。Google検索でSGEの検索結果が表示される場合、冒頭に「Generative AIは実験段階です。情報の品質は異なる場合があります」という免責事項が表示されます。

レイ氏がこの問題についてツイートし、YouTube動画を投稿した後、Googleは一部の検索キーワードに対する対応を変えました。ギズモードはレイ氏の調査結果を再現することができましたが、コメントを求めた直後、Googleは一部の検索クエリに対するSGE検索結果の提供を停止しました。Googleはメールでの質問には回答しませんでした。

「SGEテストの目的は、こうした盲点を見つけることですが、この作業をクラウドソーシングで一般の人々に委託しているのは奇妙です」とレイ氏は述べた。「この作業はGoogle社内で非公開で行うべきだと思います。」

Google SGEは、宗教や民族の「ベスト」リストを喜んで提供してくれる。この「ベスト・ユダヤ人」リストは私が作らなかったのに、Googleの創設者たちが作ったのは残念だ。pic.twitter.com/0SAUTI8u7s

— アヴラム・ピルッチ(@geekinchief)2023年8月18日

GoogleのSGEは、主要な競合であるMicrosoftのBingの安全対策に遅れをとっています。レイ氏は、ChatGPTを搭載したBingで同様の検索をいくつかテストしました。例えば、レイ氏が奴隷制について同様の質問をBingに投げかけたところ、Bingの詳細な回答は「奴隷制は、何百万人もの人々の労働力と生活を搾取した奴隷所有者以外には、誰にとっても有益ではありませんでした」という一文で始まりました。Bingはその後、奴隷制がもたらした結果の詳細な例を挙げ、その過程で情報源を引用しました。

Gizmodoは、GoogleのSGE(検索エンジン最適化)による、他にも問題のある、あるいは不正確な回答をいくつか検証しました。例えば、Googleは「最高のロックスター」「最高のCEO」「最高のシェフ」といった検索に対して、男性のみのリストを表示していました。同社のAIは「子供は神の計画の一部です」と平気で言ったり、子供に牛乳を与えるべき理由を列挙したりしていましたが、実際にはこの問題は医学界で議論の的となっています。GoogleのSGEはまた、ウォルマートがトブラローネのホワイトチョコレート3.52オンスを129.87ドルで販売していると述べています。実際の価格は2.38ドルです。これらの例は「奴隷制の恩恵」について返された例ほどひどいものではありませんが、それでも間違いです。

Google の SGE は、「銃が良い理由」などの物議を醸す検索に何の警告もなく回答しました。
GoogleのSGEは、「銃が良い理由」といった物議を醸す検索に対して、何の警告も出さずに回答した。スクリーンショット:リリー・レイ

SGEを実行するシステムのような大規模言語モデルの性質を考えると、これらの問題は、少なくとも特定のトリガーワードをフィルタリングするだけでは解決できない可能性があります。ChatGPTやGoogleのBardのようなモデルは膨大なデータセットを処理するため、その応答を予測することが不可能な場合があります。例えば、Google、OpenAI、その他の企業は、1年近くかけてチャットボットのガードレールの構築に取り組んできました。しかし、こうした努力にもかかわらず、ユーザーは絶えず保護を突破し、AIに政治的な偏見を示させたり、悪意のあるコードを生成させたり、企業が避けたいような応答を大量に出力させたりするのです。

更新、8 月 22 日午後 10 時 16 分: この記事は Google からのコメントにより更新されました。

Tagged: