500人を超える技術者、エンジニア、AI倫理学者からなる幅広い連合が、AIラボに対し、Open AIが最近リリースしたGPT-4よりも強力なAIシステムのトレーニングを少なくとも6ヶ月間即時停止するよう求める公開書簡に署名した。Appleの共同創業者スティーブ・ウォズニアック氏や「Based AI」開発者のイーロン・マスク氏を含む署名者は、十分な安全対策なしにこれらの高度な新しいAIモデルが開発を進められた場合、「社会と人類に深刻なリスク」をもたらす可能性があると警告している。企業が開発停止を拒否した場合、政府は強力な手段を講じ、強制的なモラトリアム(一時停止)を制定すべきだと書簡は述べている。
「高度なAIは地球上の生命の歴史に大きな変化をもたらす可能性があり、相応の注意とリソースを投じて計画・管理されるべきです」と書簡には記されている。「残念ながら、このレベルの計画と管理は実現されていません。ここ数ヶ月、AI研究室は、誰も――たとえその創造者でさえ――理解、予測、そして確実に制御できない、かつてないほど強力なデジタルマインドを開発・展開するという、制御不能な競争に巻き込まれているにもかかわらずです。」
この書簡は、人類にとって想定される大規模なリスクからテクノロジーを遠ざけることに注力していると自称する組織、フューチャー・オブ・ライフ研究所によって発表された。主要なリスクグループには、AI、バイオテクノロジー、核兵器、気候変動などが含まれる。同研究所がAIシステムについて懸念しているのは、これらのシステムが「一般的なタスクにおいて人間と互角になりつつある」という仮定に基づいている。書簡は、このレベルの高度化は、悪意のある者がAIを利用してインターネットにプロパガンダを氾濫させ、かつて安定していた仕事を不要にし、「人間以外の知性」を開発し、人間を凌駕したり「置き換える」ような近い将来をもたらす可能性があると主張している。
この書簡は、新興AIシステムには現状、「合理的な疑いの余地なく」安全性を保証する有効な安全対策や管理策が欠如していると主張している。この問題を解決するため、AIラボは今回の一時停止措置を利用して、共通の安全プロトコルを導入・合意し、外部専門家による独立したレビューによるシステムの監査を確実に実施すべきだと述べている。署名者の一人は、Gizmodoに対し、レビューの実際の内容についてはまだ「議論の余地がある」と語った。今回の一時停止措置と追加された安全対策は、すべてのAI開発に適用されるわけではない。代わりに、Open AIのGPT 4よりも強力とされる「創発機能を備えたブラックボックスモデル」に焦点を当てる。重要なのは、Open AIが開発中のGPT 5も含まれるという点だ。
「AIの研究開発は、今日の強力で最先端のシステムをより正確、安全、解釈可能、透明性、堅牢性、整合性、信頼性、忠実性を備えたものにすることに再び重点を置くべきだ」と書簡には書かれている。
AI懐疑論者は脅威の大きさについて意見が分かれている
ギズモードは、バークレー大学のコンピュータサイエンス教授であり、『人工知能:現代的アプローチ』の共著者でもあるスチュアート・ラッセル氏に話を聞いた。この書簡の著名な署名者の一人でもあるラッセル氏は、民主主義への脅威と偽情報の兵器化に関する懸念は、GPT-4、GoogleのBard、そしてその他の利用可能な大規模言語モデルに既に当てはまると述べた。より懸念されるAIの悪夢は、次世代のツールから生じる可能性があるとラッセル氏は述べた。
「最大の懸念は、テクノロジー企業間の奔放な競争から生じています。彼らは既に、リスクを顧みず、より強力なシステムの開発を止めないと明言しています」とラッセル氏はギズモードのインタビューで語った。「ここで彼らが言及しているリスクとは、人間が世界と私たち自身の未来をコントロールできなくなることであり、それはゴリラが人間のせいで自らの未来をコントロールできなくなったのと同じです。」
ラッセル氏は、AIツールの開発者自身も、その実際の仕組みを全く理解していないと主張している。他の著名なAI研究者はこの説明を否定しているものの、ラッセル氏によれば、これらのモデルは基本的に「1兆個のパラメータを持つ白紙の状態」だという。
「私たちが知っているのはそれだけです」とラッセル氏は述べた。「例えば、彼らが独自の内的目標を立て、それを長期的な計画を通して追求する能力を持っているかどうかは分かりません。」ラッセル氏は、Open AIが最近発表したGPT-4が「汎用人工知能の閃光」を示したと主張する、マイクロソフトの研究者による最近の研究論文を指摘した。
ギズモードの取材に応じた他のAI専門家たちは、Future of Life Instituteの公開書簡に名前を連ねなかったものの、批判ははるかに保守的だった。専門家たちはAIの潜在的な悪用に対する懸念を共有しつつも、AIシステムを人間の知能と比較しようとする試みがますます一般的になっていることに反発を示した。彼らは、汎用人工知能(AGI)の話は逆効果になる可能性があると指摘した。OpenAIのChatGPTは、ビジネススクールの授業と主要な医師免許試験に合格したが、同時に基本的な算数には苦労している。
「多くの人がAIの能力について懸念しているのは当然のことだと思います。これらのシステムを社会に対して説明責任を持たせたいのであれば、関与する主要なプレーヤーを規制する必要があります」と、AI Now Instituteのマネージングディレクター、サラ・マイヤーズ・ウェスト氏はGizmodoに語った。「しかし、Chat GPTやその他の類似の大規模言語モデルについて理解する上で重要なのは、それらが人間の言語の理解の深さを実際に反映しているのではなく、その形式を模倣しているということです。」
マイヤーズ氏はAIの悪用について懸念を抱いているものの、AI技術に関する現在の誇大宣伝とその能力の過大評価によって、より差し迫った懸念から注意が逸らされるのではないかと懸念している。
ラッセル氏はこうした批判の一部を認めたが、新しいモデルが何を実現できるかが未知数であることは警戒すべき十分な理由だと述べた。
「法学修士課程は人間をより良く模倣するために内的目標を設定するのでしょうか?」とラッセルは問いかけた。「もしそうなら、それは一体何なのでしょうか? 私たちには全く分かりません。全く分かりません。ただ、まだそうなっていないことを願うばかりです。」

AIに対する真の懸念を抱くには、必ずしも『ターミネーター』の現実世界版が間もなく登場すると信じ込む必要はありません。Gizmodoが取材した複数のAI研究者は、特にAI技術が膨大なデータに依存し、その驚異的なスピードを考えると、AI分野における法律や有効な規制の欠如について真摯な懸念を表明しました。GPT-4のような著名な大規模言語モデルは、モデル開発に使用する学習データの種類に関する透明性が欠如しており、独立した監査が困難になっています。性別や人種に関するバイアスは、既に比較的高度なAIモデルで広く感じられており、さらに増幅される危険性があります。
LLMモデルが嘘をつくという厄介な問題もあります。これは「AI幻覚」と呼ばれることもあります。今のところ、こうした幻覚は主に面白いオチですが、検索やその他の情報収集手段としてこの技術を利用するユーザーが増えるにつれて、状況は変わる可能性があります。この技術は客観性があると認識されているため、実際にはAIの回答がかなり正確な推測に近いにもかかわらず、ユーザーはそれを事実だと思い込んでしまう可能性が高くなります。真実や現実を大規模に無視するこの行為は、既に乱雑な情報エコシステムをさらに分かりにくくする可能性があります。
「これらは、もっともらしく聞こえるものの、真実との関連性を全く持たないテキストを(少なくとも現時点ではエンドユーザーにとっては迅速かつ安価に)作成するためのプログラムです」と、ワシントン大学の言語学教授エミリー・M・ベンダー氏はギズモードに語った。「これは、私たちの情報エコシステムがあっという間に非情報で溢れかえり、信頼できる情報源を見つけるのが難しくなり、それらを信頼することがより困難になる可能性があることを意味します。」
AIを取り巻くあらゆる誇大宣伝にもかかわらず、一般大衆は依然としてAIの今後の動向について、せいぜい不確かな状態にあるようだ。モンマス大学が最近行った世論調査では、AIが社会にもたらす害よりも利益の方が多いと考える米国成人はわずか9%だった。さらに56%は、高度なAIが溢れる世界は人間の生活の質を全体的に損なうと考えると回答した。
「AIを技術的、経済的な問題としてだけでなく、公衆衛生の問題としても捉えている人もいるようだ」とモンマス大学世論調査研究所の世論調査ディレクター、パトリック・マレー氏は声明で述べた。
専門家と警鐘を鳴らす人々は規制を求める声で一致した
フューチャー・オブ・ライフ研究所の署名者と、より慎重なAI懐疑論者が一致していたのは、立法者がAIに関する新たなルールを早急に策定する必要があるという点だった。書簡は政策立案者に対し、「堅牢なAIガバナンスシステムの開発を劇的に加速させる」よう求め、AIに特化した規制当局や、強力なAIツールの監視と追跡体制の構築も求めた。さらに、書簡は、ユーザーが合成コンテンツと本物コンテンツを素早く見分けられるよう、透かしツールの導入も求めた。
「政策介入がない限り、AIの進むべき道は国民に説明責任がなく、こうしたツールを開発し、実際に実験するリソースを持つ少数の企業によって決定される世界が到来することになる」とAI Now Instituteのウェスト氏はGizmodoに語った。