AIには「フリーライダー」問題が

AIには「フリーライダー」問題が
写真: fizkes
写真: fizkes (Shutterstock)

2023年3月22日、イーロン・マスクやAppleの共同創業者スティーブ・ウォズニアックを含む数千人の研究者やテクノロジーリーダーが、人工知能(AI)開発競争の減速を求める公開書簡を発表しました。具体的には、今日の言語生成AIシステムの中で最も洗練された世代であるOpenAIのGPT-4よりも強力な技術の訓練を、研究室が少なくとも6ヶ月間停止することを推奨しました。

AIがもたらすリスクについて警鐘を鳴らすのは今に始まったことではありません。学者たちは何十年も前から、超知能機械のリスクについて警告を発してきました。経済的に価値のあるタスクにおいて人間に匹敵、あるいは凌駕する汎用人工知能、つまり自律型AIシステムの構築可能性については、いまだにコンセンサスが得られていません。しかしながら、顔認識技術における人種的偏見から、誤情報や学生の不正行為の脅威の増大に至るまで、現在のAIシステムが既に多くの危険をもたらしていることは明らかです。

書簡は産業界と政策立案者に協力を求めていますが、現状ではそのような一時停止を強制するメカニズムは存在しません。テクノロジー倫理を研究する哲学者として、私はAI研究が「フリーライダー問題」を典型的に示していることに気づきました。この事実は、社会がそのリスクにどのように対応するかの指針となるべきであり、善意だけでは十分ではないと主張します。

無料で乗る

フリーライドは、哲学者が「集団行動問題」と呼ぶものの一般的な帰結です。集団として見ると、特定の行動をとることで全員が利益を得られるものの、個人として見ると、各メンバーはそれをしないことで利益を得るという状況です。

このような問題は、公共財に関係するケースが最も一般的です。例えば、ある都市の住民が地下鉄システムの資金調達に共同の利益を持っているとします。この場合、住民一人ひとりが税金や運賃という形で少額ずつ支払う必要があります。誰もが恩恵を受けますが、各個人にとって最善の利益は、お金を節約し、不当な負担を避けることです。結局のところ、他のほとんどの人が料金を払えば、彼らは地下鉄を楽しめるのです。

だからこそ「フリーライダー」問題が生まれる。一部の人は正当な負担を果たさないにもかかわらず、「ただ乗り」してしまうのだ。地下鉄の場合、文字通りだ。しかし、もし全員が料金を支払わなければ、誰も恩恵を受けられない。

哲学者は、「フリーライド」は非倫理的だと主張する傾向があります。なぜなら、フリーライダーは他者が正当な負担を負っていることに報いようとしないからです。多くの哲学者はまた、フリーライダーは社会契約、つまり社会を統治する集団的に合意された協力原則における責任を果たしていないとも主張しています。言い換えれば、彼らは社会に貢献する一員としての義務を果たしていないのです。

一時停止しますか、それとも先に進みますか?

地下鉄と同様、AI は、医療データを分析して患者を診断することから、軍隊における高リスクの仕事を代替すること、鉱山の安全性を向上させることまで、あらゆるタスクを人間のオペレーターよりもはるかに効率的に完了する可能性を秘めていることから、公共財です。

しかし、AIの利点と危険性は、AIを個人的に利用していない人にも、すべての人に影響を与えます。AIのリスクを軽減するためには、AI業界の研究が慎重かつ安全に、適切な監督と透明性をもって行われることに、誰もが関心を寄せる必要があります。例えば、誤情報やフェイクニュースは既に民主主義にとって深刻な脅威となっていますが、AIは人間よりも迅速かつ効果的に「フェイクニュース」を拡散することで、この問題を悪化させる可能性があります。

しかし、たとえ一部のテクノロジー企業が自主的に実験を中止したとしても、他の企業は自社のAI研究を継続することで金銭的な利益を得ることができ、AI開発競争で優位に立つことができるでしょう。さらに、AI実験を自主的に一時停止することで、他の企業は社会全体と共に、より安全で透明性の高いAI開発の恩恵を享受し、最終的には利益を享受できることになります。

OpenAIのCEO、サム・アルトマン氏は、同社がチャットボットシステム「ChatGPT」がもたらすリスクを懸念していることを認めた。「この点については慎重にならなければなりません」と、ABCニュースのインタビューでアルトマン氏は述べ、AIが誤情報を生み出す可能性について言及した。「私たちがこの点を少し恐れていることを、人々は喜ぶべきだと思います」

OpenAIは2023年4月5日に発表した書簡の中で、強力なAIシステムには徹底的な安全性評価を確保するための規制が必要だと考えており、「そうした規制の最適な形態について政府と積極的に協議していく」と述べた。しかしながら、OpenAIはGPT-4の段階的な展開を継続しており、業界全体も高度なAIの開発と訓練を続けている。

規制の機が熟している

集団行動の問題に関する数十年にわたる社会科学研究は、フリーライダーを回避するために信頼と善意だけでは不十分な場合、規制が唯一の選択肢となることが多いことを示しています。自発的な遵守こそがフリーライダーを生み出す主要な要因であり、政府の行動は時としてそれを未然に防ぐ手段となります。

さらに、こうした規制は執行可能でなければなりません。結局のところ、地下鉄を利用しようと思っている人は、罰則の脅威がなければ運賃を支払おうとしない可能性が高いからです。

今日世界で最も深刻なフリーライダー問題の一つである気候変動を例に挙げてみましょう。地球という地球にとって、居住可能な環境を維持することは極めて重要な利益です。しかし、フリーライダーを許容するシステムでは、どの国にとっても、より環境に優しいガイドラインを実際に遵守するインセンティブは極めて低いのです。

現在、気候変動に関する最も包括的な国際協定であるパリ協定は自主的なものであり、国連にはそれを強制する権限がありません。例えば、欧州連合(EU)と中国が自主的に排出量を制限したとしても、米国とインドは排出を続けながら、二酸化炭素削減に「ただ乗り」する可能性があります。

世界的な課題

同様に、フリーライダー問題はAI開発を規制すべきという議論の根拠となっています。実際、気候変動は特にこの問題とよく似ています。AIがもたらすリスクも温室効果ガスの排出も、プログラムの原産国に限定されるわけではないからです。

さらに、より高度なAIの開発競争は国際的なものです。たとえ米国がAI研究開発に対する連邦規制を導入したとしても、中国と日本はそれを無視して自国のAIプログラムを継続できるでしょう。

AIの効果的な規制と執行には、気候変動と同様に、世界的な共同行動と協力が不可欠です。米国では、厳格な執行には、研究に対する連邦政府の監督と、責任ある開発を確保するために、規制監督委員会、内部告発者保護、あるいは極端な場合には、研究室や研究施設の閉鎖や刑事訴追といった手段を通じて、高額の罰金を科したり、規制に違反するAI実験を停止したりする権限が必要です。

しかし、強制力がなければ、フリーライダーが生まれ、フリーライダーがいるということは、AI の脅威がすぐには弱まらないことを意味します。

AI、チャットボット、そして機械学習の未来についてもっと知りたいですか?人工知能に関する当社の記事をぜひご覧ください。また、「最高の無料AIアートジェネレーター」や「OpenAIのChatGPTについて私たちが知っていることすべて」といったガイドもご覧ください。

ティム・ジュブシクはクレムソン大学の哲学客員助教授です。この記事はクリエイティブ・コモンズのライセンスに基づきThe Conversationから転載されました。原文はこちらです。

Tagged: