
ここ数ヶ月、チャットボットや自動画像生成プログラムといったAIベースの生成ツールの普及に伴い、人工知能(AI)は世界的な議論の的となっています。著名なAI科学者や技術者たちは、こうした発展がもたらす仮説的な実存的リスクについて懸念を表明しています。
数十年にわたりAI分野で活動してきた私たちにとって、このAI人気の急上昇とそれに続くセンセーショナリズムは驚きでした。この記事の目的は、AIを敵視することではなく、AIがもたらす実存的脅威への懸念が過度に支配しているように見える世間の認識にバランスをもたらすことです。
より特異なリスクについて心配してはいけない、あるいは心配するべきではないと断言するのは、私たちの立場ではありません。機械学習に特化した研究を基盤とする組織である欧州学習知能システム研究所(ELLIS)のメンバーとして、特に政府機関がテクノロジー企業からの意見を参考に規制措置を検討している状況において、これらのリスクを適切な視点から捉えることが私たちの役割だと考えています。
AIとは何ですか?
AIは、1950年代に誕生したコンピュータサイエンスまたはエンジニアリングの一分野です。その目標は、人間の知能を参考に、知的な計算システムを構築することです。人間の知能が複雑かつ多様であるように、人工知能にも、知覚から推論、計画、意思決定に至るまで、人間の知能の側面を模倣することを目指す分野が数多く存在します。
能力のレベルに応じて、AI システムは次の 3 つのレベルに分けられます。
狭義AIまたは弱いAIとは、特定のタスクを実行したり、特定の問題を解決したりできるAIシステムを指し、今日では人間よりも優れたパフォーマンスを発揮することがよくあります。今日のすべてのAIシステムは狭義AIです。例としては、chatGPTのようなチャットボット、SiriやAlexaのような音声アシスタント、画像認識システム、レコメンデーションアルゴリズムなどが挙げられます。
汎用AIまたは強いAIとは、人間と同等の知能レベルを示すAIシステムを指します。これには、幅広いタスクを理解、学習、そして知識を適用する能力や、意識などの概念が組み込まれています。汎用AIは主に仮説的なものであり、現在までに実現されていません。
スーパーAIとは、あらゆるタスクにおいて人間の知能を凌駕する知能を持つAIシステムを指します。定義上、アリが人間の知能を理解できないのと同じように、人間はこの種の知能を理解することができません。スーパーAIは、汎用AIよりもさらに推測的な概念です。
AIは、教育から交通、医療、法律、製造業まで、あらゆる分野に応用できます。そのため、社会のあらゆる側面に根本的な変化をもたらしています。「狭義のAI」であっても、持続可能な経済成長を生み出し、気候変動、パンデミック、不平等といった21世紀の最も差し迫った課題への取り組みを支援する大きな可能性を秘めています。
今日のAIシステムがもたらす課題
過去 10 年間、ソーシャル メディアから労働市場まで、幅広い領域で AI ベースの意思決定システムが導入されてきましたが、これによっても、理解して対処する必要がある重大な社会的リスクと課題が生じています。
近年、高性能な大規模生成型学習済みトランスフォーマー(GPT)モデルの登場は、既存の課題の多くを悪化させると同時に、慎重な対応を要する新たな課題を生み出しています。これらのツールが世界中で数億人に導入された前例のない規模とスピードは、私たちの社会システムと規制システムにさらなる負担をかけています。
私たちが優先すべき極めて重要な課題がいくつかあります。
AI アルゴリズムによる人間の行動の操作は、誤った情報の拡散、世論の形成、民主的なプロセスの結果に壊滅的な社会的影響を及ぼす可能性があります。
アルゴリズムによる偏見と差別は、固定観念や差別のパターン、さらには抑圧を永続させるだけでなく、悪化させます。
両方のモデルとその使用法における透明性の欠如。
プライバシーの侵害、および作成者の同意や報酬を得ることなく大量のトレーニングデータを使用すること。
AI システムに注釈を付け、トレーニングし、修正する労働者の搾取。彼らの多くは開発途上国におり、低賃金で働いています。
これらの AI システムの構築に必要な大規模なデータ センターとニューラル ネットワークの膨大な二酸化炭素排出量。
現実世界に対応せずに信憑性のあるコンテンツ(画像、テキスト、音声、動画など)を作成する生成 AI システムの真実性の欠如。
間違いを犯したり、騙されたりする可能性がある、これらの大型モデルの脆弱性。
仕事や職業の置き換え。
今日の AI システムを制御する寡占者の手の中に権力が集中しています。
AIは本当に人類にとって実存的なリスクなのでしょうか?
残念ながら、こうした具体的なリスクに焦点を当てるのではなく、公の議論、特に最近の公開書簡では、主に AI の仮説的な実存的リスクに焦点を当てています。
実存的リスクとは、人類の存続を脅かす可能性のある事象またはシナリオを指し、その結果、人類文明に不可逆的な損害または破壊をもたらし、ひいては人類の絶滅につながる可能性があります。地球規模の壊滅的事象(小惑星の衝突やパンデミックなど)、居住可能な惑星の破壊(気候変動、森林破壊、水や清浄な空気などの重要な資源の枯渇による)、あるいは世界的な核戦争などが、実存的リスクの例です。
私たちの世界は確かに多くのリスクに直面しており、将来の展開を予測することは困難です。こうした不確実性に直面して、私たちは取り組みの優先順位を決定しなければなりません。制御不能な超知能という稀な可能性は、文脈の中で捉える必要があります。気候変動によって極めて脆弱な立場にある世界の36億人、1日1ドル未満で生活している約10億人、紛争の影響を受ける20億人といった状況も考慮する必要があります。これらは、今日、深刻な危険にさらされている生身の人間であり、決して超AIによって引き起こされる危険ではありません。
仮説的な実存的リスクに焦点を当てると、AI が現在もたらす深刻な課題 (文書化されている) から私たちの注意が逸れ、より広範な研究コミュニティのさまざまな視点が網羅されず、人々の不必要なパニックを引き起こすことになります。
これらの課題に必要な多様性、複雑性、そしてニュアンスを考慮し、規制を含む今日のAIの課題に対処するための具体的かつ協調的な実行可能な解決策を策定することで、社会は確実に恩恵を受けるでしょう。これらの課題に対処するには、社会で最も影響を受けるセクターの協力と関与、そして必要な技術およびガバナンスの専門知識が必要です。今こそ、野心と知恵をもって、そして協力して行動を起こす時です。
AI、チャットボット、そして機械学習の未来についてもっと知りたいですか?人工知能に関する当社の記事をぜひご覧ください。また、「最高の無料AIアートジェネレーター」や「OpenAIのChatGPTについて私たちが知っていることすべて」といったガイドもご覧ください。
この記事の著者は、欧州学習・インテリジェントシステム研究所 (ELLIS) 理事会のメンバーです。
ヌリア・オリバー、エリス・アリカンテ財団理事、アリカンテ大学、アリカンテ大学名誉教授。 Bernhard Schölkopf、マックス・プランク知能システム研究所、 Florence d'Alché-Buc 氏、テレコム パリ – 鉱山テレコム研究所教授。ナダ・ラブラック博士、ジョジェフ・ステファン研究所知識技術部門研究評議員、ノヴァ・ゴリツァ大学教授。ニコロ・チェサ・ビアンキ、ミラノ大学教授。ゼップ・ホッホライター氏、ヨハネス・ケプラー大学リンツ校、セルジュ・ベロンジー氏、コペンハーゲン大学教授
この記事はクリエイティブ・コモンズ・ライセンスに基づきThe Conversationから転載されました。元の記事はこちらです。