
人工知能(AI)の急速な進歩を受け、この分野の有力者からは研究の一時停止を求める声が上がり、AIによる人類絶滅の可能性が指摘され、政府による規制を求める声さえ上がっています。彼らの懸念の根底にあるのは、AIがあまりにも強力になり、人間が制御不能になるのではないかという懸念です。
しかし、私たちはもっと根本的な問題を見逃していないでしょうか?
究極的には、AIシステムは人間がより良く、より正確な意思決定を行うのを支援するべきです。しかし、ChatGPTのような大規模言語モデルのように、今日の最も優れた柔軟性の高いAIツールでさえ、逆の効果をもたらす可能性があります。
なぜでしょうか?それらには2つの重大な弱点があります。1つは、意思決定者が因果関係や不確実性を理解する上で役立たないことです。もう1つは、膨大な量のデータを収集するインセンティブを生み出し、プライバシー、法的・倫理的問題、そしてリスクに対する軽率な態度を助長する可能性があることです。
原因、結果、そして自信
ChatGPTをはじめとする「基礎モデル」は、ディープラーニングと呼ばれる手法を用いて膨大なデータセットを網羅し、言語パターンや画像と説明文の関連性など、データに含まれる要素間の関連性を特定します。そのため、ChatGPTは補間、つまり既知の値間のギャップを予測または埋める処理に優れています。
補間は創造とは異なります。複雑な環境で意思決定を行う上で必要な知識や洞察を生み出すものではありません。
しかし、これらのアプローチには膨大な量のデータが必要です。その結果、組織は膨大なデータリポジトリを構築したり、他の目的で収集された既存のデータセットを精査したりせざるを得なくなります。「ビッグデータ」の取り扱いは、セキュリティ、プライバシー、法的、倫理面で大きなリスクを伴います。
リスクの低い状況では、「データから予想される結果」に基づいた予測は非常に役立ちます。しかし、リスクが大きくなると、さらに2つの疑問に答える必要があります。
1 つ目は、世界がどのように機能するかについてです。「この結果を引き起こしているのは何ですか?」 2 つ目は、世界に関する私たちの知識についてです。「私たちはこれについてどの程度自信を持っていますか?」
ビッグデータから有用な情報へ
意外かもしれませんが、因果関係を推論するように設計されたAIシステムは「ビッグデータ」を必要としません。むしろ、有用な情報が必要です。情報の有用性は、目の前の問題、私たちが直面する意思決定、そしてそれらの意思決定の結果に私たちがどれだけの価値を置くかによって決まります。
米国の統計学者であり作家でもあるネイト・シルバーの言葉を言い換えると、収集するデータの量に関係なく、真実の量はほぼ一定であるということです。
では、解決策は何でしょうか?そのプロセスは、既存の知識のバリエーションを生み出すのではなく、私たちが本当に知らないことを教えてくれるAI技術の開発から始まります。
なぜでしょうか?それは、原因と結果を解明できる順序で、最小限の価値のある情報を特定して取得するのに役立つからです。
月面ロボット
このような知識構築 AI システムはすでに存在しています。
簡単な例として、「月の表面はどのように見えるか」という質問に答えるために月に送られたロボットを考えてみましょう。
ロボットの設計者は、ロボットが何を発見するかについての事前の「確信」と、その確信に対する「信頼度」の指標を与えることがあります。信頼度は確信と同じくらい重要です。なぜなら、それはロボットが何を知らないかを示す尺度だからです。
ロボットは着陸し、どちらの方向に進むべきかという決断に直面します。
ロボットの目標は月面についてできるだけ早く学習することであるため、学習効果が最大化される方向に進むべきです。これは、新たな知識がロボットの地形に関する不確実性をどのように軽減するか、あるいはロボットの知識に対する自信をどの程度高めるかによって測定できます。
ロボットは新たな場所へ移動し、センサーを使って観測結果を記録し、確信度とそれに伴う信頼度を更新します。こうして、月の表面について可能な限り効率的に学習します。
このようなロボットシステムは「アクティブSLAM」(Active Simultaneous Localisation and Mapping)と呼ばれ、20年以上前に初めて提案され、現在も活発な研究分野となっています。着実に知識を蓄積し、理解を更新するこのアプローチは、ベイズ最適化と呼ばれる統計手法に基づいています。
未知の風景をマッピングする
政府や産業界の意思決定者は、月面ロボットよりも複雑な問題に直面しますが、考え方は同じです。彼らの仕事は、未知の社会や経済の景観を探求し、地図を作成することです。
すべての子どもたちが学校で成長し、高校を卒業できるよう支援する政策を策定したいとします。そのためには、どのような行動を、いつ、どのような条件下で行えば、これらの目標を達成できるのかを示す概念図が必要です。
ロボットの原理を使用して、最初の質問を作成します。「どの介入が子供たちに最も役立つでしょうか?」
次に、既存の知識を用いて概念マップの草稿を作成します。また、その知識に対する信頼度を測る尺度も必要です。
次に、様々な情報源を組み込んだモデルを開発します。これらの情報源はロボットセンサーからではなく、コミュニティ、実体験、そして記録されたデータから得られる有用な情報です。
その後、コミュニティと利害関係者の好みを反映した分析に基づいて、「どのようなアクションをどのような条件下で実行する必要があるか」を決定します。
最後に、話し合い、学び、信念を更新し、そのプロセスを繰り返します。
学びながら進む
これは「学習しながら進む」アプローチです。新しい情報が手に入ると、事前に設定された基準を最大化するために新たな行動が選択されます。
AIが役立つのは、私たちが知らない情報を定量化するアルゴリズムを用いて、どの情報が最も価値があるかを特定することです。自動化システムは、人間では困難な速度や場所でも、そうした情報を収集・保存することができます。
このようなAIシステムは、いわゆるベイズ決定理論的枠組みを適用しています。そのモデルは説明可能で透明性が高く、明確な仮定に基づいて構築されています。数学的に厳密であり、保証を提供できます。
これらは、原因経路を推定し、最適なタイミングで最適な介入を行うために設計されています。また、影響を受けるコミュニティが共同で設計・実施することで、人間的価値も組み込まれています。
潜在的に危険なAIシステムの使用を規制するための法律改正と新たなルールの制定は確かに必要です。しかし、そもそも適切なツールを選ぶことも同様に重要です。
AI、チャットボット、そして機械学習の未来についてもっと知りたいですか?人工知能に関する当社の記事をぜひご覧ください。また、「最高の無料AIアートジェネレーター」や「OpenAIのChatGPTについて私たちが知っていることすべて」といったガイドもご覧ください。
サリー・クリップス(シドニー工科大学ヒューマンテクノロジー研究所技術部長、シドニー工科大学数学・統計学教授)、アレックス・フィッシャー(オーストラリア国立大学名誉フェロー)、エドワード・サントウ(シドニー工科大学ヒューマンテクノロジー研究所教授兼共同所長)、ハディ・モハセル・アフシャール(シドニー工科大学主任研究科学者)、ニコラス・デイビス(シドニー工科大学新興技術産業教授兼ヒューマンテクノロジー研究所共同所長)
この記事はクリエイティブ・コモンズ・ライセンスに基づきThe Conversationから転載されました。元の記事はこちらです。