
今週、著名で評判の高い AI 研究者のグループが、22 語からなる声明に署名しました。
AIによる絶滅のリスクを軽減することは、パンデミックや核戦争などの他の社会規模のリスクと並んで、世界的な優先事項であるべきです。
AI教授として、私もリスク軽減に賛成であり、個人的にも取り組む用意があります。しかし、このような表現は必ずや不安を煽るものなので、発言者はより具体的に、懸念を明確に示すべきでしょう。
ブリタニカ百科事典の定義によると、絶滅とは「種の絶滅または消滅」です。私はこの声明に署名した多くの方々と面会しました。彼らはこの分野で最も評判が高く、確かな実績を持つ科学者であり、確かに善意から発言しているのでしょう。しかし、彼らはこのような極端な事態がどのように起こり得るのか、具体的なシナリオを全く示していません。
私たちがこのような立場に置かれたのは今回が初めてではありません。今年3月22日には、別の起業家や研究者たちが署名した嘆願書が提出され、AIの導入を6ヶ月間一時停止するよう要請しました。Future of Life Instituteのウェブサイトに掲載された嘆願書の中で、彼らは「広範な研究によって示され、トップクラスのAI研究機関も認めているように、社会と人類にとって深刻なリスクがある」という理由を挙げ、次のような修辞的な疑問を添えて要請しました。
機械が情報チャンネルをプロパガンダと虚偽で溢れさせるままにしておくべきでしょうか?やりがいのある仕事も含めて、あらゆる仕事を自動化すべきでしょうか?いずれ人間を凌駕し、賢く、時代遅れになり、人間に取って代わるかもしれない、非人間的な知性を開発すべきでしょうか?文明のコントロールを失うリスクを冒すべきでしょうか?
一般的な警戒感
確かに、この技術には多くの利点がある一方で、真剣に受け止めるべきリスクも伴います。しかし、前述のシナリオはどれも、絶滅への具体的な道筋を示しているようには見えません。つまり、私たちは漠然とした不安感しか抱かず、何の対策も講じられないということです。
最新の声明が掲載されたAI安全センターのウェブサイトでは、別のセクションで8つの広範なリスクカテゴリーが概説されている。これには、AIの「兵器化」、ニュースシステムの操作への利用、人間が最終的に自治を失ってしまう可能性、抑圧的な政権の促進などが含まれる。
兵器化を除けば、他の(依然として恐ろしい)リスクがどのようにして人類の絶滅につながるのかは不明であり、それを詳しく説明する責任はそれを主張する人々にかかっている。
もちろん、兵器化は現実的な懸念事項ですが、それが何を意味するのかについても明確にする必要があります。AI安全センターのウェブサイトによると、同センターの主な懸念は、AIシステムを用いた化学兵器の開発にあるようです。これは何としても阻止すべきですが、化学兵器は既に禁止されています。絶滅は非常に特殊な事象であり、非常に具体的な説明が必要です。
5月16日、米国上院の公聴会で、AIチャットボット「ChatGPT」を開発したOpenAIのCEO、サム・アルトマン氏は、最悪のシナリオを具体的に説明するよう2度にわたって求められました。そして、最終的にこう答えました。
私が最も恐れているのは、私たち、つまりこの分野、この技術、この業界が世界に重大な損害を与えることです。私たちが会社を設立したのは、そのような未来を回避するためです。この技術がうまくいかなくなったら、かなり悪い方向に進む可能性があると思います。
しかし、私はできる限りの注意を払うべきだと強く支持しており、過去 10 年間公にそう主張してきたが、特に 80 億個体の種の絶滅について議論する際には、バランス感覚を維持することが重要である。
AIは、真に回避しなければならない社会問題を引き起こす可能性があります。科学者として、私たちにはそれらを理解し、解決に向けて最善を尽くす義務があります。しかし、最初のステップは、それらの問題を具体的に定義し、記述することです。
AI、チャットボット、そして機械学習の未来についてもっと知りたいですか?人工知能に関する当社の記事をぜひご覧ください。また、「最高の無料AIアートジェネレーター」や「OpenAIのChatGPTについて私たちが知っていることすべて」といったガイドもご覧ください。
バース大学人工知能教授、ネロ・クリスティアニーニ
この記事はクリエイティブ・コモンズ・ライセンスに基づきThe Conversationから転載されました。元の記事はこちらです。