ヘンリー・キッシンジャー、AIが人間の意識を根本的に変えると警告

ヘンリー・キッシンジャー、AIが人間の意識を根本的に変えると警告

本日ワシントンD.C.で行われた講演で、ヘンリー・キッシンジャー元米国務長官は、AIが人間の意識を根本的に変える可能性を確信していると述べた。それは自己認識や戦略的意思決定の変化も含む。また、AI開発者が自らの創造物の影響を十分に検討していないと強く批判した。

現在96歳のキッシンジャー氏は、ワシントンD.C.のリエゾン・ワシントン・ホテルで開催中の「イノベーションによる力の強化」会議に出席した聴衆に演説した。この会議は、国家安全保障に関連した米国におけるAIの将来を評価するために議会によって設置された国家安全保障委員会の人工知能(AI)に関する委員会によって運営されている。

ベトナム戦争中、リチャード・ニクソン大統領の下で活躍したキッシンジャーは、物議を醸す人物であり、有罪判決を受けていない戦争犯罪人であると主張する者も少なくありません。彼が会議で講演を行い、晩年を冷たい牢獄で過ごさないことは、一部の観察者にとって当然ながら不快感を抱かせるものです。

2018年にトランプ政権で大統領補佐官および国家安全保障担当副大統領補佐官を務めた司会者のナディア・シャドロー氏は、キッシンジャー氏に、強力で軍事化された人工知能に関する見解と、それが世界の安全保障と戦略的意思決定にどのような影響を与えるかについて質問した。

「私は技術者として見ているのではない」とキッシンジャーは言った。「私はAIの歴史的、哲学的、戦略的な側面に関心があり、AIとその周辺分野が啓蒙主義のように人間の意識に変化をもたらすと確信している」と彼は言い、「それが私がここにいる理由だ」と付け加えた。彼が18世紀のヨーロッパ啓蒙主義に言及したのは、この重要な歴史的時期に起こったパラダイム的な知的転換を指しており、科学、合理主義、そしてヒューマニズムが宗教的・信仰に基づく思考を大きく置き換えたのだ。 

キッシンジャーはこの点について詳しく述べなかったが、AIが十分に高度な洗練度に達したときに私たちの考え方に一種の哲学的あるいは実存的な変化が起こることを言っていたのかもしれない。それは、私たち自身や機械との関わり方を必ずしも良い方向とは限らない、取り返しのつかないほど変えるであろう発展である。

画像:
キッシンジャー氏と司会者のナディア・シャドロー氏。画像: (DVD)

キッシンジャー氏は「AIに反対しているわけではない」とし、AIは「私たちを救う」可能性もあると述べたが、詳細については触れなかった。

元国家安全保障問題担当大統領補佐官は、最近大学生たちにAIの危険性について講演し、「君たちはAIの応用に取り組み、私はその影響について考える」と話したと述べた。同氏は、コンピューター科学者たちは、人間には説明も理解もできない「自動行動に人類が取り囲まれた場合」、それが何を意味するのかを十分に解明していないと述べた。これはAI研究者がブラックボックス問題と呼ぶ難問だ。

人工知能は「戦略と戦争の本質を変えることは間違いない」と彼は述べたが、多くの利害関係者や意思決定者は依然としてそれを「新たな技術的転換」として扱っている。彼らはまだ、AIが「世界の哲学的認識に変化をもたらすはず」であり、「人間の認識に根本的な影響を与える」ことを理解していない。

https://gizmodo.com/ai-could-dramatically-increase-risk-of-nuclear-war-by-2-1825497698

キッシンジャーが表明した最大の懸念は、軍事化されたAIが外交を崩壊させる可能性だった。AIの秘密性と短命性は、通常兵器や核兵器とは異なり、国家主体が明白な脅威として簡単に「提示」できるものではないとキッシンジャーは述べた。戦略分野において、「我々は並外れた能力を想像できる領域に足を踏み入れつつある」ため、「敵はしばらくの間、脅威がどこから来たのか分からないかもしれない」。

実際、こうした混乱は戦場で不必要な混乱を引き起こしたり、国が攻撃元を誤認したりする可能性があります。さらに恐ろしいことに、ランド研究所の2018年の報告書は、AIが最終的に核戦争のリスクを高める可能性があると警告しています。これは、私たちが「軍備管理の要素を再考」し、「軍備管理の概念が未来の世界にどう適用されるかさえも再考」しなければならないことを意味するとキッシンジャーは述べています。

キッシンジャー氏は、GoogleのDeepMindの研究、特にAlphaGoとAlphaZeroの開発に「ある種、夢中になっている」と述べた。これらはチェスと囲碁の世界トッププレイヤーを倒せる人工知能システムだ。AlphaGoが「歴史上、人類が開発したことのないチェスの形態」を学習した方法、そしてこのAlphaGoと対戦した既存のチェスコンピューターが「無防備」だったことに、キッシンジャー氏は驚嘆した。彼は、これが物事の大局において何を意味するのかを理解する必要があり、私たちが真に理解していないものを生み出しているという懸念を研究すべきだと述べた。「私たちは社会として、まだこのことに気づいていません」と彼は言った。

キッシンジャーは、AIアルゴリズムが最終的には軍の意思決定プロセスの一部になると確信しているが、戦略立案者は「これらのアルゴリズムにどれだけの信頼性を与えることができるかを確認するために、戦争ゲームや実際の状況で自らをテストする必要があり、同時にその結果についても熟考する必要がある」

キッシンジャー氏は、状況は最終的には第一次世界大戦の勃発に似たものになるかもしれないと述べた。第一次世界大戦では、一連の論理的手順が無数の予期せぬ望ましくない結果をもたらした。

「テクノロジーがもたらす影響を見抜けなければ…予測不可能な結果に対処する感情的な能力も含めて…戦略面で失敗するだろう」とキッシンジャーは述べた。相手側の考えが定かでない状況で、国家主体がどのように外交を展開できるのか、あるいは「たとえそうしたいと思っても」相手を安心させることさえできるのかさえ不透明だと彼は述べた。「この問題は、非常に重要な考察対象だ。強力な兵器を開発する中で…それについてどのように語り、どのように使用を抑制していくのか?」

彼はさらにこう付け加えた。「武器はある意味でパートナーとなる。もし特定の任務のために設計されたなら、特定の条件下でどのように改造できるだろうか?こうした疑問に答える必要がある」。キッシンジャー氏はAIは「未来の哲学的課題」になるだろうと述べた。なぜなら、我々は「かつて想像もできなかった、そして限界があまりにも大きい」汎用知能を持つ物体とパートナーを組むことになるからだ。

怖い男からの怖い言葉。未来は非常に不安定になりそうだ。

Tagged: