政府はAI監視を野放しにしたいと思っているようだ

政府はAI監視を野放しにしたいと思っているようだ

欧州連合(EU)のAI法は、テクノロジー倫理学者を喜ばせるものになりそうだ。今週、議会で大きな勝利を収めたこの画期的な人工知能法は、新技術がもたらす害悪に対処するための広範な規制枠組みの確立を目指している。現状のままでも、施行国においてAIの透明性、包摂性、そして消費者フレンドリーさを高めるために、かなりの努力が払われることになるだろう。気に入らないはずがないだろう。

AI法は、とりわけ、物議を醸すAIの利用、すなわち「高リスク」システムとみなされるものを禁止する。これには、職場や学校における感情認識システムや、中国で広く普及しているソーシャルスコアリングシステムなどが含まれる。同時に、この法律には、AIを用いてメディアコンテンツを制作する企業に対し、その利用について消費者に開示することを義務付ける安全策も盛り込まれている。

月曜日、EUの3部門の規制当局は同法に関して暫定合意に達した。これは、適切な言い方が見つからないが、合意が成立したことを意味する。

しかし、いくつかの政策上の勝利にもかかわらず、新法には大きな盲点があり、市民社会団体を少なからず不安にさせている。

アムネスティ・インターナショナルのアルゴリズム責任研究所所長ダミニ・サティジャ氏は、同組織と他の団体が過去数年間にわたりAI法の動向を注意深く監視してきたとし、新法には称賛すべき点がたくさんあるものの、それだけでは十分ではないと述べた。

実際、欧州議会がこの画期的な法律について発表したプレスリリースでは、「生体認証システム(RBI)」、つまり警察の大規模監視技術を「事前の司法認可と厳密に定義された犯罪リストに従い、法執行の目的で公衆がアクセス可能な場所で使用するための狭い例外が存在する」と認めている。この例外の一部として、この法律は警察がライブ顔認識技術を使用することを認めている。この技術は一般市民を監視しカタログ化できるため「オーウェル的」と評されている物議を醸すツールであり、「具体的かつ差し迫ったテロの脅威」を防ぐため、または犯罪の容疑者を特定または発見するために使用される場合に限る。

当然のことながら、アムネスティのような団体にとって、これはかなり大きな盲点のように思えます。批判的な立場からすると、法執行機関によるこれらの技術の利用が将来どのように拡大するかは予測できません。「歴史が示すように、国家安全保障上の例外は、政府が非常に広範な監視システムを導入するための手段に過ぎないことが多いのです」とサティジャ氏は言います。

サティジャ氏は、EUの法律が別の重要な分野で失敗していると指摘する。この法律は特定の種類の「高リスク」AIを禁止しているものの、それらのAIの他国への輸出を禁止していない。つまり、ほとんどのヨーロッパ人は特定の物議を醸す監視製品の影響を受けることはないものの、EU企業はそれらのツールを域外諸国に販売できることになる。アムネスティは、EU企業が中国政府にウイグル族の監視目的で、またイスラエルにパレスチナ人への支配を維持するために監視製品を販売していることを具体的に指摘している。

過去数週間にわたり、アムネスティのAIアドボカシー・アドバイザーであるメル・ハコビアン氏は、この法律の様々な側面を非難する声明を複数回発表してきた。法執行上の例外規定について、ハコビアン氏はEUが「27のEU加盟国におけるディストピア的なデジタル監視」を承認し、人工知能(AI)規制に関する世界的かつ壊滅的な前例を作った」と述べた。一方、輸出に対するこの法律の姿勢は、「EU議員による甚だしい二重基準を示している。彼らは一方ではEUを『安全で信頼性が高く倫理的な人工知能』の推進における世界的なリーダーとして位置づけながら、他方ではEU企業が権利を侵害するAIシステムを世界に販売するのを阻止しようとしない」とハコビアン氏は述べた。

他の団体も同様の批判を表明している。電子フロンティア財団の国際政策ディレクター、クリストフ・シュモン氏は、新法の一部は「有望」に見えるものの、法執行技術へのアプローチには懸念があると述べた。

「合意の最終版はまだ流動的ですが、基本的人権の保護に関する多くの有望な文言があるにもかかわらず、生体認証監視に関する新たな規制には多くの疑問が残ることは明らかです」とシュモン氏はメールで述べた。「政府による顔認識は、個人のプライバシー、表現の自由、そして社会正義に対する本質的な脅威であると、我々は常に主張してきました」と付け加えた。「AIに関する合意における法執行機関の例外規定は、公共の場での顔認識の禁止と予測型警察活動への制限を、まるでスイスチーズのように無意味なものに見せかけています。とはいえ、今後の交渉における技術的な詳細と、これらの規則が実際にどのように施行されるかに大きく左右されるでしょう。」

AI法の政策内容はまだ調整中であり、EUの複雑な立法プロセスにより、細則が多少変更される可能性も残されています。「正確な文言を確定するにはまだかなりの作業が必要で、細部にこそ真相が潜んでいる」とサティジャ氏は述べました。法案の最終版は1月中頃まで確定しない可能性が高いとのことです。

「AIの安全性」をめぐる議論は、それを追っている人々にとって複雑で、時に非常に厄介な問題となる。リーダーたちは、AIがもたらす危険性についてうんざりするほど語りながら、実際には大したことは何もしていないという傾向が強い。EUは、AIがもたらす多くの課題に取り組む法律を制定したことは称賛に値するが、制御不能に陥って人々に危害を加える可能性が最も高いAIの形態を無視することを選んだのは、皮肉にも思える。結局のところ、AIを活用した警察の監視ほどディストピア的な事態はそうそうない。人々がAIの「安全性」についてそれほど真剣に考えているのであれば、なぜこうしたユースケースを規制当局の最優先事項にしないのだろうか?

写真: 多田イメージズ
写真: Tada Images (Shutterstock)

今日の質問: 「マルチモーダル」とは何ですか?

今週初め、OpenAIの最新の大規模言語モデルであるGPT-4.5がオンラインに流出したという噂が広まり始めました。Xでこのリークについて投稿したDaniel Nyugen氏は、このLLMについて「言語、音声、視覚、動画、3Dといったマルチモーダル機能に加え、複雑な推論とクロスモーダル理解も備えている」と説明しました。このリークは実際には偽物であるように思われますが、AI業界が現在この「マルチモーダル」というテーマに夢中になっていることは事実です。私の理解する限り、マルチモーダルシステムとは、AIシステムがテキスト、画像、音声、動画など、様々なデータタイプを用いて構築され、システムが「人間のような」能力を発揮できるようにするシステムのことです。OpenAIが最近ChatGPTを統合したこと(これにより「話す」「聞く」「見る」ことが可能になった)は、マルチモーダルの良い例です。これは現在、AI 開発の切望された目標である AGI (人工汎用知能) への足がかりと考えられています。

今週のその他の見出し

スポーツ・イラストレイテッドのCEO、AI「ジャーナリスト」スキャンダルで解任。スポーツ・イラストレイテッドの元最高経営責任者ロス・レビンソン氏は、AIが偽の署名を使って複数の記事を生成したことを受け、親会社アリーナ・グループから解雇された。このスキャンダルは、報道機関が誰にも気づかれないようにAI生成コンテンツをウェブサイトにこっそりと掲載するという極めて非倫理的な判断を下す一連の事件の最新の事例に過ぎない。

マイクロソフトはAI分野で原子力発電に進出しようとしている。ビル​​・ゲイツが創業した凡庸なソフトウェア企業であるマイクロソフトは、AI業界の新星(OpenAI)と提携することで、今後数年間は企業文化における存在感を維持することに成功した。そして今、両社が進めている大規模なAI事業を推進するため、マイクロソフトは物議を醸すエネルギー源、原子力発電に目を向けようとしている。以前、マイクロソフトが「世界的な成長に向けた原子力エネルギーインフラのあらゆる側面に関するプロジェクトイニシアチブを主導する」人材を探していると報じられていた。そして今回、ウォール・ストリート・ジャーナル紙は、同社が複雑な原子力規制プロセスをAIで乗り切ろうとしていると報じている。このプロセスは長年かかることが知られており、マイクロソフトは自動化が解決策になると考えている。

教皇はAI独裁体制をかなり懸念している。フランシスコ教皇は現代世界の危険性について熟考を重ねており、今週はAI主導のテクノクラシーの脅威について言及した。教皇は、「テクノクラシー体制」が「我々の生存への脅威」となるのを阻止するための、拘束力のある国際条約の締結を求めた。厳しい言葉だ。彼がめちゃめちゃかっこよく見えたあのディープフェイク動画が、彼をかなり苦しめたのだろう。

Tagged: