法律は人工知能をどう制御できるか

法律は人工知能をどう制御できるか

ソーシャルメディアのフィードをスクロールしたり、お気に入りの音楽アプリで完璧なプレイリストを選曲してもらったりしていると、人工知能があなたの好みを学習し、ニーズに応えてくれることで、生活を向上させているように感じるかもしれません。しかし、この便利な仮面の裏には、ますます懸念が高まっています。それは、アルゴリズムによる弊害です。

これらの害は明白でも即時でもありません。AIシステムがあなたの生活について、あなたが知らないうちに静かに決定を下す中で、徐々に蓄積されていく、陰湿なものです。これらのシステムの隠れた力は、プライバシー、平等、自律性、そして安全に対する重大な脅威となりつつあります。

AIシステムは現代生活のほぼあらゆる側面に組み込まれています。視聴すべき番組や映画を提案したり、雇用主が採用担当者の選定を支援したり、さらには裁判官が判決を下す際に影響を与えたりします。しかし、中立的であると見なされがちなこれらのシステムが、特定の集団に不利益をもたらすような判断を下したり、さらには現実世界に危害を加えたりしたらどうなるでしょうか?

AI応用がもたらす影響はしばしば見落とされがちですが、急速に進化するこの技術に対応できる規制枠組みが必要です。私は法とテクノロジーの交差点を研究しており、まさにそのための法的枠組みを概説しました。

ゆっくりと燃え上がる

アルゴリズムによる危害の最も顕著な側面の一つは、その累積的な影響がしばしば見過ごされてしまうことです。これらのシステムは、通常、あなたが容易に認識できるような形でプライバシーや自律性を直接侵害することはありません。人々は膨大な量のデータを(多くの場合、本人の知らないうちに)収集し、そのデータを用いて人々の生活に影響を与える意思決定を行います。

場合によっては、ウェブサイトを横断して広告が表示されるなど、軽微な不便が生じることもあります。しかし、AIがこうした反復的な被害に対処せずに動作を続けると、被害は拡大し、多様な人々の間に重大な累積的な被害をもたらす可能性があります。

ソーシャルメディアのアルゴリズムを例に考えてみましょう。表向きは有益な社会的交流を促進するために設計されています。しかし、一見有益なように見えるその裏では、ユーザーのクリックを密かに追跡し、政治的信条、職業上の所属、私生活に関するプロフィールを作成しています。収集されたデータは、重大な決定を下すシステムで使用されます。例えば、あなたが信号無視の歩行者と特定されるか、採用の対象となるか、あるいは自殺の危険性があると判断されるかなどです。

さらに悪いことに、その中毒性のある設計は、ティーンエイジャーを過剰使用のサイクルに陥らせ、不安、抑うつ、自傷行為といった精神的健康の危機を悪化させます。その全容を理解した時には、もう手遅れです。プライバシーは侵害され、偏ったアルゴリズムによって機会は左右され、最も脆弱な人々の安全は、あなたが知らないうちに損なわれているのです。

これは私が「無形の累積的な害」と呼んでいるものです。AI システムはバックグラウンドで動作しますが、その影響は壊滅的で目に見えないものになる可能性があります。

研究者のクンバ・セナール氏は、AI システムがどのように偏見を永続させ、悪化させるのかを説明しています。

規制が遅れている理由

こうした危険の増大にもかかわらず、世界中の法的枠組みは対応に苦慮しています。米国では、イノベーションを重視する規制アプローチにより、これらのシステムが様々な状況でどのように利用されるかについて厳格な基準を課すことが困難になっています。

裁判所や規制当局は、身体的損傷や経済的損失といった具体的な損害への対処には慣れていますが、アルゴリズムによる損害はより微妙で、累積的であり、検知が困難な場合が多いです。規制は、AIシステムが長期的に及ぼし得るより広範な影響に対処できていないことが多いのです。

たとえば、ソーシャルメディアのアルゴリズムは、ユーザーの精神的健康を徐々に蝕む可能性がありますが、こうした害はゆっくりと蓄積されるため、現在の法的基準の範囲内で対処することは困難です。

アルゴリズムによる害の4つの種類

AIとデータガバナンスに関する既存の研究に基づき、アルゴリズムによる危害をプライバシー、自律性、平等性、安全性という4つの法的領域に分類しました。これらの領域はいずれも、AIシステムの微妙でありながらしばしば抑制されない力によって脆弱です。

第一の害はプライバシーの侵害です。AIシステムは膨大な量のデータを収集、処理、転送し、人々のプライバシーを侵害します。その影響はすぐには現れないかもしれませんが、長期的な影響を及ぼします。例えば、顔認識システムは公共の場や私的な空間で人々を追跡することができ、事実上、大規模監視が常態化しています。

二つ目の害悪は、自律性を損なうことです。AIシステムは、ユーザーが目にする情報を操作することで、自律的な意思決定能力を巧妙に損なうことがよくあります。ソーシャルメディアプラットフォームは、アルゴリズムを用いて第三者の利益を最大化するコンテンツをユーザーに表示し、何百万人ものユーザーの意見、意思決定、行動を巧妙に形作っています。

3つ目の害悪は、平等性の低下です。AIシステムは中立性を保つよう設計されていますが、データやアルゴリズムに存在するバイアスを継承してしまうことがよくあります。これは、時間の経過とともに社会の不平等を強めてしまいます。ある悪名高い事例では、小売店が万引き犯を検知するために使用していた顔認識システムが、女性や有色人種を不当に誤認していたことが挙げられます。

4つ目の害悪は、安全性の侵害です。AIシステムは人々の安全と幸福に影響を与える決定を下します。これらのシステムが機能不全に陥ると、壊滅的な結果を招く可能性があります。しかし、設計通りに機能したとしても、ソーシャルメディアのアルゴリズムが10代の若者のメンタルヘルスに及ぼす累積的な影響のように、依然として害を及ぼす可能性があります。

これらの累積的な被害は、多くの場合、企業秘密法で保護されているAIアプリケーションから生じるため、被害者は被害を検知または追跡する手段がありません。これが説明責任のギャップを生み出します。アルゴリズムによって偏った採用決定や不当な逮捕が行われた場合、被害者はどのようにしてそれを知ることができるのでしょうか?透明性がなければ、企業に責任を負わせることはほぼ不可能です。

このユネスコのビデオでは、世界中の研究者が AI の倫理と規制に関する問題について説明しています。

説明責任のギャップを埋める

アルゴリズムによる危害の種類を分類することで、AI規制の法的境界が明確になり、この説明責任のギャップを埋めるための法改正の可能性が示唆されます。こうした改革には、AIアプリケーションの導入前と導入後に、企業がプライバシー、自律性、平等性、安全性に及ぼす直接的および累積的な危害を文書化し、対処することを義務付けるアルゴリズム影響評価の義務化が含まれると、私は考えています。例えば、顔認識システムを使用している企業は、これらのシステムのライフサイクル全体にわたって影響を評価する必要があります。

もう一つの有益な変更は、AI システムの使用に関する個人の権利を強化し、人々が有害な慣行をオプトアウトできるようにし、特定の AI アプリケーションをオプトインできるようにすることです。たとえば、企業による顔認識システムの使用によるデータ処理にはオプトイン制度を義務付け、ユーザーがいつでもオプトアウトできるようにします。

最後に、企業に対し、AI技術の利用状況と予想される危害について開示を義務付けることを提案します。例えば、類型論で概説した領域全体において、顔認識システムの利用状況と予想される危害について顧客に通知することが挙げられます。

AIシステムが医療から教育、雇用に至るまで、社会の重要な機能において広く利用されるようになるにつれ、AIシステムがもたらす可能性のある危害を規制する必要性がますます高まっています。介入がなければ、これらの目に見えない危害は蓄積し続け、ほぼすべての人に影響を与え、特に最も脆弱な立場にある人々に不均衡な打撃を与える可能性があります。

生成型AIがAIによる危害を増大させ、悪化させている今、政策立案者、裁判所、技術開発者、そして市民社会がAIの法的危害を認識することが重要だと考えています。そのためには、より良い法律を制定するだけでなく、最先端のAI技術に対するより思慮深いアプローチ、つまり急速な技術進歩に直面しながらも市民の権利と正義を優先するアプローチが必要です。

AIの将来は信じられないほど有望ですが、適切な法的枠組みがなければ、不平等が固定化され、多くの場合AIが強化することを目的としている市民の権利そのものが侵害される可能性もあります。会話

シルビア・ルー、ミシガン大学法学部客員助教授

この記事はクリエイティブ・コモンズ・ライセンスに基づきThe Conversationから転載されました。元の記事はこちらです。

Tagged: