AI規制はどのようなものになるでしょうか?

AI規制はどのようなものになるでしょうか?
写真: ウィン・マクナミー
写真:ウィン・マクナミー(ゲッティイメージズ)

まとめ:

AIを規制する新たな連邦機関は有益に思えるが、テクノロジー業界から過度に影響を受ける可能性がある。代わりに、議会が説明責任を法制化できる。

政府は、企業に高度な AI 技術のリリースを認可する代わりに、監査人に認可を与え、企業に機関審査委員会の設置を促すこともできる。

政府はテクノロジーの独占を抑制することに大きな成功を収めていないが、情報開示の要件やデータプライバシー法は企業の力を抑制するのに役立つ可能性がある。

OpenAIのCEO、サム・アルトマン氏は、2023年5月16日の上院証言において、議員に対しAI規制を検討するよう促した。この提言は、議会にとって今後どのような対応が求められるのかという問題を提起する。アルトマン氏が提案した解決策、すなわちAI規制機関の設立と企業へのライセンス取得義務化は興味深い。しかし、同じ委員会の他の専門家が提案した、少なくとも同等に重要な点は、学習データの透明性確保とAI関連リスクに対する明確な枠組みの確立である。

言及されなかったもう1つの点は、大規模なAIモデルの構築の経済性を考慮すると、業界では新しいタイプの技術独占の出現を目撃している可能性があるという点だ。

ソーシャルメディアと人工知能を研究する研究者として、アルトマン氏の提言は重要な問題を浮き彫りにしているものの、それ自体では答えは出ていないと考えています。規制は有益ですが、どのような形で実現するのでしょうか?ライセンス制度も理にかなっていますが、誰にとって必要なのでしょうか?AI業界を規制するあらゆる取り組みは、企業の経済力と政治的影響力を考慮する必要があります。

AIを規制する機関?

世界中の立法者や政策立案者は、アルトマン氏の証言で提起された問題のいくつかに既に対処し始めています。欧州連合(EU)のAI法は、AIアプリケーションを3つのリスクカテゴリー(容認できない、高リスク、低リスクまたは最小限のリスク)に分類するリスクモデルに基づいています。この分類は、政府によるソーシャルスコアリングツールや採用自動化ツールが、例えばスパムフィルターにおけるAIの利用とは異なるリスクをもたらすことを認識しています。

米国国立標準技術研究所も同様に、米国商工会議所や米国科学者連盟、その他のビジネスおよび専門家協会、テクノロジー企業、シンクタンクなど、複数の関係者からの広範な意見を取り入れて作成された AI リスク管理フレームワークを持っています。

雇用機会均等委員会や連邦取引委員会などの連邦機関は、AIに内在するリスクの一部に関するガイドラインを既に発行しています。消費者製品安全委員会などの機関にも、果たすべき役割があります。

議会は、規制対象となるテクノロジー業界からリスクを負うリスクを負う新たな機関を設立するのではなく、NISTのリスク管理フレームワークの官民における導入を支援し、アルゴリズム説明責任法(Algorithmic Accountability Act)などの法案を可決することができます。これは、サーベンス・オクスリー法などの規制が企業の報告義務を変革したのと同様に、説明責任を課す効果をもたらすでしょう。議会はまた、データプライバシーに関する包括的な法律を制定することもできます。

AIの規制には、学界、産業界、政策専門家、そして国際機関の連携が不可欠です。専門家はこのアプローチを、欧州原子核研究機構(CERN)や気候変動に関する政府間パネル(IPCC)といった国際機関に例えています。インターネットは、非営利団体、市民社会、産業界、政策立案者などが参加する非政府組織(NGO)によって管理されてきました。例えば、インターネット番号割当機関(ICNAN)や世界電気通信標準化機構(WTO)などが挙げられます。これらの例は、今日の産業界や政策立案者にとって模範となるものです。

認知科学者であり AI 開発者でもあるゲイリー・マーカス氏が AI を規制する必要性について説明します。

企業ではなく監査人にライセンスを与える

OpenAIのアルトマン氏は、企業が人工知能技術を一般公開するためのライセンスを取得する可能性を示唆したが、これは汎用人工知能(AGP)を指していると明確にした。つまり、人間のような知能を持ち、人類に脅威となる可能性のある将来のAIシステムを指す。これは、原子力発電のような潜在的に危険な技術を扱うためのライセンスを企業が取得するのと似ている。しかし、そのような未来のシナリオが現実のものとなるずっと前から、ライセンス制度は重要な役割を果たす可能性がある。

アルゴリズム監査には、資格認定、実務基準、そして広範な研修が必要となる。説明責任を課すには、単に個人に資格を与えるだけでなく、全社的な基準と実務慣行も必要となる。

AIの公平性に関する専門家は、AIにおけるバイアスと公平性の問題は技術的な方法だけでは解決できず、AIのための機関審査委員会の設置など、より包括的なリスク軽減策が必要だと主張しています。例えば、医療分野における機関審査委員会は、個人の権利の擁護に役立ちます。

学術機関や専門団体も同様に、AI 生成テキストの著者基準や医療における患者介在型データ共有の基準など、AI の責任ある使用に関する基準を採用しています。

消費者の安全、プライバシー、保護に関する既存の法令を強化し、アルゴリズムの説明責任に関する規範を導入することで、複雑なAIシステムの謎を解き明かすことができるでしょう。また、データの説明責任と透明性の向上が、組織に新たな制約を課す可能性があることを認識することも重要です。

データプライバシーとAI倫理の研究者たちは、「技術的デュープロセス」と予測プロセスの弊害を認識するための枠組みを求めています。雇用、保険、医療といった分野におけるAIを活用した意思決定の普及には、手続きの公平性とプライバシー保護を確保するためのライセンスと監査の要件が必要です。

しかし、このような説明責任規定を義務付けるには、AI開発者、政策立案者、そしてAIの広範な導入によって影響を受ける人々の間で、活発な議論が必要です。アルゴリズムに関する確固たる説明責任の実践がなければ、コンプライアンスを装う限定的な監査が行われる危険性があります。

AIの独占?

アルトマン氏の証言には、ChatGPTの基盤の一つであるGPT-4であれ、テキスト画像生成器であるStable Diffusionであれ、大規模AIモデルの学習に必要な投資規模についても触れられていない。世界最大規模の言語モデルの開発を担っているのは、Google、Meta、Amazon、Microsoftといったごく少数の企業だけだ。

これらの企業が使用するトレーニングデータの透明性の欠如を考慮し、AI倫理の専門家であるティムニット・ゲブル氏、エミリー・ベンダー氏らは、適切な監視なしにこのような技術を大規模に導入すると、社会規模で機械の偏見を増幅させるリスクがあると警告している。

ChatGPTのようなツールの学習データには、Wikipediaの寄稿者、ブロガー、デジタル書籍の著者など、多くの人々の知的労働が含まれていることを認識することも重要です。しかしながら、これらのツールから得られる経済的利益は、テクノロジー企業にのみ帰属します。

司法省によるマイクロソフトに対する反トラスト訴訟が示したように、テクノロジー企業の独占力を証明することは困難な場合があります。AIによるアルゴリズムの潜在的な害悪に対処するために議会が講じる最も実現可能な規制上の選択肢は、AI企業とAI利用者の両方に対する情報開示要件の強化、AIリスク評価フレームワークの包括的な導入の促進、そして個人データの権利とプライバシーを保護するプロセスの導入を義務付けることであると私は考えています。

AI、チャットボット、そして機械学習の未来についてもっと知りたいですか?人工知能に関する当社の記事をぜひご覧ください。また、「最高の無料AIアートジェネレーター」や「OpenAIのChatGPTについて私たちが知っていることすべて」といったガイドもご覧ください。

アンジャナ・スサラ、ミシガン州立大学情報システム学部教授

この記事はクリエイティブ・コモンズ・ライセンスに基づきThe Conversationから転載されました。元の記事はこちらです。

Tagged: