今週のAI:チャックとザッカーバーグ、イーロン・マスクのビッグミーティング

今週のAI:チャックとザッカーバーグ、イーロン・マスクのビッグミーティング

今週のヘッドライン

世界中の怠け者のオフィスワーカーにとって間違いなく嬉しいニュースだが、月額 30 ドルを支払えば、Google の Duet AI にメールを書いてもらうことができるようになった。

Googleは、AI画像生成子会社の一つ向けに、透かしツール「SynthID」を発表しました。私たちは、これがなぜ良いニュースなのか(あるいはそうでないのか)について、あるコンピュータサイエンスの教授にインタビューしました。

写真: VegaTews
写真: VegaTews (Shutterstock)

トップストーリー:シューマー氏のAIサミット

チャック・シューマー上院議員は、今月下旬に人工知能(AI)分野のトップ企業と会合を開き、今後の規制策定に役立つ情報収集を行うと発表した。上院多数党院内総務であるシューマー氏は、将来的に法案が成立した場合、その形を決定づける大きな権限を持つ。しかし、この会合に出席する人々は、必ずしも一般市民を代表するわけではない。今回のサミットには、テック界の大富豪イーロン・マスク氏、マスク氏のかつての仮想的なスパーリングパートナーであるMetaのマーク・ザッカーバーグCEO、OpenAIのサム・アルトマンCEO、Googleのサンダー・ピチャイCEO、NVIDIAのジェンスン・フアン社長、そして防衛関連企業Palantirのアレックス・カーピーCEOなど、シリコンバレーの重鎮たちが招待されている。

シューマー氏の今後の会合(同氏の事務所は「AIインサイトフォーラム」と名付けている)では、何らかの規制措置が準備されている可能性が示唆されているようだが、ゲストリスト(企業のハゲタカの集団)を見る限り、その措置が必ずしも適切であるとは思えない。

会議出席者のリストは、まさに企業の錚々たる顔ぶれだと捉える人々から、ネット上でかなりの批判を浴びている。シューマー議員の事務所は、シューマー議員が公民権運動や労働運動の指導者とも会談する予定だと指摘している。その中には、アメリカ最大の労働組合連合であるAFL-CIOのリズ・シューラー会長も含まれている。

それでも、この非公開の会合は、テクノロジー業界がアメリカで最も影響力のある政治家の一人に規制緩和を懇願する機会だと捉えざるを得ない。チャックが良き指導者の声に耳を傾ける勇気があるか、それとも彼の肩に乗ろうと企む金にまみれた小鬼どもに屈服するのかは、時が経てば分かるだろう。

今日の質問: SynthID とは何ですか?

ChatGPTやDALL-Eといった生成AIツールの人気が爆発的に高まる中、偽のテキストや画像をユーザーが生成できるこの業界が、大量のオンライン偽情報を生み出すのではないかと批評家たちは懸念している。そこで提案されているのが「ウォーターマーキング」と呼ばれるシステムだ。これは、AIコンテンツが作成される際に、自動的に目に見えない形で内部識別子が埋め込まれ、後から合成コンテンツだと認識できるようにするものだ。今週、Google傘下のDeepMindは、この作業を支援するというウォーターマーキングツールのベータ版をリリースした。SynthIDはDeepMindのクライアント向けに設計されており、DeepMindのクライアントが作成したアセットに合成コンテンツとしてマークを付けることができる。しかし残念ながら、Googleはこのアプリケーションをオプションにしてしまったため、ユーザーはコンテンツにSynthIDを埋め込みたくないということになる。

写真: ウォータールー大学
写真: ウォータールー大学

インタビュー:AI透かしの可能性と落とし穴について語るフロリアン・ケルシュバウム氏

今週は、ウォータールー大学デイビッド・R・チェリトン・コンピュータサイエンス学部の教授、フロリアン・カーシュバウム博士にお話を伺う機会に恵まれました。カーシュバウム博士は、生成AIにおける透かしシステムを幅広く研究されています。Googleが最近リリースしたSynthIDについて、そしてそれが正しい方向への一歩であるかどうかについて、カーシュバウム博士にお伺いしました。このインタビューは、簡潔さと明瞭性を考慮して編集されています。

AI ウォーターマーキングの仕組みとその目的について少し説明していただけますか?

透かしは基本的に、特定の媒体に秘密のメッセージを埋め込むことで機能します。このメッセージは、正しい鍵さえ分かれば後で抽出できます。このメッセージは、アセットが何らかの形で変更されたとしても保持される必要があります。例えば画像の場合、サイズを変更したり、明るくしたり、その他のフィルターを適用したりしても、メッセージは保持される必要があります。

このシステムにはセキュリティ上の欠陥があるようです。悪意のある人物が透かしシステムを騙せるような状況はあるのでしょうか?  

画像透かしは非常に古くから存在しています。20年から25年もの間、存在してきました。基本的に、アルゴリズムが分かれば、現在のシステムはすべて回避可能です。AI検出システム自体にアクセスできれば、それだけで十分かもしれません。そのようなアクセスさえあれば、システムを破るのに十分かもしれません。なぜなら、人間は一連のクエリを実行するだけで、画像に小さな変更を加え続け、最終的にシステムがその資産を認識できなくなるまで、システムを破壊することができるからです。これは、AI検出全体を欺くためのモデルとなる可能性があります。

誤情報や偽情報にさらされる平均的な人は、ニュースフィードに表示されるすべてのコンテンツに透かしが入っているかどうかを必ずしも確認するわけではありません。これは深刻な限界を抱えたシステムのように思えます。

AI生成コンテンツを識別する問題とフェイクニュースの拡散を抑制する問題は区別する必要があります。AIはフェイクニュースの拡散をはるかに容易にする一方で、手動でフェイクニュースを作成することも可能であり、そのようなコンテンツはそのような[透かし]システムでは決して検出されないという点で、両者は関連しています。したがって、フェイクニュースは異なるものの関連する問題として捉える必要があります。また、プラットフォームユーザー一人ひとりが[コンテンツが本物かどうか]を確認することは必ずしも必要ではありません。仮にTwitterのようなプラットフォームが自動的に確認してくれるかもしれません。しかし、Twitterには実際にはそうするインセンティブがありません。なぜなら、Twitterは事実上フェイクニュースを流しているからです。ですから、最終的にはAI生成コンテンツを検出できるようになるとは思いますが、それがフェイクニュース問題を解決するとは考えていません。

透かし以外に、合成コンテンツの識別に役立つ可能性のある他の解決策は何ですか?

基本的に3つのタイプがあります。1つは透かしで、モデルの出力分布をわずかに変更することで、それを認識できるようにします。もう1つは、プラットフォームによって生成されたすべてのAIコンテンツを保存し、オンラインコンテンツがその資料リストに含まれているかどうかを照会できるシステムです。そして3つ目のソリューションは、生成された資料のアーティファクト(つまり、証拠となる兆候)を検出しようとするものです。例えば、ChatGPTによって書かれた学術論文はますます増えています。学術論文の検索エンジンで「大規模言語モデルとして…」と入力すると(チャットボットが論文を生成する過程で自動的に吐き出すフレーズ)、大量の結果が見つかります。これらのアーティファクトは確かに存在しており、それらのアーティファクトを認識するようにアルゴリズムをトレーニングすれば、この種のコンテンツを識別する別の方法になります。

つまり、最後のソリューションでは、基本的に AI を使用して AI を検出していることになりますね?

うん。

そして、その前の解決策、つまり AI 生成素材の巨大​​なデータベースを利用する解決策には、プライバシーの問題がいくつかあるように思えます。  

そうです。この特定のモデルにおけるプライバシーの問題は、企業が作成したすべてのコンテンツを保存しているという事実とは関係ありません。なぜなら、これらの企業は既にそうしているからです。より大きな問題は、ユーザーが画像がAIかどうかを確認するには、その画像を企業のリポジトリに送信して照合する必要があることです。そして、企業はおそらくその画像のコピーも保管するでしょう。それが心配です。

では、あなたの観点からすると、これらの解決策のうちどれが最善でしょうか?

セキュリティに関しては、「すべての卵を一つの籠に入れるな」という考え方を強く信じています。ですから、私たちはこれらの戦略をすべて活用し、それらを中心により広範なシステムを設計する必要があると考えています。そうすれば、そして慎重に行えば、成功する可能性は必ずあると信じています。

GizmodoのAI関連ニュースはこちら、または最新ニュースはこちらでご覧いただけます。毎日の最新情報をご希望の方は、無料のGizmodoニュースレターにご登録ください。

Tagged: