世界の多くの最高と最悪のアイデアと同様に、AI 生成ディープフェイクに対抗するための MIT 研究者の計画は、メンバーの 1 人がお気に入りのニュースではないニュース番組を見たときに思いついた。
10月25日放送の「ザ・デイリー・ショー・ウィズ・トレバー・ノア」で、OpenAIの最高技術責任者(CTO)ミラ・ムラティ氏はAI生成画像について語りました。ムラティ氏はOpenAIのAI画像生成ツール「DALL-E 2」について詳細に語ることもあったでしょうが、それほど踏み込んだインタビューではありませんでした。そもそも、このインタビューはAIアートについてほとんど、あるいは全く知らないであろう人々に向けて公開されたものですから。それでも、いくつかの示唆に富む示唆はありました。ノア氏はムラティ氏に、AIプログラムが「何もかもが現実ではなく、現実であるものすべてが現実ではない」世界に私たちを導かないようにする方法はあるかと尋ねました。
先週、マサチューセッツ工科大学の研究者たちは、この疑問に答えたいと述べました。彼らは、データポイズニング技術を用いて画像内のピクセルを乱し、目に見えないノイズを作り出す、比較的シンプルなプログラムを考案しました。これにより、AIアートジェネレーターは、入力された写真に基づいてリアルなディープフェイクを生成できなくなります。MITのコンピューター科学教授であるアレクサンダー・マドリー氏は、研究チームと協力してこのプログラムを開発し、その結果をTwitterと自身の研究室のブログに投稿しました。
先週の @TheDailyShow で、@Trevornoah が @OpenAI @miramurati に (非常に重要な) 質問をしました: AI による写真編集による誤情報の発生をどう防ぐことができますか? https://t.co/awTVTX6oXf
私の @MIT の学生たちが、写真を編集から「保護」する方法をハックしました: https://t.co/zsRxJ3P1Fb (1/8) pic.twitter.com/2anaeFC8LL
— アレクサンダー・マドリー (@aleks_madry) 2022 年 11 月 3 日
研究チームは、デイリーショーのコメディアン、マイケル・コスタとノアの写真を用いて、画像内のこの微細なノイズが、拡散モデルを用いたAI画像生成器が元のテンプレートを用いて新しい写真を生成するのを阻害する仕組みを実証した。研究者たちは、インターネットに画像をアップロードしようとしている人は誰でも、自分の写真を彼らのプログラムに通すことで、AI画像生成器から保護することができると提案した。
MITで機械学習モデルを研究する博士課程の学生、ハディ・サルマン氏は、ギズモードとの電話インタビューで、自身が開発に携わったシステムでは、写真にノイズを加えるのにわずか数秒しかかからないと語った。解像度の高い画像では、微細なノイズを加えることができるピクセル数が増えるため、ノイズ除去効果はさらに高まると彼は述べた。
GoogleはImagenという独自のAI画像生成システムを開発しているが、その性能を実際に試した人はほとんどいない。同社はまた、AIによる動画生成システムにも取り組んでいる。サルマン氏によると、動画ではまだテストしていないものの、理論上は動作するはずだという。ただし、MITのプログラムは動画のすべてのフレームを個別にモックアップする必要があるため、数分を超える動画の場合は数万フレームに及ぶ可能性がある。
データ ポイズニングは大規模な AI ジェネレーターに適用できますか?
サルマン氏は、AIモデルを生成する企業でさえ、アップロードされた画像がAIモデルに耐性があることを保証できる未来を想像できると述べた。もちろん、これはLAIONのようなオープンソースライブラリに既にアップロードされている何百万枚もの画像にとってはあまり良いニュースではないが、将来アップロードされる画像には大きな変化をもたらす可能性がある。
マドリー氏はギズモードの電話インタビューで、このシステムはデータポイズニングが多くのテストで効果を発揮しているものの、製品リリースというよりは概念実証に近いものだと述べた。研究者たちのプログラムは、ディープフェイクが作られる前にそれを阻止する方法があることを証明している。
企業はこの技術を理解し、自社システムに実装することで、改ざん耐性をさらに高める必要があると彼は述べた。さらに、企業は拡散モデルやその他のAI画像生成ツールの将来的なバージョンが、ノイズを無視して新たなディープフェイクを生成できないようにする必要がある。

「今後本当に必要なのは、普及モデルを開発するすべての企業が、健全で強力な予防接種を行う能力を提供することだ」とマドリー氏は述べた。
機械学習分野の他の専門家は、MITの研究者を批判する点をいくつか見つけました。
スイスのETHチューリッヒ校のコンピュータサイエンス教授、フロリアン・トラマー氏は、ディープフェイク作成の試みを画像で騙すには、基本的に一度しかできないという点が最大の難しさだとツイートした。トラマー氏は、2021年に国際表現学習会議(International Conference on Learning Representations)で発表された論文の共著者であり、その論文では、MITのシステムが画像ノイズに対して行っているようなデータポイズニングでは、将来のシステムがそれを回避する方法を見つけることを阻止できないことが示唆されている。さらに、こうしたデータポイズニングシステムの開発は、商用AI画像生成ツールとディープフェイクを防ごうとするツールの間で「軍拡競争」を引き起こすことになるだろう。
AIによる監視に対処するためのデータポイズニングプログラムは他にも存在し、例えばシカゴ大学の研究者が開発した「Fawkes」(そう、11月5日のことですね)などが挙げられます。Fawkesは画像のピクセルを歪ませることで、Clearviewのような企業が正確な顔認識を行えないようにします。オーストラリアのメルボルン大学と中国の北京大学の研究者も、AI画像生成器が使用できない「学習不可能な例」を作成できる可能性のあるシステムを分析しています。
問題は、Fawkes 開発者の Emily Wenger 氏が MIT Technology Review のインタビューで指摘したように、Microsoft Azure などのプログラムが Fawkes に打ち勝ち、敵対的手法にもかかわらず顔を検出できたことです。
カナダ、オンタリオ州ウォータールー大学のコンピュータサイエンス教授、ゴータム・カマート氏は、GizmodoのZoomインタビューで、AIモデルを作ろうとする者とそれを打ち負かす方法を探す者の間の「いたちごっこ」では、新しいAIシステムを開発する者が優位に立っているようだと語った。なぜなら、一度インターネット上に公開された画像は二度と消えることはないからだ。したがって、AIシステムがディープフェイクの防止策をすり抜けてしまった場合、それを修正する現実的な方法はないのだ。
「将来、ある特定の画像にどんな防御策を講じても、それをすり抜けられるようになる可能性は、可能性が低いとは言えないまでも、あるでしょう」とカマス氏は述べた。「そして、一度公開されてしまったら、取り消すことはできないのです。」
もちろん、ディープフェイク動画を検出できるAIシステムも存在し、動画が偽造されていることを示す小さな矛盾点を見抜くよう人間を訓練する方法も存在します。問題は、写真や動画が加工されているかどうかを人間も機械も見分けられない時代が来るかどうかです。
最大の AI ジェネレーター企業についてはどうでしょうか?
マドリー氏とサルマン氏にとって、答えはAI企業との協力にある。マドリー氏によると、彼らは大手AI生成企業数社と連絡を取り、提案システムの導入に興味があるかどうかを確認しようとしているという。もちろん、これはまだ初期段階であり、MITチームはユーザーが自分の写真に免疫を付けることができる公開APIの開発に取り組んでいる(コードはこちらで入手可能)。
つまり、すべてはAI画像プラットフォームを開発する人々に依存しているということです。OpenAIのムラティ氏は10月の番組でノアに対し、システムには「一定のガードレール」を設けていると語り、さらに、著名人(事実上誰もが公の顔を持つソーシャルメディアの時代において、これはかなり曖昧な言葉です)に基づいた画像生成は許可していないと主張しました。チームはまた、暴力的または性的な画像を含む画像の作成を制限するフィルターの開発にも取り組んでいます。
OpenAIは9月、ユーザーが再びシステムに人間の顔をアップロードできるようになったと発表したが、暴力的または性的な文脈で顔が表示されないよう防止策を組み込んだと主張した。また、ユーザーに本人の同意なしに人物の画像をアップロードしないよう求めたが、インターネット全体に安易に約束を求めるのは無理がある。
しかし、他のAIジェネレーターやその開発者が、ユーザーが生成するコンテンツのモデレーションに積極的だというわけではありません。Stable Diffusionを開発するStability AIは、自社のシステムを使ってポルノや二次創作物を作成することを阻止する障壁を設けることには、はるかに消極的であることを示してきました。OpenAIは、システムが生成する画像にバイアスがかからないようにしようとしていることについて、(ええと)オープンに発言していますが、StabilityAIは沈黙を守っています。
Stability AIのCEO、エマド・モスタク氏は、政府や企業の影響を受けないシステムを主張し、これまで自身のAIモデルにさらなる制限を課すよう求める声に反論してきた。彼は、画像生成は「1年以内に解決」され、ユーザーは「夢に描いたものは何でも」作成できるようになると述べている。もちろん、これは誇大宣伝に過ぎないが、モスタク氏がテクノロジーのさらなる発展を諦めるつもりはないことを示唆している。
私は、1年以内に完全に解決されるというイメージを維持し、夢見ることができるものは何でも作成します。
オープンソース AI のパワー、次は何が起こるのか。https://t.co/aUWpWal6au
— エマド (@EMostaque) 2022年10月16日
それでも、MITの研究者たちは安定した姿勢を保っている。
「このような技術が簡単に利用できるようになった世界はどうなるのか、という非常に不安な疑問がたくさんあると思います。繰り返しますが、既に簡単に利用できるようになっていますし、今後さらに使いやすくなるでしょう」とマドリー氏は述べた。「私たちは、合意に基づいてこの問題に取り組めるようになったことを大変嬉しく、そして大変興奮しています。」