ChatGPTとDall-Eは結果に透かしを入れるべきだ

ChatGPTとDall-Eは結果に透かしを入れるべきだ
写真: J. デビッド・エイク
写真:J・デビッド・エイク(AP通信)

ドナルド・トランプ前大統領が起訴されるという噂が広まった直後、トランプ氏の逮捕を示すとされる画像がインターネット上に現れた。これらの画像は報道写真のように見えたが、実際には偽物だった。生成型人工知能システムによって作成されたものだった。

DALL-E、Midjourney、Stable Diffusionといった画像生成ツールや、Bard、ChatGPT、Chinchilla、LLaMAといったテキスト生成ツールといった生成AIは、公共の場で爆発的に普及しています。巧妙な機械学習アルゴリズムと数十億もの人間が生成したコンテンツを組み合わせることで、これらのシステムは、キャプションから不気味なほどリアルな画像を作成したり、ジョー・バイデン大統領の声でスピーチを合成したり、動画内の人物の肖像を別の人物に置き換えたり、タイトルのプロンプトから800語の論説記事を作成したりと、あらゆることが可能になります。

生成AIは、まだ初期段階ですが、非常にリアルなコンテンツを作成可能です。同僚のソフィー・ナイチンゲールと私は、平均的な人は実在の人物の画像とAIが生成した人物を確実に区別できないことを発見しました。音声や動画はまだ不気味の谷現象(リアルに近いものの、完全にはリアルではないため、不快感を与える人物の画像やモデル)を完全には超えていませんが、近いうちに超える可能性は高いでしょう。そうなれば、そしてそれはほぼ確実ですが、現実を歪めることがますます容易になるでしょう。

この新しい世界では、数十億ドルの市場シェア喪失につながる可能性のある自社の利益が20%減少したとCEOが語るビデオを生成したり、地政学的危機を引き起こす可能性のある軍事行動を脅かす世界指導者のビデオを生成したり、性的に露骨なビデオに誰かの肖像を挿入したりすることも、簡単にできるようになります。

実在の人物の偽のビデオを作成する技術がますます利用可能になってきています。

生成AIの進歩は、偽物でありながら視覚的に説得力のあるコンテンツがオンライン上で蔓延し、情報エコシステムをさらに混乱させるでしょう。副次的な影響として、警察の暴力や人権侵害から、世界の指導者による極秘文書の焼却に至るまで、あらゆる映像証拠を批判者が簡単に偽物として片付けてしまうようになるでしょう。

社会が生成型AIの進歩の始まりに過ぎないであろう現状を直視する中、こうした悪用を軽減するために活用できる、合理的かつ技術的に実現可能な介入策が存在します。画像フォレンジックを専門とするコンピュータサイエンティストとして、私は透かしが重要な手法の一つだと考えています。

透かし

文書やその他の物品に、その真正性、所有権、偽造防止を証明すべく、透かしを入れるという行為は長い歴史があります。今日、大規模な画像アーカイブであるゲッティイメージズは、カタログ内のすべてのデジタル画像に目に見える透かしを追加しています。これにより、お客様はゲッティイメージズの資産を保護しながら、自由に画像を閲覧できます。

目に見えないデジタル透かしは、デジタル著作権管理にも利用されています。例えば、10ピクセルごとに色(通常は0~255の範囲の数値)を偶数値に調整することで、デジタル画像に透かしを追加できます。このピクセル調整は非常に小さいため、透かしは目立ちません。また、この周期的なパターンは自然に発生する可能性は低く、簡単に検証できるため、画像の出所を検証するために使用できます。

中解像度の画像でさえ数百万ピクセルのピクセルが含まれているため、透かしには生成ソフトウェアをエンコードした一意の識別子や一意のユーザーIDなどの追加情報を埋め込むことができます。このタイプの目に見えない透かしは、音声や動画にも適用できます。

理想的な透かしとは、目立たず、切り抜き、サイズ変更、色調整、デジタル形式の変換といった単純な操作に対して耐性を持つものです。ピクセルカラー透かしの例は、色値が変更されるため耐性がありませんが、透かしを削除しようとする試みに対して堅牢(ただし、完全に除去できないわけではありません)な透かし技術が数多く提案されています。

透かしと無料のAI画像ジェネレーター

これらの透かしは、すべてのトレーニングデータに透かしを入れることで生成AIシステムに組み込むことができ、生成されたコンテンツにも同じ透かしが含まれます。この透かしの組み込みは、画像生成ツールStable Diffusionのように、生成AIツールをオープンソース化できるという点で魅力的です。画像生成ツールのソフトウェアから透かし処理が削除される心配はありません。Stable Diffusionには透かし機能がありますが、オープンソースであるため、誰でもコードからその部分を簡単に削除できます。

OpenAIは、ChatGPTの作品に透かしを入れるシステムを実験しています。段落内の文字は当然ながらピクセル値のように調整できないため、テキスト透かしは異なる形で行われます。

テキストベースの生成AIは、文中で次に最も適切な単語を生成することを基盤としています。例えば、「AIシステムは…できる」という文の断片から始めて、ChatGPTは次の単語が「学習する」「予測する」「理解する」のいずれかであると予測します。これらの単語にはそれぞれ、文中で次に出現する確率に対応する確率が関連付けられています。ChatGPTは、学習に使用した大量のテキストからこれらの確率を学習しました。

生成されたテキストに透かしを入れるには、単語のサブセットを秘密裏にタグ付けし、その後、タグ付き単語の同義語となるように単語の選択をバイアスします。例えば、「理解する」というタグ付き単語の代わりに「理解する」というタグ付き単語を使用できます。このように単語の選択を定期的にバイアスすることで、テキスト本文はタグ付き単語の特定の分布に基づいて透かし入れされます。このアプローチは短いツイートには適していませんが、透かしの詳細にもよりますが、800語以上のテキストでは一般的に効果的です。

生成AIシステムは、すべてのコンテンツに透かしを入れることが可能であり、またそうすべきだと私は考えています。これにより、下流での識別が容易になり、必要に応じて介入が可能になります。業界が自主的にこれを行わない場合、立法者はこのルールを強制するための規制を制定する可能性があります。もちろん、悪意のある人はこれらの基準を遵守しないでしょう。しかし、主要なオンラインゲートキーパー(AppleとGoogleのアプリストア、Amazon、Google、Microsoftのクラウドサービス、GitHubなど)が、これらのルールを遵守せず、非準拠ソフトウェアを禁止することでこれらのルールを強制すれば、被害は大幅に軽減されるでしょう。

本物のコンテンツに署名する

問題の反対側から取り組むと、同様のアプローチを採用することで、撮影時点でオリジナルのオーディオビジュアル録画を認証することができます。専用のカメラアプリを使えば、録画コンテンツに暗号署名を付与し、録画と同時に認証することができます。この署名を改ざんしても、その痕跡は残りません。署名は、信頼できる署名の集中リストに保存されます。

テキストには適用できませんが、オーディオビジュアルコンテンツは人間が作成したものであると検証できます。メディア認証の標準策定を目指す共同プロジェクトであるコンテンツの出所と認証のための連合(C2PA)は、このアプローチをサポートするオープン仕様を最近公開しました。Adobe、Microsoft、Intel、BBCなど、多くの主要機関がこの取り組みに参加しているため、C2PAは効果的で広く普及する認証技術を開発する上で有利な立場にあります。

人間が生成したコンテンツとAIが生成したコンテンツに署名と透かしを組み合わせても、あらゆる形態の不正使用を防ぐことはできませんが、ある程度の保護は提供できます。敵対者が最新技術を武器化する新たな方法を見つけるにつれて、あらゆる安全策は継続的に適応・改良されていく必要があります。

社会がスパム、マルウェア、フィッシングなどの他のサイバー脅威と数十年にわたって戦ってきたのと同じように、私たちは生成 AI を使って行われるさまざまな形態の不正行為から身を守るために、同様に長期にわたる戦いに備える必要があります。

AI、チャットボット、そして機械学習の未来についてもっと知りたいですか?人工知能に関する当社の記事をぜひご覧ください。また、「最高の無料AIアートジェネレーター」や「OpenAIのChatGPTについて私たちが知っていることすべて」といったガイドもご覧ください。


ハニー・ファリド、カリフォルニア大学バークレー校コンピュータサイエンス教授

この記事はクリエイティブ・コモンズ・ライセンスに基づきThe Conversationから転載されました。元の記事はこちらです。

Tagged: