世界的な偽情報キャンペーンは終わり、ディープフェイクは新たな役割を担う:企業スパム

世界的な偽情報キャンペーンは終わり、ディープフェイクは新たな役割を担う:企業スパム

LinkedInで、一見ランダムな勧誘に来たのに無視したら、プロフィールに何か…おかしい…と感じたことはありませんか? 実は、しつこく連絡してくる営業担当者は、実は人間ではない場合もあるんです。そう、AIが生成したディープフェイクがLinkedInにやって来て、繋がりを求めているんです。

これは、最近のNPRレポートで詳述されたスタンフォード・インターネット・オブザーバトリーのレニー・ディレスタ氏の最近の研究によるものです。2016年の選挙後、ロシアの偽情報コンテンツの奔流をくぐり抜けて名を馳せたディレスタ氏は、特に奇妙な見た目のLinkedInのアカウントが彼女とつながろうとしたことから、AIがコンピューターで生成した偽のプロフィール画像という現象に気づいたと述べています。伝えられるところによると、ディレスタ氏に取るに足らないソフトウェアについて売り込もうとしたこのユーザーは、奇妙な矛盾のある画像を使用しており、企業写真としては奇妙だと感じられました。最も注目すべき点は、人物の目が画像の真ん中にぴったりと揃っていることにディレスタ氏は気づいたと語ります。これはAI生成画像であることの明らかな特徴です。皆さん、常に目を見てください。

「その顔が偽物だとすぐに分かりました」とディレスタさんはNPRに語った。

そこからディレスタ氏とスタンフォード大学の同僚ジョシュ・ゴールドスタイン氏は調査を行い、コンピューターで作成されたと思われる画像を使用しているLinkedInアカウントが1,000件以上あることを突き止めました。ディープフェイクに関する世間の議論の多くは、この技術が政治的な誤情報を拡散する危険性について警告してきましたが、ディレスタ氏によると、今回の画像は、セールスや詐欺の手先として機能するように設計されているように見受けられます。NPRによると、企業は偽画像を使ってLinkedInのシステムを操作し、LinkedInのメッセージ制限を回避するために、セールストーク用の別アカウントを作成しているとのことです。

https://twitter.com/embed/status/1508258572194430979

「これは誤情報や偽情報の話ではなく、むしろごくありふれたビジネスユースケースとAI技術の交差、そしてそこから生じる倫理と期待に関する疑問についての話です」とディレスタ氏はツイートした。「ソーシャルネットワークで他の人と出会うとき、私たちは何を前提としているのでしょうか?どのような行動が操作に該当するのでしょうか?」

LinkedInはGizmodoに送った声明の中で、偽画像の使用に関するポリシーに違反したアカウントを調査し、削除したと述べた。

LinkedInの広報担当者は、「当社のポリシーでは、LinkedInのすべてのプロフィールは実在の人物を代表しなければならないことを明確にしています。偽のプロフィールをより正確に特定し、今回のケースのようにコミュニティから削除するために、技術的な防御策を常に更新しています」と述べています。「結局のところ、メンバーが実在の人物と確実に繋がれるようにすることが最も重要であり、そのための安全な環境を提供することに注力しています。」

ディープフェイク作成者: 私たちに約束された誤情報の地獄絵図はどこにある?

誤情報の専門家や政治評論家たちは長年、ディープフェイクによるディストピアの到来を警告してきたが、現実世界での成果は、少なくとも今のところは、それほど目立ったものではなかった。昨年、トム・クルーズを装った人物が登場する偽のTikTok動画がインターネットを一時熱狂させたが、多くのユーザーはそれが人間ではないことにすぐに気付いた。この動画をはじめとする人気のディープフェイク(ジム・キャリーが『シャイニング』に出演しているとされる動画や、マイケル・スコットのクローンだらけのオフィスを描いた動画など)は、明らかに風刺的で比較的無害な内容となっており、「民主主義への危険」という警鐘を鳴らすほどではない。

しかし、最近の他の事例は、政治の泥沼に踏み込もうとしています。例えば、以前の動画では、作成者がバラク・オバマ前大統領の動画を操作し、実際には発せられていない言葉を言わせる方法を示しました。さらに今月初めには、ウクライナのウォロディミル・ゼレンスキー大統領が投降する様子を装った偽動画がソーシャルメディアで拡散しました。繰り返しになりますが、この動画はひどい出来栄えでした。ご自身の目で確かめてください。

@Shayan86によると、ウクライナのウォロディミル・ゼレンスキー大統領が兵士たちに武器を置くよう呼びかけるディープフェイクが、ハッキングされたウクライナのニュースサイトに今日アップロードされたという。pic.twitter.com/tXLrYECGY4

— ミカエル・ターレン (@MikaelThalen) 2022 年 3 月 16 日

ディープフェイクは、政治的な趣向のものも含めて確かに存在しているが、社会が画像を阻害するという懸念はまだ現実のものとなっていない。これは明らかに残念なことで、米国大統領選後の評論家の中には「今回の大統領選でディープフェイクはどこにあるのか?」と疑問を呈する者もいる。

人間はディープフェイク画像を見抜くのがますます難しくなっている

それでも、いずれすべてが変わる可能性があると信じる十分な理由があります。米国科学アカデミー紀要(Proceedings of the National Academy of Sciences)に掲載された最近の研究によると、コンピューターで生成された(または「合成」された)顔は、実在の人物の顔写真よりも信頼性が高いと判断されたそうです。この研究では、研究者たちは400人の実在の顔を集め、ニューラルネットワークを用いてさらに400人の非常にリアルな顔写真を生成しました。研究者たちはこれらの画像のうち128枚を使用し、参加者グループに本物の顔写真と偽物を見分けられるかどうかをテストしました。別の回答者グループには、一部の画像が全く人間のものではないことを示唆することなく、顔写真の信頼性を判断てもらいました。

スクリーンショット: 米国科学アカデミー紀要の Sophie J. Nightingale と Hany Farid。
スクリーンショット: 米国科学アカデミー紀要の Sophie J. Nightingale と Hany Farid。

結果は人間チームにとって芳しくないものでした。最初のテストでは、参加者は画像が本物かコンピューターで生成されたものかを正しく識別できたのはわずか48.2%でした。一方、信頼性を評価するグループでは、AIの顔画像に人間の顔画像(4.48)よりも高い信頼性スコア(4.82)が与えられました。

「このような高品質の偽画像への容易なアクセスは、これまでも、そしてこれからも、より説得力のあるオンライン偽プロフィールや、合成音声・動画生成技術の進歩に伴い、合意のない親密な画像、詐欺、偽情報キャンペーンといった様々な問題を引き起こしており、今後も引き起こし続けるだろう」と研究者らは記している。「したがって、これらの技術を開発する人々は、関連するリスクがメリットを上回っているかどうかを検討する必要がある。」

しかし短期的には、政治的に問題のあるコンテンツの最も重要な発生源は、必ずしも高度なAI駆動型ディープフェイクではなく、はるかに洗練されていないソフトウェア、あるいはソフトウェアを全く使用せずにメディアを操作できる、より単純な、いわゆる「チープフェイク」から発生する可能性がある。その例としては、2019年に話題になった、酔っ払ったとされるナンシー・ペロシがろれつが回らない様子を暴露した動画(この動画は実際には25%遅くされただけ)や、ジョー・バイデン候補がアメリカ人に自動車保険を売ろうとする、ヘマを犯す動画などがある。バイデン候補のケースは、実際には男性が大統領の声を下手な真似をして、実際の動画に吹き替えただけだった。これらは、トランプ大統領のおしっこテープのディープフェイクほどセクシーではないが、どちらもオンラインで大きな注目を集めた。

3/29 午前 9:00 更新: LinkedIn からの声明を追加しました。

Tagged: