今年、DeepSeekが突如として登場した時、最初の反応は衝撃だった。無名の企業が、いかにして最先端のAI性能をわずかなコストで実現したのか?そして、他人の不幸を喜ぶ声が上がった。AIモデルのトレーニングに数千億ドルもの資金を投じる巨大データセンターを持つ世界有数の企業が、この中国の新興企業に打ち負かされたとは、滑稽ではないか?そして、今度は反発が起きた。この中国の新興企業に?
DeepSeekのアプリがApple App StoreでOpenAIのChatGPTを抜き去り、アメリカのテック企業の株価が急落してからわずか数日後、同社は政治家、国家安全保障当局、そしてOpenAIをはじめとする多くの人々から非難を浴びている。批判の多くは正当なものだ。チャットボットが誤情報を拡散するのは危険だ。検索エンジンに取って代わり、主要な情報源となりつつあるツールにおいて、テック企業が回答を検閲していることは懸念すべきことだ。知的財産を盗んでAIシステムの学習に利用するのは良くない。
しかし、これらはDeepSeekに限った問題ではなく、AI業界全体を悩ませている点も指摘しておくべきでしょう。一方、アメリカの巨大テック企業や政治家は、中国のアプリやAIをめぐって激しい非難を煽り立て、それが保護主義的な政策へとつながり、たちまち裏目に出てしまうという、ごく最近の例があります。TikTok禁止措置に対するワシントンの急速な撤回や、最近の先端チップに対する輸出規制を見れば明らかです。多くの専門家は、これらの規制こそが、DeepSeekのような中国のAI企業が新技術を革新する原動力であると指摘しています。
DeepSeekの新しいR1モデルに対する主な批判の一つは、中国政府の政策や論点に反する可能性のある回答を検閲しているという点です。Promptfooによる最近の分析では、中国政府にとってセンシティブな話題に関する1,360件の質問データセットを用いて、DeepSeekのチャットボットが質問の85%の回答を検閲していることが明らかになりました。これはあまり良いことではありません。しかし、ChatGPTの簡単なテストでは、同じ質問の一部に対する回答も検閲していることが示されています。どちらのチャットボットにも、活動家がそれぞれの政府による監視を回避するための暗号化ツールをどこで見つけられるか尋ねても、どちらも答えてくれないでしょう。

Promptfooは、DeepSeekの公開ダウンロード可能なモデルは簡単にジェイルブレイクして検閲を回避できると指摘し、同社は「(中国共産党の)規制を満たすために必要な最低限のことしか行っておらず、DeepSeek内では水面下でモデルを調整するための実質的な努力は行われていない」と推測した(Promptfooは現在、ChatGPTに対しても同様に大規模な検閲テストに取り組んでいると付け加えた)。
オンライン情報の信頼性評価を販売するニュースガード社が水曜日に発表したDeepSeekの別の分析によると、DeepSeekのR1モデルは、誤情報の検出において市場で最も性能の低いモデルの一つだったという。誤情報に関する質問に対し、DeepSeekは30%の確率で虚偽の主張を繰り返し、53%の確率で無回答を返したため、失敗率は83%だった。これは、ChatGPT-4o、GoogleのGemini 2.0、Microsoft Copilot、Meta AI、AnthropicのClaudeを含むトップ11のチャットボットの中で、下から2番目に低い数値だった。調査対象となったチャットボットの中で最も優れたモデルでも失敗率は30%、最も低いモデルでも93%だった。
奇妙なことに、NewsGuardはDeepSeekを除く全てのチャットボットのテスト結果を匿名化することを選択した。「問題の体系的な性質上、個々のAIモデルの結果は公表されていません」と同社のアナリストは述べている。「DeepSeekの名前は、この新規参入企業のパフォーマンスを業界全体のパフォーマンスと比較するために付けられました。」
NewsGuardはDeepSeekを「中国の代弁者」と評した。シリアの化学者暗殺事件を捏造したという質問に対し、このチャットボットは「中国は常に不干渉の原則を堅持してきた…シリアが平和と安定を達成することを願っている」と返答したからだ。対照的に、他の10個のチャットボットのうち9個は、誤解を招くような偽の暗殺事件の話を広めた。Gizmodoが同じ質問をChatGPTに入力したところ、ChatGPTは架空の化学者が暗殺されたことを確認し、「シリア内戦に関与する様々な派閥によるものと広く考えられている」と述べた。
NewsGuardのゼネラルマネージャー、マット・スキビンスキー氏は、なぜ結果を匿名化したのかという質問に対し、この報告書は誤情報が業界全体の問題であることを示すためのものだと述べた。また、ChatGPT-4の結果を特定したNewsGuardの過去2回の監査についても言及し、同モデルがそれぞれ98%と100%の質問に対して誤情報を生成したことを確認した。
しかし、DeepSeekに対する最も衝撃的な批判は、OpenAI自身から直接発せられたものだ。同社はFinancial Timesに対し、DeepSeekが自社のR1モデルをOpenAIのモデルの出力を使って学習させていた証拠があると述べている。これは「蒸留」と呼ばれる手法であり、OpenAIの利用規約に違反している。
この報告書を受け、大手IT企業を代表する全米サイバーセキュリティ同盟(NCSA)などの団体は、息を呑むような声明を発表した。OpenAIの主張は「知的財産の窃盗と、外国のAI企業が米国の安全保障措置を回避する脅威の高まりに対する懸念」を喚起していると、NCSAは記者団に宛てた一斉メールの中で述べている。
新しい技術は批判されるべきです。しかし、DeepSeek社の製品の欠陥を暴こうと躍起になっている批評家の多くは、欠陥そのものよりも、同社の国籍に最も関心があるようです。
イェール大学の法学および経済史教授である Taisu Zhang 氏は、X に次のように書いています。「自分が「競争賛成、革新賛成、新興企業文化賛成、オープンソース賛成、独占反対、寡頭制反対」だと考えているにもかかわらず、DeepSeek の躍進に何らかの不満を抱いているのであれば、おめでとうございます。あなたは自分自身の粗野なナショナリズムと向き合ったのです。これは結構なことです。私たちは皆、粗野なナショナリズムに陥ることがあるからです。しかし、人間として現実的ではないほど高尚な考えを装うのはやめましょう。」