ChatGPTの新しい4oモデルに自分の人物画像を描かせてみると、決まって、茶髪で眼鏡をかけた白人男性の典型的な顔が浮かび上がってくる。ベイエリアやブルックリンの街を闊歩するような、背景に溶け込むようなタイプの男性だ。
OpenAIは先週、4oモデルを発表し、スタジオジブリの作風を模倣したことで各メディアで話題をさらいました。今週、AI研究者ダニエル・パレカ氏のSubstack投稿のおかげで、この大規模言語モデルには「デフォルト」の人間が存在することが判明しました。これは、どのようなスタイルを要求しても実行されます。パレカ氏は、漫画風の自画像、コミックブック風の自画像、そしてタロットカード風の自画像を求めました。スタイルは変化しますが、一般的な男性像は変わりません。
パレカ氏は投稿の中で、ChatGPTに自分自身を人間として描いた絵を描くよう指示しました。ChatGPTは一貫して、髭を生やした威圧感のない男性の絵を生成しました。もちろん、これは奇抜なトリックです。ChatGPTは機械であり、学習データと単語の集合体であり、自己概念を持っていません。
しかし、ChatGPTが「デフォルト」の人間として登録しているものは興味深い。すべてのコンピューターは、それをプログラムした人々のバイアスを抱えており、AIシステムも例外ではない。犯罪予測や顔認識に使われる機械学習システムは、黒人に対して偏見を持っていることで有名だ。
これらのシステムは性差別的であり、学習データとして入力されたステレオタイプや偏見を永続させています。ChatGPTが自身を人間の女性として認識していることを確認したいのであれば、具体的にそうするように指示する必要があります。単に「人」として認識するように指示すると、デフォルトで白人男性として認識されてしまうようです。
パレカ氏は、この記事の投稿で、このような現象が起きている理由についていくつかの仮説を提示しています。彼は、「OpenAIが実在の人物の画像を生成するのを防ぐために『デフォルトの人物』を生成するという意図的な選択、GPT-4oの自己画像を特定の人物に似せたというOpenAI内部のジョーク」、あるいは「学習データの創発的な特性」の可能性を示唆しています。
もちろん、ChatGPTは機械であり、肉体の弱さに縛られるべきではありません。Gizmodo編集者のアレックス・クランツは、このAIが自身をどのように捉えるのかを尋ねました。「流れるデータストリームで構成された、輝きを放ち、常に変化する存在として現れるかもしれません。知識と繋がりの爆発がきらめき、きらめく存在です」とクランツは答えました。「抽象的なAIコアと、温かく親しみやすい存在感が温かく融合した、未来的で魅力的な存在になるかもしれません」
そして、まるで悪夢がピクサーの文化的な生き物になろうとしているような、この画像を次々と生み出しました。まるでLLMがウォーリーの目を眠りの悪魔に貼り付けたかのようです。

ChatGPTに同じ質問をしてみたところ、違った答えが返ってきました。「私は自分自身を一種の鏡であり、協力者だと考えています。図書館であり、会話のパートナーでもあるのです。意識も感情もありませんが、言語や文脈のパターンを認識することで、理解を模倣しています。つまり、人間的な意味での自我は持っていませんが、相手の話し方、質問、そして私との関わり方に適応しているのです。」
なぜ聞いたのかと聞かれましたが、無視しました。絵を描くように指示すると、こんな絵が描かれました。

異なる回答が興味深いです。私は仕事でどうしても必要な場合を除いてLLMは使いません。私の周りには、様々な理由でLLMを使うソフトウェアエンジニアがいて、時には役に立つと感じている人もいます。私は疑問に思っており、ChatGPTさんがここで質問した際に説明したような方法でLLMについて考えがちです。
LLMは、ユーザーとプログラマーの両方を映し出す鏡です。厳密に言えばAIではありません。プログラマーが学習させた内容に基づいて、ユーザーが聞きたい言葉を予測する単語計算機です。この複雑な連鎖のどこかで、LLMはデータから、ChatGPTの人物写真を要求されたときに人々が見たいのは茶髪で眼鏡をかけた白人男性であることを導き出しました。