あなたはロボットの一部ですか?

あなたはロボットの一部ですか?
画像: TatnattanPhotos
画像: TatnattanPhotos (Shutterstock)

ChatGPTは私の大学で非常に話題になっています。教員たちは学術的誠実さについて深く懸念している一方で、大学側は「この新たな領域」の「恩恵を受け入れる」よう促しています。これは、同僚のプニャ・ミシュラが新技術をめぐる「悲観的誇大宣伝サイクル」と呼ぶものの典型的な例です。同様に、人間とAIの相互作用に関するメディア報道は、偏執的であろうと夢想的であろうと、その新しさを強調する傾向があります。

ある意味、これは紛れもなく新しいものです。ChatGPTとのやり取りは、まるでテクノロジージャーナリストがチャットボットに愛を告白するのを止められなかった時のように、前例のないものに感じられるかもしれません。しかし、私見では、人間と機械の境界線、つまり私たちが互いにやりとりする方法における境界線は、ほとんどの人が認めたいと思うほど曖昧であり、この曖昧さがChatGPTをめぐる議論の大きな理由となっています。

ロボットではないことを確認するためにボックスにチェックを入れるように求められても、私は何も考えません。もちろん、私はロボットではありません。一方で、メールクライアントが文章を完成させるための単語やフレーズを提案したり、携帯電話が次に私が送信しようとしている単語を推測したりすると、私は自分自身を疑い始めます。あれが私が言いたかったことだったのだろうか?アプリが提案してくれなかったら、私はそれに気付いただろうか?私はロボットの要素を持っているのだろうか?これらの大規模な言語モデルは、膨大な量の「自然な」人間の言語でトレーニングされています。だからと言って、ロボットも人間の要素を持っていると言えるのでしょうか?

AIチャットボットは新しいものですが、言語変化に関する公的な議論はそれほど新しいものではありません。言語人類学者として、ChatGPTに対する人間の反応こそが最も興味深い点です。こうした反応を注意深く観察すると、AI対話者との曖昧で不安な、そして今もなお進化を続ける関係の根底にある言語に関する信念が明らかになります。

ChatGPTなどの技術は、人間の言語を鏡のように映し出しています。人間は言語に関して、非常に独創的であると同時に独創的ではない側面も持ち合わせています。チャットボットはこれを反映し、他の人間とのやり取りに既に存在する傾向やパターンを明らかにします。

AI チャットボット: 創造者か模倣者か?

最近、著名な言語学者ノーム・チョムスキーとその同僚たちは、チャットボットは説明ではなく記述と予測しかできないため、「認知進化の人類以前の段階、あるいは非人類の段階にとどまっている」と主張しました。チャットボットは、新しいフレーズを生成する無限の能力を活用するのではなく、膨大な量の入力によってそれを補い、どの単語を使うべきかを高い精度で予測できるのです。

これは、チョムスキーが歴史的に認識した、人間の言語は単に子供が大人の話し手を模倣するだけでは生成できないという認識と一致しています。人間の言語能力は生成的でなければなりませんでした。なぜなら、子供は自分が生成するすべての形態を説明できるだけの十分な情報を得ておらず、その多くは子供が以前に聞いたことのないものであるからです。これが、人間が、洗練されたコミュニケーションシステムを持つ他の動物とは異なり、理論上無限の新しいフレーズを生成する能力を持っている理由を説明する唯一の方法です。

ノーム・チョムスキーは言語獲得の生成理論を開発した。

しかし、この議論には問題があります。人間は無限に新しい言語の連鎖を生み出す能力を持っているにもかかわらず、通常はそうしません。人間は過去に出会った言語の断片を絶えず再利用し、意識的であろうと無意識的であろうと、そこにいるかいないかに関わらず、他者の発話に反応するように、自分の発話を形作っているのです。

言語人類学者としてチョムスキー的な存在であるミハイル・バフチンは、「私たちの思考そのもの」は、言語と共に、「他者の思考との相互作用と葛藤の過程で生まれ、形作られる」と述べています。私たちの言葉は、私たち自身や他者が過去にその言葉に触れた文脈を「味わい」、常にそれを自分のものにしようと奮闘しているのです。

盗作ですら、見た目ほど単純ではありません。他人の言葉を盗むという概念は、コミュニケーションは常に、それぞれが独自のアイデアやフレーズを独自に生み出す人々の間で行われることを前提としています。人はそう思いたがるかもしれませんが、現実はほぼすべてのやり取りにおいてそうではありません。私が娘に父の言葉をそのまま繰り返したり、大統領が外部の利益団体の見解を表明した他人の原稿をスピーチに使用したり、セラピストが教師から教えられた原則に従ってクライアントと接したりする場合などです。

いかなるやり取りにおいても、発信(話す、または書く)と受容(聞く、または読んで理解する)の枠組みは、何が言われるか、どのように言われるか、誰が言うか、そしてそれぞれの場合で誰が責任を負うかという点において異なります。

AIが人間について明らかにするもの

人間の言語に関する一般的な概念では、コミュニケーションとは主に、人間同士が一から新しいフレーズを生み出すものと考えられています。しかし、AIセラピーアプリ「Woebot」が、人間同士のセラピーセッションで得られた会話を用いて、人間のセラピストによって人間のクライアントと対話するように訓練されたとき、この前提は崩れ去ります。私のお気に入りのソングライターの一人、The Decemberistsのコリン・メロイがChatGPTに自分のスタイルで歌詞とコードを書くように指示したとき、この前提は崩れ去ります。メロイは、出来上がった曲を「驚くほど平凡」で直感に欠けていると同時に、不気味なほどDecemberistsの曲らしいと感じました。

しかしメロイが指摘するように、人間が作ったポップソングのコード進行、テーマ、韻もまた、他のポップソングを模倣する傾向がある。それは、政治家の演説が、既に聖書の言葉で満ち溢れていた過去の世代の政治家や活動家の言葉から自由に引用されているのと同様だ。ポップソングや政治演説は、より一般的な現象を特に鮮やかに示している。誰かが話したり書いたりするとき、どれだけがチョムスキー風に新たに生み出されているのだろうか?どれだけがバフチン風にリサイクルされているのだろうか?私たちはロボットの一部なのだろうか?ロボットの一部は人間なのだろうか?

チョムスキーのように、チャットボットは人間の話し手とは異なると主張する人たちは正しい。しかし、バフチンのように、私たちは自分の言葉を本当にコントロールすることは決してできない、少なくとも私たちが想像するほどにはできないと指摘する人たちも正しい。その意味で、ChatGPTは私たちに、古くからある問いを改めて考えさせる。私たちの言語は、どれほどが本当に私たちのものなのか?


AI、チャットボット、そして機械学習の未来についてもっと知りたいですか?人工知能に関する当社の記事をぜひご覧ください。また、「最高の無料AIアートジェネレーター」や「OpenAIのChatGPTについて私たちが知っていることすべて」といったガイドもご覧ください。

ブレンダン・H・オコナー、アリゾナ州立大学トランスボーダー研究学部准教授

この記事はクリエイティブ・コモンズ・ライセンスに基づきThe Conversationから転載されました。元の記事はこちらです。

Tagged: