画面の向こう側に人間がいると真に信じ込ませるプログラムを設計することは、AIという概念が現実に近づいて以来、AI開発者の目標であり続けてきました。研究機関OpenAIは最近、主力製品であるChatGPTに、より人間らしく見えるよう、目、耳、そして声を追加すると発表しました。OpenAIのAI安全エンジニアは、チャットボットの音声モードを使って即興のセラピーセッションを行った後、「かなり感動した」と述べています。
「音声モードでChatGPTと、ストレスやワークライフバランスについて、かなり感情的で個人的な会話をしました」と、OpenAIの安全システム責任者であるリリアン・ウェン氏は昨日のツイートで述べた。「興味深いことに、話を聞いてもらえて、温かい気持ちになりました。これまでセラピーを受けたことはありませんでしたが、これがまさにそれかもしれません。普段は生産性向上ツールとしてしか使っていない方は、ぜひ試してみてください。」
OpenAIの社員として自社製品の利点を喧伝するウェン氏の経験は、もちろん鵜呑みにすべきではないが、シリコンバレーがAIを庶民生活の隅々まで浸透させようとする最近の試みを物語っている。また、AIの台頭が進むこの時代に漂う「古いものが全て新しくなる」という雰囲気も象徴している。
1960年代の技術楽観主義は、「AI」に関する初期の実験を生み出し、コンピューターを用いて人間の思考プロセスを模倣する試みとして現れました。そのアイデアの一つが、マサチューセッツ工科大学のジョセフ・ワイゼンバウムが開発した自然言語処理コンピュータープログラム「Eliza」でした。

エリザは、心理療法士カール・ロジャーズのパロディをモデルにした「ドクター」というスクリプトを実行した。人々は、スティグマを感じながら息苦しい精神科医の診察室に座っている代わりに、同じように息苦しいコンピュータ端末の前に座り、深刻な問題に対する助けを求めることができる。ただし、エリザはそれほど賢くはなく、スクリプトは特定のキーワードやフレーズを拾い上げ、カール・ロジャーズのように、信じられないほど単純な方法でユーザーにそれを伝えるだけだった。奇妙な展開だったが、ワイゼンバウムは、エリザのユーザーがプログラムの初歩的な出力に感情移入し始めていることに気づき始めた。ウェン自身の言葉を借りれば、「話を聞いてもらえて温かい気持ちになった」と言えるだろう。
「私が気づいていなかったのは、比較的単純なコンピュータプログラムにごく短時間さらされるだけで、ごく普通の人々に強力な妄想的思考を引き起こす可能性があるということだ」とワイゼンバウムは後に1976年に出版した著書『コンピュータパワーと人間の理性』の中で書いている。
AIセラピーの最近のテストも同様に失敗に終わっていると言っても控えめな表現でしょう。ピアツーピアのメンタルヘルスアプリKokoは、プラットフォームのユーザー4,000人を対象に、カウンセラーに扮する人工知能の実験を行うことにしました。同社の共同設立者であるRob Morris氏は今年初め、Gizmodoの取材に対し、「これが未来になる」と語っていました。カウンセラー役のユーザーは、OpenAIのChatGPT3のアプリケーションであるKoko Botを使用して応答を生成し、それを編集、送信、または完全に拒否することができます。このツールを使用して3万件のメッセージが作成されたと伝えられ、好意的な反応がありましたが、チャットボットに活気がないと感じたためKokoはサービスを停止しました。Morris氏がこの体験をTwitter(現在はXとして知られています)で共有したところ、大衆の反発は耐え難いものとなりました。
より暗い側面として、今年初め、ベルギー人男性の未亡人が、夫が自殺を促すAIとの会話に夢中になった後に自殺したと語った。
全米摂食障害協会(NEDA)は今年5月、摂食障害に苦しむ人々が助けを求めることができるホットラインを廃止するという大胆な決断を下しました。NEDAはホットラインのスタッフをTessaというチャットボットに置き換えることを決定しました。この大量解雇は、従業員が組合を結成してからわずか4日後に発生しました。それ以前にも、スタッフはリソース不足と過重労働を感じていたと報じられており、特にリスクの高い人々と密接に仕事をしている状況では、これは大きな痛手となります。Tessaの導入から1週間も経たないうちに、NEDAはチャットボットを閉鎖しました。NEDAのInstagramページの投稿によると、Tessaは「プログラムとは無関係で有害な情報を提供した可能性がある」とのことです。
つまり、セラピーを受けたことがなく、代わりにチャットボットを試してみようと考えているなら、やめておきましょう。