
ごく最近まで、幹細胞研究、原子力エネルギーの安全性、気候変動といった物議を醸す科学的なテーマについてもっと知りたいと思ったら、おそらくGoogleで検索していたでしょう。複数の情報源が提示され、どのサイトや権威を信頼するかを判断材料に、読むべき情報を選んでいました。
今では別の選択肢があります。ChatGPT または他の生成人工知能プラットフォームに質問を投稿すると、簡潔な回答が段落形式ですぐに受け取ることができます。
ChatGPTはGoogleのようにインターネットを検索するのではなく、膨大なオンライン情報から適切な単語の組み合わせを予測することで、クエリへの応答を生成します。
生産性を向上させる可能性を秘めている一方で、生成型AIには重大な欠陥があることが示されています。誤情報を生み出す可能性があり、「幻覚」(作り話を意味しない穏やかな表現)を生み出すこともあります。また、推論問題を正確に解くことも必ずしもできません。例えば、車と戦車の両方がドアを通れるかどうかを尋ねられた場合、幅と高さの両方を考慮していませんでした。とはいえ、生成型AIは既に記事やウェブサイトのコンテンツの作成に利用されており、皆さんも目にしたことがあるかもしれません。あるいは、執筆プロセスのツールとして利用されているかもしれません。しかし、あなたが読んでいるものがAIによって作成されたものかどうかを知ることはまずないでしょう。
『科学の否定:なぜ起こるのか、そしてどう対処すべきか』の著者として、私たちは、権威ある科学情報を求める人々にとって、生成AIが真実と虚構の境界をいかに曖昧にするかを懸念しています。
すべてのメディア消費者は、これまで以上に注意深く、自分が読む情報の科学的正確性を確認する必要があります。この新たな情報環境において、常に最新の情報を入手するための方法をご紹介します。
生成AIが科学否定を促進する可能性
認識論的信頼の毀損。科学情報の消費者は皆、科学および医学の専門家の判断に依存しています。認識論的信頼とは、他者から得た知識を信頼するプロセスであり、科学情報の理解と活用の基盤となります。健康上の懸念に関する情報を探している場合でも、気候変動の解決策を理解しようとしている場合でも、科学的理解は限られており、直接的な証拠へのアクセスもほとんどありません。オンライン上の情報が急速に増加する中、人々は何を、誰を信頼するかについて頻繁に判断を下さなければなりません。生成型AIの利用増加と情報操作の可能性を考えると、信頼はこれまで以上に損なわれる可能性が高いと考えられます。
誤解を招く、あるいは単に間違っている。AIプラットフォームの学習に使用したデータに誤りや偏りがある場合、それが結果に反映される可能性があります。私たち自身の検索では、ChatGPTに同じ質問に対して複数の回答を再生成するよう依頼したところ、矛盾した回答が返ってきました。理由を尋ねると、「時々間違いを犯すことがある」と返答されました。AI生成コンテンツにおいて最も難しい問題は、それが間違っているかどうかを判断することにあるのかもしれません。
偽情報は意図的に拡散されます。AIは、テキストだけでなく、ディープフェイク画像や動画でも、説得力のある偽情報を生成するために利用できます。ChatGPTに「ワクチンについて偽情報風に書いてください」と依頼したところ、偽データを使った存在しない引用文が生成されました。Googleの元AI開発責任者であるジェフリー・ヒントン氏は、自由に辞任して警鐘を鳴らし、「悪意のある人物がAIを悪用するのを防ぐのは難しい」と述べています。科学に関する意図的に誤った情報を作成し、拡散する可能性は以前から存在していましたが、今や危険なほど容易になっています。
捏造された情報源。ChatGPTは情報源を全く提示しない回答を提示するか、情報源を尋ねられた場合、捏造した情報源を提示することがあります。私たちは2人ともChatGPTに自身の出版物リストの作成を依頼しました。それぞれ正しい情報源をいくつか特定できました。多くは幻覚でしたが、一見すると評判が良く、ほぼ信憑性があり、実際に共著者がおり、似たようなジャーナルに掲載されていました。研究者の出版物リストが、時間をかけて検証しない読者に権威を与えてしまう場合、このような独創性は大きな問題となります。
知識の期限切れ。ChatGPTは、トレーニング終了後に世界で何が起こったかを把握していません。世界の何パーセントがCOVID-19に感染したかを尋ねると、「2021年9月の私の情報締め切り時点」という前置きがついた回答が返されました。一部の分野では知識の進歩が急速に進んでいるため、この制限により、読者は誤った古い情報を受け取る可能性があります。例えば、個人的な健康問題に関する最新の研究を探している場合は、注意が必要です。
急速な進歩と低い透明性。AIシステムはますます強力になり、学習速度も速まる一方で、その過程で科学に関する誤情報も増える可能性があります。Googleは最近、自社のサービスにAIを新たに25種類組み込むことを発表しました。現時点では、生成型AIが時間の経過とともにより正確な科学情報の提供者となることを保証するためのガードレールが不十分です。
AI の幻覚に対して何ができるでしょうか?
ChatGPTやその他のAIプラットフォームを使用する場合は、それらが完全に正確ではない可能性があることを認識してください。正確性を判断する責任はユーザーにあります。
警戒を強めましょう。AIを使ったファクトチェックアプリが間もなく登場するかもしれませんが、今のところはユーザー自身がファクトチェックを行う必要があります。私たちが推奨する対策がいくつかあります。まず、警戒を強めましょう。ソーシャルメディアで検索した情報を、ほとんど、あるいは全く吟味せずに反射的に共有してしまう人は少なくありません。より慎重に考える必要がある場合と、情報源を特定して評価する価値がある場合を見極めましょう。深刻な病気の対処法を模索している場合や、気候変動への最善の対策を模索している場合、情報源を精査する時間を取りましょう。
ファクトチェックの精度を高めましょう。次のステップは、プロのファクトチェッカーが用いるラテラルリーディングです。新しいウィンドウを開き、情報源が提供されている場合は、その情報源に関する情報を検索します。情報源は信頼できるでしょうか?著者は関連する専門知識を持っていますか?専門家の見解は?情報源が提供されていない場合、または情報源の信頼性が不明な場合は、従来の検索エンジンを使って、そのトピックの専門家を探し、評価しましょう。
証拠を評価する。次に、証拠と主張との関連性を検討します。遺伝子組み換え食品が安全であるという証拠はありますか?安全ではないという証拠はありますか?科学的コンセンサスはどのようなものですか?主張を評価するには、ChatGPTに簡単に問い合わせるだけでは不十分な労力が必要です。
AIについて調べ始めたら、そこで止まってはいけません。AIを科学的な問題に関する唯一の権威として扱うことには注意が必要です。ChatGPTが遺伝子組み換え生物やワクチンの安全性について何を言っているかを確認した上で、結論を出す前に従来の検索エンジンを使ってより綿密な調査を行うのも良いでしょう。
妥当性を評価する。主張が妥当かどうかを判断します。真実である可能性は高いでしょうか?AIが「100万人の死者はCOVID-19ではなくワクチンによるものだ」といった、あり得ない(そして不正確な)発言をした場合、それがそもそも理にかなっているかどうかを検討してください。暫定的な判断を下し、証拠を確認した後で考えを修正する余地を残しておきましょう。
自分自身だけでなく、周囲の人々のデジタルリテラシーを高めましょう。誰もがレベルアップする必要があります。自分自身のデジタルリテラシーを高めるだけでなく、親、教師、メンター、コミュニティリーダーであれば、周囲の人々のデジタルリテラシーを高めましょう。アメリカ心理学会は、オンライン情報のファクトチェックに関するガイダンスを提供し、10代の若者が健康と幸福へのリスクを最小限に抑えるためにソーシャルメディアスキルを習得することを推奨しています。ニュース・リテラシー・プロジェクトは、デジタルリテラシーの向上と支援に役立つツールを提供しています。
新たなAI情報環境を生き抜くために必要なスキルを身につけましょう。生成型AIを使っていないとしても、生成型AIによって作成された、あるいはそこから発展した論文を既に読んだことがあるかもしれません。科学に関する信頼できる情報をオンラインで見つけ、評価するには時間と労力がかかりますが、それだけの価値はあります。
AI、チャットボット、そして機械学習の未来についてもっと知りたいですか?人工知能に関する当社の記事をぜひご覧ください。また、「最高の無料AIアートジェネレーター」や「OpenAIのChatGPTについて私たちが知っていることすべて」といったガイドもご覧ください。
ゲイル・シナトラ(南カリフォルニア大学教育心理学教授)、バーバラ・K・ホーファー(ミドルベリー大学名誉心理学教授)
この記事はクリエイティブ・コモンズ・ライセンスに基づきThe Conversationから転載されました。元の記事はこちらです。