
人工知能 (AI) ツールは、管理タスクの自動化やセキュリティの監視など、生産性の向上、意思決定の改善、コストの削減を目的として職場でますます利用されています。
しかし、職場を AI と共有すると、「そのテクノロジーを信頼できるのか?」という疑問を含め、特有の課題が生じます。
17,000人以上を対象とした17か国での新たな調査では、職場におけるAIの信頼度と信頼の程度、AIのリスクとメリットの見方、AIの信頼に求められるものについて明らかにしました。
職場でAIを信頼する意思のある従業員は2人に1人しかいないことがわかりました。その態度は、職務、居住国、AIの用途によって異なります。しかし、AIを信頼するために必要なものについては、世界中の人々がほぼ一致した見解を示しています。
AIに関する世界規模の調査
AIは仕事のやり方やサービスの提供方法を急速に変革しており、世界経済のあらゆるセクターが人工知能ツールに投資しています。こうしたツールは、マーケティング活動の自動化、スタッフの様々な質問への対応、さらには従業員のモニタリングまで可能にします。
職場におけるAIに対する人々の信頼と態度を理解するため、オーストラリア、ブラジル、カナダ、中国、エストニア、フィンランド、フランス、ドイツ、インド、イスラエル、日本、オランダ、シンガポール、南アフリカ、韓国、イギリス、アメリカの17か国、17,000人以上を対象に調査を実施しました。これらのデータは、各国を代表するサンプルを用いており、ChatGPTのリリース直前に収集されました。
私たちが調査した国々は、AI への投資や AI 関連の雇用からもわかるように、それぞれの地域における AI 活動のリーダーです。
従業員は職場で AI を信頼していますか?
従業員のほぼ半数 (48%) が、職場で AI を信頼すること、たとえば AI の決定や推奨に頼ることや、AI ツールが機能できるように情報を共有することなどに慎重であることがわかりました。
人々は、AI システムの安全性、セキュリティ、公平性、プライバシー権の尊重の程度よりも、AI システムが信頼性の高い出力を生成し、役立つサービスを提供する能力を信頼しています。
しかし、信頼は状況に依存し、AIの目的によって異なります。下の図に示すように、ほとんどの人は、業務の拡張や自動化、従業員の支援のために職場でAIを活用することには抵抗を感じていません。しかし、人事、パフォーマンス管理、監視といった目的でAIを活用することには抵抗を感じているようです。
意思決定ツールとしてのAI
ほとんどの従業員は、経営上の意思決定におけるAIの活用を容認しており、実際には人間による意思決定よりもAIの関与を好んでいます。しかし、望ましい選択肢は、人間がAIシステムよりも多くの、あるいは少なくとも同等の権限を保持することです。
これはどのようなものになるでしょうか?最も支持を集めたのは、人間75%、AI25%、つまり50%対50%の割合での意思決定協働でした。これは、管理職がAIを意思決定支援として活用することを明確に望んでいる一方で、職場におけるAIによる完全自動化された意思決定には支持が薄いことを示しています。これらの意思決定には、採用や昇進、あるいはリソースの配分方法などが含まれます。
調査対象者のほぼ半数が AI によって仕事の能力と自律性が向上すると考えている一方で、AI によって失われる仕事よりも創出される仕事のほうが多いと考えている人は 3 人に 1 人未満 (29%) でした。
これは顕著な恐怖を反映しています。77% の人が失業を懸念していると報告し、73% の人が AI によって重要なスキルを失うことを懸念していると述べています。
しかし、管理職は他の職種に比べてAIが雇用を創出すると考える傾向が強く、そのリスクに対する懸念も低い。これは、管理職が他の従業員グループよりも職場におけるAIの活用に安心感を持ち、信頼し、支持しているという、より広範な傾向を反映している。
通常、職場での AI 導入の推進役はマネージャーであるため、こうした異なる見解は AI ツールを導入する組織内で緊張を生む可能性があります。
AIへの信頼は深刻な懸念事項
若い世代や大学教育を受けた世代は、AIに対する信頼と安心感も高く、仕事でAIを活用する可能性も高い。しかし、時間が経つにつれて、雇用における分断がさらに深まる可能性がある。
調査結果には国による重要な違いが見られました。例えば、西洋諸国の人々は職場でのAIの活用に対する信頼度が最も低い一方、新興国(中国、インド、ブラジル、南アフリカ)の人々はより信頼感があり、AIに対して安心感を抱いています。
この違いは、新興国の大多数の人々とは対照的に、西洋諸国では少数の人々が AI のメリットがリスクを上回ると考えているという事実を部分的に反映しています。
AI を信頼できるものにするにはどうすればよいでしょうか?
良いニュースとしては、調査結果から、AIを信頼するために確立されていると期待される原則と実践について、人々が一致していることが明らかになりました。平均97%の人が、これらの原則と実践のそれぞれがAIへの信頼にとって重要であると回答しています。
AI の正確性と信頼性の監視、AI の「行動規範」、独立した AI 倫理審査委員会、国際的な AI 標準の遵守などの監視ツールが導入されていれば、人々は AI をより信頼するだろうと述べています。
すべての国における信頼できる AI の原則と実践に対するこの強力な支持は、組織が信頼を確保する方法で AI を設計、使用、管理する方法の青写真となります。
ニコール・ギレスピー(クイーンズランド大学経営学教授、KPMG組織信頼学科長)、ケイトリン・カーティス(クイーンズランド大学研究員)、ジャバド・プール(クイーンズランド大学研究員)、スティーブン・ロッキー(クイーンズランド大学ポストドクター研究員)
この記事はクリエイティブ・コモンズ・ライセンスに基づきThe Conversationから転載されました。元の記事はこちらです。