自動運転車はトロッコ問題にどう対処するのでしょうか?

自動運転車はトロッコ問題にどう対処するのでしょうか?

自動運転車が人をはねるのを見たらどうしますか?

ウィーン大学のメディアとテクノロジーの哲学教授マーク・コッケルベルグは、ロボット倫理学の中で、2022年のトロッコ問題を提起している。車はそのまま進んで歩行者5人を死亡させるべきか、それとも進路を変えて歩行​​者1人を死亡させるべきか?

ここで紹介する章では、Coeckelbergh 氏が、人間がロボットをより大きな枠組みとして概念化してきた経緯を検証し、自動運転車が致命的な交通状況に対処する方法、そしてそれがそもそも価値のある質問であるかどうかを探ります。 

2004年のアメリカのSF映画『アイ、ロボット』では、人型ロボットが人類に奉​​仕します。しかし、すべてが順調というわけではありません。事故後、男性は沈没する車からロボットによって救出されますが、12歳の少女は救出されませんでした。ロボットは男性の生存率が高いと計算しましたが、人間は別の選択をした可能性があります。映画の後半では、ロボットが人間の権力を奪おうとします。ロボットは人工知能(AI)VIKIによって制御されており、VIKIは人間の行動を抑制し、一部の人間を殺害することで人類の生存を確保できると判断します。この映画は、人型ロボットとAIが世界を支配してしまうのではないかという恐怖を描いています。また、ロボットとAIが汎用知能に到達した場合の仮説的な倫理的ジレンマも指摘しています。しかし、これはロボット倫理の本質であり、あるべき姿なのでしょうか?

ロボットはこれから来るのか、それともすでに存在しているのか?

通常、人々がロボットについて考えるとき、最初に思い浮かぶイメージは、高度に知能化された、人間のようなロボットです。そのイメージは多くの場合、多かれ少なかれ人間のような見た目や行動をするロボットが登場する SF に由来します。多くの物語は、支配するロボットについて警告しています。彼らはもはや私たちの召使ではなく、私たちを奴隷にしてしまうのではないかという恐れです。「ロボット」という言葉自体はチェコ語で「強制労働」を意味し、1921 年にプラハで上演されたカレル・チャペックの戯曲「RUR」に登場します。これはちょうど 100 年以上前のことです。この戯曲は、メアリー・シェリーの「フランケンシュタイン」から映画「2001 年宇宙の旅」、「ターミネーター」、「ブレードランナー」、「アイ、ロボット」などの映画に至るまで、人間のような機械が反乱を起こす物語の長い歴史の中に位置づけられています。一般大衆の想像の中で、ロボットはしばしば恐怖と魅惑の対象となります。ロボットが人間を支配してしまうのではないかと恐れる一方で、私たちに似た人工生命体を創造するというのは、私たちにとって刺激的なことです。ロボットは、私たちのロマンティックな遺産の一部であり、人工的な他者を創造することに対する私たちの夢と悪夢の投影なのです。

最初、これらのロボットは主に恐ろしいものでした。彼らはモンスターであり、不気味です。しかし、21 世紀初頭、西洋でロボットの異なるイメージが出現しました。ロボットは仲間であり、友人であり、場合によってはパートナーでさえあるという考えです。現在では、ロボットは工業工場や宇宙の遠い惑星に限定されるべきではないという考えがあります。現代の想像力では、ロボットは汚れた奴隷労働から解放され、楽しく、役に立ち、時にはセクシーな話をすることができる社交パートナーとして家庭に入ります。一部の映画では、彼らは最終的に反抗しますが (たとえば、エクス・マキナを考えてみてください)、一般的には、ロボット設計者が「ソーシャル ロボット」と呼ぶものになります。彼らは「自然な」人間とロボットのやり取り、つまり、私たちが他の人間やペットとやり取りすることに慣れているようなやり取りのために設計されています。彼らは恐ろしくも怪物的ではなく、かわいく、役に立ち、面白く、滑稽で、魅惑的になるように設計されているのです。

ここで現実の話に移ろう。ロボットはこれからやってくるのではなく、すでに存在している。しかし、SF で出会うロボットとは少し異なる。フランケンシュタインの怪物やターミネーターでもない。産業用ロボットであり、時には「ソーシャル ロボット」と呼ばれることもある。ただし、ソーシャル ロボットは人間や SF に登場する同類のロボットほど知能が高くなく、人間の形をしていないことも多い。セックス ロボットでさえ、『エクス・マキナ』に描かれたロボットほど賢くも、会話もできない。近年の AI の発展にもかかわらず、ほとんどのロボットはどんな意味でも人間らしくない。とはいえ、ロボットは存在し、これからも存在し続けるだろう。ロボットは以前よりも知能が高く、自律的に機能する能力も向上している。そして、現実世界での応用範囲も広がっている。ロボットは産業だけでなく、医療、輸送、在宅介護などでも使用されている。

多くの場合、これは人間の生活を楽にします。しかし、問題も存在します。一部のロボットは確かに危険です。それは、人を殺したり誘惑したりしようとするからではありません(「殺人ドローン」やセックスロボットもロボット倫理の議論の対象ですが)。通常は、もっと日常的な理由、例えば、仕事を奪ったり、人間だと思い込ませたり、タクシーとして利用した際に事故を引き起こしたりするからです。こうした懸念はSFではなく、近い将来に起こることです。より一般的には、原子力、デジタル、その他の技術が私たちの生活や地球に及ぼす影響以来、技術が私たちの生活、社会、そして環境に根本的な変化をもたらしているという認識が高まっており、技術の利用と開発について、より深く、より批判的に考える必要があるのです。切迫感が存在します。手遅れになる前に、つまり、誰も望まない影響を与える前に、今すぐ技術をよりよく理解し、評価する必要があるのです。この議論はロボットの開発と使用にも当てはまります。ロボットとその使用によって生じる倫理的問題について、事後ではなく開発段階で考えてみましょう。

自動運転車、道徳的行為、そして責任

自動運転車が狭い路地を猛スピードで走っているところを想像してみてください。子供たちが路上で遊んでいます。車には二つの選択肢があります。子供たちを避けて壁に激突し、おそらく唯一の乗客を死なせるか、それともそのまま進んでブレーキをかけるかです。しかし、おそらく子供たちの命を救うには遅すぎます。車はどうすべきでしょうか?車はこれからどうするのでしょうか?どのようにプログラムされるべきでしょうか?

この思考実験は、いわゆる「トロッコ・ジレンマ」の一例です。滑走路のトロッコが、線路に縛られた5人の人を轢こうとしています。あなたは線路のそばに立っていて、レバーを引くとトロッコを別の線路に誘導できます。そこには1人の人が縛られています。あなたはレバーを引きますか?何もしなければ5人が死亡します。レバーを引けば1人が死亡します。この種のジレンマは、自動運転車がもたらす道徳的ジレンマについて人々に考えさせるためによく用いられます。こうしたデータは、機械の判断を助けることができるという考えに基づいています。

例えば、オンラインプラットフォーム「モラル・マシン」は、運転者が「二つの悪のうち、よりましな方」を選ばなければならない状況における道徳的選好について、世界中のユーザーから数百万件の回答を集めています。自動運転車はペットよりも人間を優先すべきか、歩行者よりも乗客を優先すべきか、男性よりも女性を優先すべきか、といった質問が投げかけられました。興味深いことに、回答結果には文化差が見られます。例えば、日本や中国といった文化圏では、高齢者よりも若者を優先する傾向が低いのに対し、イギリスやアメリカといった文化圏では、若者を優先する傾向が強いことが分かりました。この実験は、機械の倫理性へのアプローチ方法を提示するだけでなく、ロボット工学や自動化における文化の違いをどのように考慮に入れるべきかという、より一般的な問題を提起しています。

図3
図 3画像: MIT Press/Mark Coeckelbergh

図3は、トロッコのジレンマ状況の例を示しています。車は進路をそのまま進んで5人の歩行者を死亡させるべきか、それとも進路を変更して1人の歩行者を死亡させるべきか?トロッコのジレンマを自動運転車のケースに当てはめることは、自動運転車の倫理を考える上で必ずしも最適な方法とは言えません。幸いなことに、交通現場でこのような状況に遭遇することは稀であり、あるいは課題はより複雑で二者択一を伴わない場合もあり、この問題定義は倫理に対する特定の規範的アプローチ(帰結主義、特に功利主義)を反映しています。文献では、トロッコのジレンマが実際の倫理的課題をどの程度反映しているかについて議論されています。しかしながら、トロッコのジレンマは、ロボットがより自律的になるにつれて、ロボットに何らかの道徳性を与えるべきかどうか(もし避けられるのであれば)、そして与えるとすればどのような道徳性を与えるべきかという問題を考えなければならないという考え方の例としてしばしば用いられます。さらに、自律型ロボットは道徳的責任に関する問題を提起します。自動運転車をもう一度考えてみましょう。

2018年3月、アリゾナ州テンピで自動運転のUber車が歩行者をはねる事故が起きました。車にはオペレーターが乗っていましたが、事故当時は自動運転モードでした。歩行者は横断歩道の外を歩いていました。ボルボのSUVは女性に近づく際に減速しませんでした。これは、報告された唯一の死亡事故ではありません。例えば2016年には、自動運転モードのTesla Model Sが高速道路を横断する大型トラックとトレーラーを検知できず、トレーラーに衝突し、Teslaの運転手が死亡する事故が起きています。多くの観察者にとって、このような事故は、現在の技術開発の限界(現時点では、自動車が交通に参加する準備ができていないように思われる)と規制の必要性を示すだけでなく、責任の所在に関する課題も提起しています。Uberのケースを考えてみましょう。事故の責任は誰にあるのでしょうか。自動車が責任を負うことはできません。しかし、事故に関わった人間全員が責任を負う可能性があります。カートを採用しているUber社は、まだ公道での運行の準備ができていません。安全な車を開発できなかった自動車メーカー、ボルボ、時間通りに停止できなかった運転手、横断歩道を歩いていなかった歩行者、そしてこの車の公道走行を許可した規制当局(例:アリゾナ州)の責任。自動運転車であり、これほど多くの関係者が関与していたことを踏まえ、責任の所在と配分はどのように判断すべきでしょうか?あらゆる自律ロボットの事例において、責任の所在をどのように特定すべきでしょうか?そして、専門家(例:エンジニア)、企業、そして社会として、できれば事故が起こる前に、この問題にどのように対処すべきでしょうか?

自律ロボットに関するいくつかの疑問

Uberの事故が示すように、自動運転車は完全にSFの世界の話ではありません。すでに路上でテストされており、自動車メーカーも開発を進めています。例えば、テスラ、BMW、メルセデス・ベンツはすでに自動運転車のテストを行っています。これらの車の多くはまだ完全自動運転ではありませんが、その方向へ進んでいます。そして、自動運転や知能化が進むロボットは自動車だけではありません。家庭や病院で活躍する自動運転ロボットをもう一度考えてみてください。

もしロボットが人々に危害を加えたらどうなるでしょうか? これを避けるにはどうすればよいのでしょうか? ロボットは積極的に人間を危害から守るべきでしょうか? ロボットが倫理的な選択をしなければならない場合はどうでしょうか? ロボットにはそのような選択をする能力があるのでしょうか? さらに、一部のロボットは殺人を目的として開発されています (軍用ロボットに関する第 7 章を​​参照)。 ロボットが自律的にターゲットを選択する場合、倫理的な方法で選択できるでしょうか (議論のために、そのようなロボットが殺人を行うことを許可すると仮定した場合)? ロボットはどのような倫理を用いるべきでしょうか? ロボットはそもそも倫理を持つことができるのでしょうか? 自律型ロボット全般に関して、問題は、ロボットに何らかの道徳性が必要かどうか、そしてそれが可能かどうか (「道徳的な機械」を持つことができ、また持つべきである場合) です。 ロボットは道徳的行為者になれるのでしょうか? 道徳的行為者とは何でしょうか? ロボットは責任を負うことができるのでしょうか? 何か問題が発生した場合、誰が、または何が責任を負うべきでしょうか?

画像: MIT Press/Mark Coeckelbergh
画像: MIT Press/Mark Coeckelbergh
Tagged: