自動運転AIのトレーニングに「トロッコ問題」は不要!?
自動運転AIのトレーニングに「トロッコ問題」は不要!? / Credit:Canva
artificial-intelligence

自動運転AIの道徳的判断のトレーニングに「トロッコ問題」は役に立つのか? (2/3)

2023.12.19 Tuesday

前ページ人々の道徳観を明らかにする「トロッコ問題」

<

1

2

3

>

トロッコ問題は現実的ではなく、その結果はドライバーの道徳的な判断を反映していない

AIに人間のドライバーのような判断能力を持たせるためには、膨大なデータを与えてトレーニングする必要があります。

では、多くの人にトロッコ問題を行わせて、その判断結果を用いてAIをトレーニングするなら、AIの判断能力は向上するのでしょうか?

チェッキーニ氏ら研究チームは、「そうはならない」と主張しています。

なぜなら、トロッコ問題の結果は、人々の差別的な考えを反映している可能性があるからです。

トロッコ問題は2択であり、必ず誰かを優先する。回答結果は、地域や文化、宗教の影響を受けるため、その中に含まれる差別的な考えを排除しきれない
トロッコ問題は2択であり、必ず誰かを優先する。回答結果は、地域や文化、宗教の影響を受けるため、その中に含まれる差別的な考えを排除しきれない / Credit:Canva

例えば、ある種のトロッコ問題では「男か女か」「子供か高齢者か」を必ず選ばなければいけません。

これらの結果の傾向は時代や地域で異なります。

そして実験を行った時代特有の、もしくは地域特有の偏見や差別的な考えを排除しきれないのです。

また、トロッコ問題を用いるべきでない別の理由として、トロッコ問題には「生態学的妥当性」が欠如しているという点が挙げられるようです。

生態学的妥当性とは、限定的な条件で行われた研究結果が、現実の幅広い局面でどの程度通用するかを示すものです。

これについて考えた場合、トロッコ問題のような限定的な条件は現実ではほとんど生じないため、実践的なデータとしては利用できずAIのトレーニングに向かないというのです。

トロッコ問題はリアリティに欠け、回答者の心境は実際の状況と大きく異なる
トロッコ問題はリアリティに欠け、回答者の心境は実際の状況と大きく異なる / Credit:Canva

確かに、「ドライバーが死ぬか、歩行者が死ぬか」「大人をひくか、子供をひくか」といった絶対的な2択が生じる状況など、めったにありません。

そのため、ほとんどの回答者は、問題に回答しようと悩んでいる時でさえ、人の命が本当に失われるかのような深刻な気持ちにはなりません。

むしろ、トロッコ問題をゲームのような感覚で「楽しみながら」回答する人の方が多いでしょう。

当然、それらの結果を集めて、AI(自動運転システム)をトレーニングしたとしても、人間の道徳的な判断が反映されることはないのです。

研究チームはこうした考えから、AIをトレーニングする際に、あえてトロッコ問題を排除しました。

そして彼らは、ドライバーが日々直面している、より現実的な判断に注目しました。

次ページドライバーの道徳的な判断が反映される「交通問題」を開発

<

1

2

3

>

人気記事ランキング

  • TODAY
  • WEEK
  • MONTH

Amazonお買い得品ランキング

AI・人工知能のニュースartificial-intelligence news

もっと見る

役立つ科学情報

注目の科学ニュースpick up !!