[清水和夫のコラム] 自動運転の倫理問題を考える


自動運転の倫理問題

2017/10/6

清水 和夫

 自動運転をめぐる動きが急速に活発化している。クルマが人に代わって、コンピューターを駆使したシステムがまるでロボットのように運転すると、どんなモビリティ社会になるのか。考えただけでも楽しくなる。だが、現実は多くの人がイメージするような自動運転はそう簡単ではない。技術的な課題も山積するが、社会が自動運転するクルマをどう受容するのか。もし、事故が起きたときの責任問題はどうなるのか。自動運転車を実用化するには気が遠くなるほどの課題をクリアしなければならない。日米欧の自動車メーカーはIT企業と連携しながら、着々と実用化の道を歩んでいる。

 自動車メーカーや各国行政の関係者は自動運転で事故が大幅に減ることを期待している。というのも事故の原因の90%以上がヒューマンエラーだからだ。家電や自動車の製造工場はオートメーション化(自動化)が進んだことで、製造時の事故が減っていることからも、自動運転で事故が減ることは間違いない。

 日本では年間の死者数が4千人を下回ったが、まだ多くの人命が失われている。全世界では年間に交通事故で亡くなる人は100万人を超えている。現在の人に頼って運転するクルマ社会は大きな間違いを犯しているのかもしれない。結果からみると恐ろしく運転が下手な人に、ドライバーズライセンスが与えられているからだ。さらに最近はスマートフォンを使いながら走るドライバーや歩行者が増えているので、事故が減ることは期待できそうもない。だが、高度に進化した自動運転車なら多くの命を救うことができるだろう。

 しかし、ここに一つの壁がある。倫理問題の思考実験として使われるトロッコ問題だ。例えば坂道を下って暴走するトロッコの先には二手に分かれた分岐路がある。左に5人、右に1人の線路工事人が作業している。「分岐路にいるあなたはトロッコをどちらの路線に切り替えるべきか」と問われたらあなたはどう判断するのか。人間の判断なら5人を助けて1人を見捨てるだろうが、もし、1人は子供で5人はお年寄りならどうするのか?人間でも判断できないような状況でAI(人工頭脳)はどう判断するのだろうか。

 倫理学や法律家の間ではこのトロッコ問題は思考停止に陥りやすい出口のないテーマなので敬遠されやすいが、トヨタ・リサーチ・インスティテュート(TRI)のギル・プラットCEOは倫理問題を真剣に受け止めている。AIがどこまで進化するのか。ビッグデータを量子コンピューターが扱う時代にかならず倫理問題が起きるに違いない。AIの専門家は真剣に考えている。

 新型レクサスLSやメルセデスSクラスは、歩行者を検知したら、ハンドルで避けながら緊急ブレーキを介入させる。だが、道の両サイドに1人の子供と、複数のお年寄りがいるケースでは、どちらにハンドルを操舵するのだろうか。このような場面はレアケースであるが、自動運転車の倫理をどのように考えるのか、準備する必要があるだろう。

 ちなみに日本の刑法では5人はねるのを避け、1人をはねた場合は緊急避難として違法ではない(刑法37条1項)。これは功利主義という考え方に元づいている。つまり5人が亡くなることと1人が亡くなることの社会的損失を比べているのだ。このように現行の刑法ではドライに割り切るものの、民事では違った見かたがありそうだ。

 一方でドイツのカント主義では1人でも死なせれば違法であり、たとえ自爆してでも良心に従うべきという考えもあると、法政大学法科大学院の今井猛嘉教授* は言う。AIに責任を課すのか、あるいはAIを作ったメーカーの責任なのか、いまから議論する必要があると述べている。

 

* 今井猛嘉(いまい・たけよし) 法政大学法科大学院教授、弁護士。「自動走行の制度的課題等に関する調査検討委員会」(警察庁)、「平成28年度スマートモビリティシステム研究開発・実証事業(自動走行の民事上の責任及び社会受容性に関する研究)」(経済産業省)、「事業用自動車事故調査委員会」(国土交通省)において委員を務める。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です