ルール作りと社会的コンセンサスが追い付いていないように思えてなりません。
責任は誰に
これまでは自動車という機械を運転するドライバー(ひと)が、全ての判断を行い全ての責任を負っていました。今後は、自動運転というシステムが全てを判断することになります。誰が責任を取るのでしょうか。
レベル3の自動運転を想定すると、システムの要求に応じて運転者が適切に運転の交替をしなかった時だけ、運転者に責任が発生します。これはレベル0で正しい運転をしなかったケースと同等です。
それ以外の完全自動運転中、または運転者が正しいオペレーションをしたにも拘わらず事故が起きてしまった場合、その責任は運転者にはありません。どこにあるのでしょうか。
事故現場、そこに被害者がいるのに、「正しい運転をしていたのだから、運転者には責任が無い」では済まないはずです。「自動運転では合理的に予見できない事故」ということで、責任の所在が不明確になってしまうことが起きうるのではないでしょうか。車の所有者や車の運行者は責任は無いで済ませられるはずはありません。
システムの不具合や故障の場合はどうでしょうか。 不具合のあったソフトウエア設計開発元、故障を起こしたハードウエア設計元、地図データなどデータ提供者、道路情報を管理する地方自治体や国などなど、原因の究明がたらいまわしになることもあるかもしれません。
「運行設計領域内で合理的に予見されない事故」であれば、自動運転で事故が起こっても、車両安全要件には問題が無く、製造責任のある自動車製造メーカや自動運転装置の提供メーカーは責任を問われないということになります。新たなユースケースとしてソフトウエアが修正されてエアダウンロードされるだけなのです。
事故が起きた時に、傍から見て明らかに自動運転車が原因であっても、「私の責任ではない!この車の責任だ!」と言い張っている光景が目に浮かびそうです。
被害者救済がどこにあるのか、ちょっと心配になります。
ボルボの転換
12月にボルボ社が自動運転に関して大きな方針転換をしました。あくまで技術的な目線で定義された「レベル」という考え方に違和感を感じ、また「レベル」による自動運転機能の違いを利用者が正しく理解するのは困難であるため、もう「レベル」の話はしないという結論に至ったとのことです。
スカイラインのプロパイロット2.0でも、何が出来て、出来ない時にどう挙動するのかを理解するのは確かに難しいと感じました。
「レベル」に代わるボルボ社の再定義は、利用者目線に近いシンプルな三通りです。
(1)完全自動運転の状態か
(2)運転支援の状態か
(3)完全自動運転と運転支援を切り替えている状態か
車に全て任せるか、人が責任を持つか、そのモード遷移中か、だけです。
ボルボ社は昔から「衝突安全性」を重視していて、車を垂直に落とすCMは未だに記憶に残っています。この情報だけでは詳しいことはわかりませんが、いたずらにレベルを誇示しながら販売競争の先頭を走るのではなく、完全自動運転の技術を蓄えながら、世界各国の法整備や、国や地域によって異なる社会的コンセンサスの確立を見ながら進めていくのではないか、と思える転換です。
特に「運転支援」を強化していくとのことで、これも大いに賛同できます。
この新しいプラットホームは、ボルボ初の電気自動車「XC40 Recharge」に搭載される予定で、車載コンピュータも強化されたそうです。
最後までご覧いただきありがとうございます。
🔙前の記事は、倫理観をシステムに実装するという話です。