自動運転 法整備とプログラム?
2020年に日本でも一部レベル3の自動運転が認められる方向とか。自動車の操作ミスと思われる痛ましい事故が連日報道される中で、自動運転ならおこらなかった様な事故も多いと思います。逆に人間だったら起こさない事故を自動運転は起こす可能性があり、どちらが全体で事故の確率が低くて、いざ事故が起きた時に運転者が賠償するのか車のメーカーが賠償するのかを考えると、不安はあってもすでに自動運転の方がトータルでは良い様に思います。
でも、運転していて不可抗力の状態で究極の選択を迫られる時ってあると思います。例えば、運転中に突然目の前に巨大な落下物があって、直進すれば激突。歩道によければ助かるけれど、歩行者をはねるかも知れない。良い例かわかりませんが、こう言う例外的な場合、他人を巻き込んでも車の乗客を助ける方を選ぶのかどうか、難しい場合があると思いますが、法律的にはどう考えられているのでしょう?また車のメーカーは法律に乗っ取ってアルゴリズムを作ってプログラミングしないといけないと思うのですが、そうするとそのプログラムが法解釈にあっているかどうか国がチェックしないといけない様にも思うのですがどうなのでしょうか?
人間の場合は究極のケースでは個別の事情によって警察や裁判所が判断すると思いますが、自動運転の場合方針が決まっていても自動運転の性能やプログラムによって結果が違って来る一方で、同じ状況では全ての同じモデルの車が同じ様に振る舞うはずなので、個別に判断する内容じゃないよなと思ったらだんだん疑問が深まってしまいました。