自動運転の実現に向けた法制度上の課題とは


稲谷 龍彦 : 京都大学大学院法学研究科准教授

2019年02月03日

自動運転車で事故が起きたらどう裁かれるのか(写真:キャプテンフック/PIXTA)  

自動運転車の実用化に向けた開発競争が熾烈を極めている。

一方で、自動運転に関しては事故発生時の責任問題をはじめ、課題が山積したままである。自律機械に関する研究に取り組む論者が、全3回にわたって解説する。

第3回のテーマは「法律」(法学者・稲谷龍彦)。



政府によれば、2020年頃までの自動運転車の実用化を目指し、関連する法制度の見直しが進められることとなっている。現行の自動車に関する法律は多数に上るため、その見直しは大変な作業になることが予想される。その中でも、自動運転車が事故を起こした場合の法的責任の所在に関するものは、社会的な影響の大きい、重要な問題であるといえるだろう。

現在の法制度下で自動車事故が起きた場合、2つの問題が想定される。1つは、事故の損害を補償するのは誰かということだ。その際には民事責任の所在が問われることとなろう。もう1つは、国家が刑罰という制裁を科すべき対象は誰かということだ。ここでは刑事責任の所在が問われることになる。

自動運転車のメカニズム

法的な議論に入る前提として、自動運転車の自動運行のメカニズムと、自動運転のレベルについて確認しておこう。

自動運転車の運行は、自動車に与えられる3次元的な地図と、自動車に搭載されたセンサーやGPSなどから入手される現実世界の情報とを対照させ、プログラミングを通じて自動車自身に舵取りをさせることで基本的に可能になる。もっとも、現実世界においては、突発的な事象が生じることから、自動車に搭載されたシステムから入手した情報に基づいて、適宜適切な行動を取ることもプログラミングされることになる。

要するに、自動運転車の機能の本質は、大量の情報処理に基づく適切な運動の選択によって、車両を目的地に導くことにあるといえるだろう。それゆえ、情報処理の量や精度は、自動運転車の信頼性を決定する、重要な要素である。情報処理の量と精度によって、自動運転車の運動の信頼性が決定されるとすると、そこでは幾つかのレベルが想定される。

自動車技術の基準を策定するSAE(Society of Automotive Engineers)インターナショナルは、自動運転のレベルを「レベル0」から「レベル5」までの6段階で定義している。レベル0(運転自動化なし)、レベル1(運転支援)、レベル2(部分運転自動化)まではドライバーが完全に運転の主体である。

レベル3(条件付き自動運転)においては、自動運転システムに明らかな異常が生じ、システムを信用できないような場合や自動運転システム側から運転者に介入が要求された場合を除き、自動運転中は基本的に自動運転システムが運転の主体となる。

一方、レベル4(高度自動運転)、レベル5(完全自動運転)では、自動運転中の運転の主体は自動運転システムとされている。つまり、自動運転中の運転主体は、レベル3以上から自動運転システムに段階的に移行することが想定される。通常、自動車事故が生じた場合、どのように刑事責任を問うのか。

現行法下において、運転者が自動車の運転に必要な注意を怠って死傷事故が生じた場合、その運転者は、過失運転致死傷罪(自動車運転処罰法5条)に問われる可能性がある。

また、仮に自動車そのものに、製造者が必要な注意を怠ったために、運転者が十分に注意しても統制できないような危険を生じさせる欠陥が存在し、それが原因で死傷事故が生じた場合には、製造者に業務上過失致死傷罪(刑法211条)が成立する可能性がある。

なお、この罪について法人を処罰する規定はないため、実際に罪を問われることになるのは、法人内部でかかる危険を統制する義務を負っていた者である。

現行法下において、このような刑事責任の割当てが行われるのは、刑法の想定する人間像が、自由意志に基づいて事物を統制できる存在だからである。つまり、現行刑法は、刑罰という制裁を通じて人間の自由意志に働きかけることによって、人間が事物を適切にコントロールすることで、事物から生じうる危険を封じ込めようとしているのである。

しかし、自由意志に基づく事物のコントロールを前提とする現行刑法を用いると、自動運転車が事故を起こした場合に、適切な刑事責任の割り当てが困難になる可能性がある。というのも、自動運転車の情報処理に利用されるAI(人工知能)の中には、ディープ・ラーニングに代表される、情報処理の過程を完全には統制できないものが存在するからである。

社会的な費用と便益をどう計算するのか

情報処理過程を完全には統制できないことは、運転システムに対する個別のプログラミングや学習行為と自動運転車の事故との間の因果関係を肯定することが難しいことを意味するため、自動運転車の製造者が一切の刑事責任を問われないという結論にもつながりうる。

しかし、自動運転車の製造者は、完全には統制できない危険を流通させていること自体は認識しているため、そのような危険を流通させさえしなければ、すべての事故を防げたことを理由に、なお刑事責任を問われうる余地が存在しているといえるだろう。

もちろん、この結論は承服しがたい「過剰な処罰」につながるものであり、自動運転車の実用によって生じる社会的便益が、その社会的費用を上回っていることを理由として、製造者の刑事責任を追及すべきでないという考え方もありうる。

しかし、このような考え方に立ったとしても、誰が、なぜ、どのようにして、社会に大きな影響を及ぼしうる費用便益計算を行うべきなのかという問題は残ってしまう。現状では、裁判官や検察官によってこのような費用便益計算が行われることになろうが、それが適切であるといえるかについては、異論もありえよう。

以上のような問題は、自動運転中の運行主体がすべて自動運転システムとなるレベル4以上の自動運転車において、とくに深刻であろう。レベル3の自動運転車においては、自動車と人間との間での運行主体の入れ換えがスムーズにできるシステムを構築しなければ、結局人間には統制できない危険物を流通させたとして、製造者に刑事責任が生じうるという固有の問題も存在する。

こうした「過剰な処罰」の問題が生じうる一方で、「過少な処罰」の問題も生じうる可能性がある。複数の自動運転車が関与して事故が生じた場合や、自動車とインフラストラクチャーとが情報処理を分担しているシステムにおいて事故が生じた場合には、事故原因を識別・特定することが事実上不可能となりうるからである。

すなわち、そもそも刑法が働きかけるべき自由意志の所在を把握できない事態が現実に生じうるのである。この場合には、現行刑法に基づいて開発者らの責任を追及することは困難であるため、「過剰な処罰」の問題とは反対に、「過少な処罰」という問題が生じうるのである。

自動運転車と「共生」できる社会を目指して

上に述べたような問題を解決するにあたっては、2つの方向性がありうる。1つは、大幅な制度の変更である。

現行刑法の前提とする人間像は、脳神経科学や認知科学の進展により、一層その現実性が乏しくなっている。また、哲学や倫理学においても、人間の意識や意志が、技術や外的環境の影響を受けうることを前提とした、新たな人間像に基づく規範理論が提唱されつつある。

これらの成果を取り入れつつ、世界に先駆けて新たな制度を構築するのは、問題を根本的に解決できる、魅力的な方向性ではある。もっとも、大幅な制度の変更には、それ自体に大きな社会的費用がかかるうえ、わが国の現状に鑑みると、時間的にも余裕がない可能性がある。

そこで、もう1つの方向性として、自動運転車が死傷事故を起こした場合に行使される検察官の訴追裁量を、より多くの国民が納得できるような形で統制するというものが考えられる。

比較法的に見ても、広範な訴追裁量を有するアメリカ・イギリスの検察官は、その訴追裁量を統制する内部規範ないし法規範に従うこととされている。自動運転の技術者や、自動車の製造を監督する組織とも協力しつつ、検察官の訴追裁量について統制する内部規範を国が作成し、前述した費用便益計算の正統性をより高めていくことが、暫定的な解決法としては有望なものではないかと思われる。

 

ただし、この場合でも因果関係が肯定できないことを理由とする「過少な処罰」の問題は残りうるため、将来的に法制度ないし因果関係に関する法解釈に変更を加える必要が生じる可能性を完全に否定することはできないだろう。


メール・BLOG の転送厳禁です!!  よろしくお願いします。