哲学者が考える「自動運転社会」の責任の所在


松浦 和也 : 東洋大学文学部哲学科准教授

2019年02月02日

もし、自動運転車で事故を起こしてしまったら…(写真:VCG/VCG via Getty Images)  

自動運転車の実用化に向けた開発競争が熾烈を極めている。一方で、自動運転に関しては事故発生時の責任問題をはじめ、課題が山積したままである。自律機械に関する研究に取り組む論者が、全3回にわたって解説する。

第2回のテーマは「責任」(哲学者・松浦和也)。



最近の自動運転車の公道実験の報道は、その実装に向けた技術的課題を克服しつつあるかの印象を与える。

その一方で、報道の末尾に、自動運転車に纏(まつ)わる法律や規則の整備がまだ課題として残っていると付け加えられることもある。

この指摘を聞くと、技術的にはすでに完成しつつある自動運転車の社会実装が、社会制度が未整備であることによって、阻まれているかのようにも感じられるだろう。

社会制度上の課題としてよく指摘されるものは、「自動運転車が事故を起こしたときに誰に責任を帰すべきか」という問題である。自動運転車が人命保護を第一にするように設計されていたとしても、搭乗者の生命と歩行者の生命との二者択一を自動運転車がその場で決断せねばならないような事態は起きうるだろう。そして、その決断から生じるだろう望ましくない帰結に誰がどのような責任を果たすべきか、という問いも発生する。

そのような決断を促すコードを書いたのは設計者だという事実を重視するならば、生命の選択を行ったその技術者がすべての責任を負うべきだ、という主張は成立しそうであるし、一定の説得力すら持っている。

だが、この問いにいかなる事故でも従うべき単純なルールを用意することはあまり有効ではない。というのは、事故は多様な原因によって引き起こされるからである。

事故責任をメーカーに求めたくなる根拠とは

例えば、搭乗者の理不尽な指示によることもあれば、歩行者の不用意な飛び出しによることもあるだろう。誰かが石を投げつけたため、自動運転車のセンサーの一部が故障した場合も事故を引き起こしうる。路面や天候の状態が悪いため、自動運転車のコントロールが失われることもあるだろう。

つまり、自動運転車が事故を起こしたときは、人間が操作する自動車の場合同様、現場検証を行い、その事故の直接の原因が何に由来するのかを検証し、検証結果に応じて、責任を搭乗者に負わせるか、メーカーに負わせるか、それとも別の人物に負わせるかを判断することが、社会的公正の観点から見ても望ましい(さしあたり、人工知能自体に非があるという選択肢は除外しよう)。

厄介なことに、ニューラルネットワークを基盤とする人工知能の内部プロセスの一部はブラックボックス化しており、自動運転車の振る舞いの原因を説明することが不可能な場合がある。事故の責任をとりあえず搭乗者やメーカーに求めたくなる根拠のひとつは、この説明不可能性にある。

この説明不可能性を根拠にすれば、自動運転車の事故を自然災害と同列に扱い、搭乗者もメーカーも開発者も誰も悪くない、と主張することも可能だろう。より実現しそうなことは、搭乗者とメーカーが加入を強制されるような保険を設立することである。

いかなる事故であれ、その保険から被害者には賠償金が支払われることにすれば、「誰に責任を帰すべきか」という厄介な問題は消失したかに見える。

しかし、このような形で自動運転車の事故にまつわる責任の問題を回避することは、より深い社会的問題を隠蔽する危険へとわれわれを誘う。通常、ある事故が、その事故を起こす意図を持った人物によって引き起こされたのであれば、その人物にこそ非があると考えるだろう。逆に、その人物に罰則や懲戒を加えることなしに放免することは、倫理と社会の崩壊を招きうる。

自動運転車の場合でも、搭乗者であれ、開発者であれ、メーカーであれ、自動運転車に前方の自動車に衝突するように指示を出したり、特定の状況下で事故を起こすように細工をしたりしたことが明らかになった場合、その意図を持った人間は罰則や懲戒を受けるべきである。

仮に、開発者が反社会的な思想信条を持っていた場合、例えば、ある特定の風貌をした人間を「人間」から除外するようにコードやデータを加工すれば、自動運転車の事故を誘発することは可能そうである。

そして、その結果、事故が実際に起きてしまったならば、その開発者は罰則や懲戒を受けるべきである。しかし、その加工の発覚は難しい。なぜなら、人工知能の内部プロセスがブラックボックス化しているからである。

行為における善意と悪意

もちろん、開発者やメーカーが自動運転車を開発する目的は、ユーザーにより安全で、より幸福な生活を提供することにあるだろう。このことに異義を唱えるつもりはないし、彼らは善良で道徳的だと筆者は信じている。

ただし、ここまで自動運転車の事故に関して想像力を働かせたならば、自動運転車をはじめとした自律機械と社会をつなぐために克服すべき真の問題が姿を見せることになる。

「自動運転車が事故を起こしたときに誰に責任を帰するべきか」という問いは、搭乗者も、メーカーおよび開発者も事故を起こす意図は持っておらず、善良な道徳的人間に降りかかった不運な事故だ、という状況理解に基づいている。しかし、この状況理解はつねに正しいわけではない。

社会を構成するすべての人間の行為が善意に基づいているわけではないことをわれわれは知っている。そして、悪意ある人間は、追及を免れるために、事件を事故に見せかけ、自身の関与の痕跡を消し去ろうとする性向があることもわれわれは知っている。

そのような人間が、自動運転車に悪意ある操作を行うだろうことは十分に想像の範囲内であるし、その方法も無数に想定できる。開発者がデバッグに備えてコードを残しておいたとするなら、そのコードを利用して操作を乗っ取り、自動運転車に事故を起こさせることはできそうなことである。

その自動運転車に通信による監視と外部操作の機能が備わっている場合、そのプロトコルが流失してしまえば、第三者がその種の自動運転車を運転できることになる。

自動運転車を構成する部品の外注先に賄賂を渡したり脅迫したりして、外部操作を可能にさせるチップを取り付けさせるのもいいだろう。われわれには絵にしか見えないが、自動運転車の画像判別システムには道にしか見えない画像をビルに掲げておけば、そのビルに自動運転車は突っ込むかもしれない。

さらに単純に、交通標識の一部にテープやシートを張っておくだけで、自動運転車は勝手に事故を起こすかもしれない。自動運転車の事故が、その挙動の原因が解らないという根拠によってすべて悪意のない不運な事故だと見なされてしまうなら、悪意ある人間にとっては格好の「遊び場」が誕生することになる。

もちろん、このような悪戯は、技術的に解決可能かもしれない。だが、開発者、メーカー、搭乗者の善意には従うように動作するが、悪意には絶対に従わないような自動運転車のシステムがデザインできるようには思えない。

なぜなら、人間が取りうるあらゆる行動やそれぞれの行動の善悪の判断すべてをコード化したり、学習させたりすることはできそうにない。仮にできたとしても、そのために必要なハードウェアを自動車に搭載することにどれほどの合理性と経済性があるかは疑問だからである。

必要な規範とは

そもそも、他者の行為や発言が善意に由来するのか、それとも悪意が背景にあるのか、その場で正確に判断できる人間はどれだけいるだろうか。

自動運転車、そして人工知能は、悪意が少なからず存在するわれわれの社会に受け入れるには、あまりにも無垢すぎる。それでもなお、自動運転車や人工知能を社会の中で有意義に活用しようと望むのであれば、人工知能を悪意から守る規範を社会の側で用意しておかなければ、かえって社会の崩壊を招きかねない。

その用意すべき規範は、法やルール、安全審査基準にとどまらず、悪意から自動運転車や人工知能自体を保護するための設計デザインにも及ぶべきである。そのような規範はどのようなものか、という問いに返答を与えることは、現在の筆者にできそうにない。ただし、この規範は、メーカーや開発者を不当に縛るものでは必ずしもないだろう。

 

というのも、この規範は、自動運転車に関わるすべての人間を悪意から守るものであり、その規範に沿うような技術を開発することは、さらなるイノベーションを生み出すことでもあるからである。


メール・BLOG の転送厳禁です!!  よろしくお願いします。