自動車は電気羊の夢を見るか 4

2016. . 29
IMG_2526.jpg


さて続きで、デメリットの話です。

 トラブルへの懸念と起こった場合の対処(2016年時点)

1 ソフトウェアの信頼性
2 車間通信によって車載コンピュータに不正アクセスされる可能性。
3 マニュアル運転が必要になるケースでのドライバーの運転技術・経験不足。
4 衝突不可避の状況で、自動運転車のソフトウェアが複数の事故コースのどれを選択するのか、トロッコ問題に類似する道徳的問題。

 制度上の問題

1 損害賠償責任
2 自動運転車の法的枠組みと政府規制の確立

 技術的限界

1 天候の影響を受けやすいナビゲーションシステム(2014年のグーグルのプロトタイプ車は雪や豪雨で走行できない)
2 自動運転車には高精度の特殊な地図が必要になるかもしれない。地図が古くなった場合、合理的な挙動にフォールバック(退3 縮運転)できる必要がある。
4 警察や歩行者などのジェスチャーや合図に自動運転車が適切に対応できない。
5 自動車の無線通信に使用する周波数帯域の確保の問題
6 その他、天候・路面状況による不作動・誤作動

 社会への影響

危険物・爆発物を積んで自動運転車が爆弾化(武器化)される可能性

最後の、危険物を積んで云々は物騒な可能性ですが、まあテロリストは有人車でも同じ事やりますから、今更なんですけど。

この中で「 トラブルへの懸念と起こった場合の対処(2016年時点)」の4で言及されている「トロッコ問題」というのは、トロリー問題とも言われておりまして、、「ある人を助けるために他の人を犠牲にするのは許されるか?」という思考実験に起因する、「人間がどのように道徳的ジレンマを解決するか」という、道徳心理学、神経倫理学において重要な論題。(ウィキより抜粋)

要するに、あっちを立てればこっちが立たず、という問題に機械がどう判断を下すか、という事です。これは「制度上の問題」1の損害賠償責任にも関わってきます。これは自律式の人型のロボットが実用化された際にも同様の問題が発生します。

また、人と機械の間で運転をやり取りする場合、急にコントロール変更があると、挙動の変化が起こり、周囲の自動運転自動車に多大な影響を与える恐れがある。それに、「ユー・ハブ・コントロール」で咄嗟にマニュアル運転を渡されたとしても、人間が早々すぐに「アイ・ハブ」と対処できない可能性が大です。そういう意味では、マニュアル運転というのは無粋な行為とされる恐れがある上に最も危険な行為となる可能性が大です。

さらに人自身も、リスクを恐れてマニュアルモードに切り替えることを躊躇するでしょう。

要するに、人の力や能力など不要、むしろ邪魔で余計なものとなるのです。

レベル4の自動運転が確立した暁には、人は運転に関して考えることをやめるでしょうし、制度の中でロボット自動車同士が起こした事故についての、責任追及は行わなくなります(システムが正常であれば、現行自動車の扱いと同じように)メーカーには責任がないと結論されますし、ドライバーの手でどうにかなった問題でもないという事で、ドライバーは、責任を逃れるために絶対にマニュアルモードには移管しませんし、互いに不幸な事故だったと居直ることでしょう。
責任の所在を問うというより、責任が消失します。

司法の仕事はずいぶんと減るかもしれませんね

またまた続きます。



スポンサーサイト

comment

post comment

  • comment
  • secret
  • 管理者にだけ表示を許可する

trackback

trackbackURL:http://chelm.blog37.fc2.com/tb.php/421-2bd3cfe9