AIが故障するとき&衝突するロボットカーたち
Googleの自動運転車は人間ドライバーの2倍の事故を起こしている
ロボットカー:衝突は増える?減る?
Googleの自動運転車は人間ドライバーの2倍の事故を起こしている――これが単なる複雑すぎる新技術のバグだと思うなら、あなたは半分正しい。2015年12月時点で、ほぼすべての事故がロボット側の過失ではなかったという重要な詳細を共有しておこう。
これらの事故は人間のドライバーが原因で、ロボットドライバーに慣れていないことが要因だ。さらにGoogleは、法律を絶対的に遵守するように車をプログラムしている――速度超過は一切なし、密度の高い高速道路や交通量の多い合流が困難。これは法的・倫理的な問題をいくつも提起する(これはトロッコ問題として知られている)――
- 以下の場合、許されるか?
- 赤信号で横断歩道を過ぎた場所で追突を回避できる場合、経路が明確であると仮定して?
- 車線を横切る自転車を避けるために歩道を走行するのは?――AIが「道路交通法」のこの違反を受け入れることは許されるか?
責任を最小限に抑えようとするGoogleのアプローチは理解できる。常にルールに従う――論理的に考えれば、法律を常に遵守していれば、過失を問われることはない。
意図的に設計された「柔軟性」が原因で事故が起きた場合、莫大な責任が生じるだろう。
未来を逃すな
ロボットがお年寄りのような運転をしても、未来はそれでもやってくる。
おそらく今のところの簡単な解決策は、明るい赤色の点滅LED(スクールバスを想像してほしい)を使って、無辜のロボットに追突しようとしている人間のドライバーに警告することだ。
遵守とルール順守のティアを持つ車の方が、私にはずっと安心できる。これは人間がどのように運転するかにずっと近いはずだ。
以下のような3段階のシステム認識を想像してほしい(意思決定やその他のレイヤーは簡略化のため省略):
- ベース:法律を煩わしいほどの正確さで遵守する
- ローカル:現在の交通状況に基づいた柔軟な調整――高速道路で合流するために例えば時速10マイル以上の加速が必要な場合。逆に交通が単純に速すぎる場合、車は他のドライバーの邪魔にならないように路肩に寄るほど賢くなるべきだ。
- 360度:あらゆる潜在的な極端な衝突リスク/回避策を計算する――路肩を走行するなど
これはおそらく巧みなバランスの調整が必要になるだろう――ティア1が法律に従っては回避できない差し迫った事故を検出した場合、すべての処理能力をティア3に切り替え、害を回避する創造的な方法を見つけることを期待する。
ロボットカーは技術的にどの人間ドライバーよりも賢く速くなる瀬戸際にある。それを受け入れよう。歓迎しよう。