グーグルの自動運転車が事故

 インターネット検索世界最大手「グーグル」の2月29日発表によると、開発中の自動運転車が、カリフォルニア州で行った走行試験で、人工知能の判断ミスによる衝突事故が起きたそうです。

 事故が起きたのは同月14日。自動運転中の車が右側車線に入ろうとして、路上にある砂袋を見つけて停車。砂袋を避けるため元の車線に戻る時、後ろから来たバスと接触したと言うことです。

 グーグルによると「人工知能も、自動運転車の搭乗者も、バスが道を譲るか減速するだろうと思い込んでしまった」と言うことで、「我々の車が動かなければ事故は起きなかったので、一定の責任がある」とのコメントを発表しました。

 人工知能は基本的に人間の行動がお手本になりますから、人間と同じようなミスも起きます。多数のセンサーによって人間より死角が少なく、人間夜素早く判断できるでしょうが、判断そのものを誤る可能性は付いて回ります。それでも、全くの素人や高齢者、運転の下手な人間に比べれば優秀でしょうが。