stg-car

【日本・海外別】自動運転車が起こした事故を紹介。原因や責任の所在について解説

更新日: 2025/7/23投稿日: 2025/7/23

EV
【日本・海外別】自動運転車が起こした事故を紹介。原因や責任の所在について解説
目次 nonactive

「自動運転車って過去にどのような事故を起こしたの?」
「自動運転車が事故を起こした場合に、責任はどこに発生する?」
「運転者が刑事責任を負わされる可能性はある?」

こののような疑問をお持ちではないでしょうか?

2025年現在、人間が介入しない自動運転は実現できていません。世界中でさまざまな実証実験が行われているなかで、残念ながら事故が起きてしまっているのが事実です。

この記事では、海外や国内で起きている事故の事例と原因を紹介します。
加えて、自動運転車が事故を起こした場合の責任の所在に関する内容も説明するので、自動運転の現状に興味のある方は、ぜひ最後まで記事をお読みください。

※本記事では、自動運転(レベル3以上)だけでなく「運転支援」に当てはまる自動車(レベル2以下)の事故についても取り扱います。

自動運転のレベルについては、以下の記事も合わせてご確認ください。

自動運転のレベルってなに?それぞれの車種一覧やレベル5の実現可能性について言及

投稿日: 2025/5/31更新日: 2025/7/8

自動運転のレベルってなに?それぞれの車種一覧やレベル5の実現可能性について言及

海外での自動運転関連の事故事例

交通事故

こちらでは、海外で起きた自動運転に関連する事故の事例の中から、特徴的なものを8つ紹介します。

2016年:グーグルの自動運転車が路線バスと接触事故

2016年2月にアメリカ合衆国(米国)カリフォルニア州の公道で、Googleが開発中の自動運転システムにより走行していた自動車が、路線バスと接触する事故を起こしています。

グーグルの自動運転車は、前方に砂袋が落下しているのを発見し、一時停止しました。その後、落下物を避けるために車線変更を行おうとしたところ、後方から走行してきた路線バスの側面に衝突する事故が発生しています。

自動運転車のドライバーが、バスが道を譲ってくれると判断して、自動運転モードを継続したのが原因です。

グーグルの自動運転の開発試験では、たびたび事故が発生していたものの、全て相手方の運転者等に責任のある事故でした。しかし、2016年の事故では初めて、Google側に責任のある事故となりました。

参考:Googleの自動運転車がバスと衝突、Google過失による初の事故か(日経クロステック)

2016年:テスラ車がトレーラーに衝突して死亡事故

2016年5月に米国フロリダ州で、運転支援機能の一種である「オートパイロット」動作中だったテスラ製の自動車が、左折して前方を横切ってきた大型トレーラーに衝突ししました。

事故によりテスラ車のドライバーが死亡し、自動運転(運転支援を含む)の自動車が起こした、米国初の死亡事故となりました。

日差しの強さやトレーラーの白い色により、トレーラーを物体として認識できなかったことが衝突の原因と考えられています。

また、テスラのオートパイロットは自動運転レベル2に相当する運転支援システムであるにもかかわらず、ドライバーはハンドルに手を添えていませんでした。手を添えているべき37分間の内、ドライバーは25秒間しかハンドルに触れていなかったことが明らかになっています。また、オートパイロットからもドライバーに、ハンドルを握るよう警告を7回発していました。

参考:テスラ車の「自動運転による米国初の死亡事故」、その詳細が判明( WIRED.jp)

2018年:ウーバーの自動運転の実験中に歩行者を死亡させる事故

2018年3月に米国アリゾナ州で、配車サービスを展開するウーバーテクノロジーズの自動運転車が、テスト走行中に車道を渡っていた歩行者をはねて死亡させる事故を起こしました。自動運転車が歩行者を死亡させた初めての事故とされています。

自動運転システムは、歩行者との衝突の約6秒前に「物体」を検知していましたが、自動車や自転車であると認識していました。歩行者が自転車を押して歩いていたことに加えて、横断歩道以外の場所で道路を横断する歩行者の存在が想定されていなかったのが要因です。

また、自動車を製造したボルボが搭載していた、自動車本来の緊急ブレーキ機能は、テスト走行のために無効にされていました。また、運転席に座っていた監視者はテレビ番組を視聴していて、ブレーキを踏んだのは歩行者との衝突後のことです。

参考:死亡事故を起こしたUberの自律走行車は、「車道を渡る歩行者」を想定していなかった:調査報告から明らかに(WIRED.jp)

2018年:テスラ車が幹線道路の分離帯に衝突して死亡事故

2018年3月に米国のシリコンバレーで、オートパイロットにより運転中だったテスラ車が、幹線道路でコンクリートの分離帯に衝突し、ドライバーが死亡しました。

オートパイロットは、事故発生の約19分前から作動していましたが、何らかの技術的限界により、車線を検知できなかったことが事故の原因とされています。

一方、オートパイロットは事故発生直前の6秒間、ドライバーがハンドルを握っていないことを感知していました。ドライバーはスマートフォンでゲームをプレイしていて、ゲームに気を取られていたとされています。

参考:「オートパイロットが原因で死亡事故」、提訴の遺族とテスラが和解(CNN.co.jp)

2023年:自動運転タクシーが人を下敷きにする事故

2023年10月に米国カリフォルニア州サンフランシスコで、ゼネラル・モーターズ傘下のGMクルーズが運行する無人運転タクシーが、ほかの車両にひき逃げされた人を下敷きにする事故をおこし、被害者は重傷を負いました。

被害者は別の車両にはねられた後、タクシーのすぐ前に落下。タクシーの自動運転システムが急ブレーキをかけたものの、間に合いませんでした。

加えて、事故発生後、自動運転システムが事故を「側面衝突」であるという誤った判断をしたため、自動車を路肩に寄せて停止させました。結果的に被害者を下敷きにして6m引きずる形となったのです。

参考:クルーズ、無人タクシー950台回収 歩行者引きずり重傷負わせる(フォーブス ジャパン)

2023年:テスラ車が道路上にいた人を死亡させる事故

2023年11月に米国アリゾナ州の州間高速道路で、テスラ車が路上にいた人物をはねて、死亡させる事故を起こしました。テスラ車は、運転支援機能の一種であるフルセルフドライビング(FSD)の動作中でした。FSDに関連した、初の歩行者死亡事故として認定されています。

被害者は、別の2台の自動車が起こしていた衝突事故に伴い、交通整理を行うために、自分の運転する自動車から路上へ降りていました。テスラ車は時速105kmから全く減速せずに被害者をはねています。

まぶしい夕日によって視界不良だったことが、歩行者を検知できなかった原因と考えられています。

参考:テスラ車の死亡事故、完全自動運転の限界を露呈-衝突映像が物語る(Bloomberg)

2024年:テスラ車が二輪車のライダーを死亡させる事故

2024年4月に米国ワシントン州で、FSD動作中だったテスラ車が二輪車に衝突し、二輪車のライダーを死亡させる事故を起こしました。

衝突の直接の原因に関する報道は見受けられませんが、テスラ車のドライバーは、FSD動作中に携帯電話を見ていたことを当局に供述しています。

参考:テスラ車の4月死亡事故、運転手は自動運転支援システム使用していた(Bloomberg)

2024年:自動運転タクシーと配送ロボットが交差点で衝突する事故

2024年12月に米国カリフォルニア州ロサンゼルスで、ウェイモの自動運転タクシーとサーブ・ロボティクスの配送ロボットが衝突しました。

自動運転タクシーは交差点を右折する際に、横断歩道を渡り終えて歩道に上がろうとしていた配送ロボットと衝突。衝突速度は時速6km程度と低速でした。

タクシーの自動運転システムが、衝突直前まで配送ロボットを単なる無生物と認識しており、ブレーキ動作が遅れたことが原因とされています。事故によって大きな被害は発生しませんでしたが、異なる自律システムによって走行する物同士が衝突するという、自動運転の技術的課題を浮き彫りにした事故でした。

参考:自動運転車と配送ロボットが交差点で衝突、Waymoが安全対策を強化へ(イノベトピア)

日本国内での自動運転関連の事故事例

自転車との接触事故

日本国内においても、自動運転に関連した事故が起きています。以下では、9つの事例を紹介します。

2018年:テスラ車が高速道路で二輪車のライダーをはねて死亡させる事故

2018年4月に海老名サービスエリア付近で、運転支援機能を使用して走行していたテスラ車が、事故の救護にあたっていた二輪車のライダーをはねとばして死亡させる事故を起こしました。

テスラ車の前方を走行していた自動車が別の車線に移って、車間距離が空いたとみなされたことと、二輪車のライダーを検知できなかったことが、自動的にブレーキが動作しなかった原因と考えられています。また、テスラ車のドライバーは居眠り運転をしていたことが明らかとなっています。

参考1:テスラ社の自動運転車で初の「交通事故」 夫を奪われた妻の悲痛な叫び(デイリー新潮)

参考2:自動運転車による事故と刑事責任:AIと刑法理論との関係(1)(法政大学学術機関リポジトリ)

2019年:低速自動運転車が接触事故

2019年8月に愛知県豊田市の公道で、名古屋大学の所有する低速自動運転車が、後ろから追い越してきた車両と接触する事故を起こしました。(負傷者なし)

公道を走行していた一般車両が、時速約14kmで試験走行中の自動運転車を右側から追い越そうとしたときに、自動運転車が急に右側へ寄ったことで衝突。

事故原因は、自動運転車が事故の1秒程前に自車の進行している方位を誤検知したため、誤った方向への急ハンドルが行われたことでした。

参考:低速自動運転車両事故(名古屋大学 低速自動運転車両事故検証委員会)

2020年:試験走行中の自動運転バスが駐車車両に接触

2020年3月に東京都千代田区で、ソフトバンク子会社のSBドライブ(現:BOLDLY)が試験走行を行っていた自動運転バスが、バス停接近中に路上駐車の乗用車に接触する事故を起こしました。

乗用車に接近したバスは自動的に減速を開始していましたが、オペレーターは手動介入を行いブレーキを動作させました。その後、オペレーターはより強いブレーキをかけましたが、間に合わず接触。

自動的にかかるブレーキよりも制動力が弱い手動ブレーキが一時的に使用されたために、制動距離が延びたことが事故の原因でした。

全ての運転操作をシステムに任せたままにするか、オペレーターがすぐに緊急停止ボタンを押すかのどちらかの措置を行えば、接触を避けられたとされています。

参考:自動運転実証実験中に発生した交通事故の概要(国土交通省)

2020年:研究所が実施した実証実験で柵に接触

2020年8月に滋賀県大津市で、産業技術総合研究所が実証実験を行っていた自動運転バスが、柱に接触しました。

自動運転バスはUターンのための右旋回を行っているときに、車体左前のセンサーカバーが歩道柵の支柱に接触しました。

ドライバーは柵に接触するおそれがあると考えたために、接触の約8秒前からハンドルとブレーキの手動操作を行っていました。そして、ドライバーの車幅感覚の判断ミスが原因で接触したと考えられます。

接触の直接的な原因は手動操作の誤りでしたが、手動運転においても慎重に操作が必要な箇所を自動運転のルートに設定したことで、ドライバーの手動介入を招いた点も、接触に至った一因といえるでしょう。

参考:自動運転実証実験中に発生した交通事故の概要(国土交通省)

2020年:自動運転バスが急旋回しガードレールに接触

2020年12月に茨城県日立市で、産業技術総合研究所が実証実験を行っていた自動運転バスが、ガードレールに接触しました。

バス専用道を走行中に右方向へ急旋回し、ドライバーが速やかに手動でブレーキとハンドル操作を行ったものの間に合わず、バスの右前方部分が右側ガードレールに接触しました。一般乗客は乗車しておらず、乗員3名にもけがはありませんでした。

バスの自動運転システムは車両走行前に、自車の位置推定を行うための2つの機器を再起動する必要がありましたが、1つの機器の再起動が行われていませんでした。再起動されていなかった機器に残っていた位置情報が使用されたことにより、誤った車両制御が行われたことが急旋回の原因です。

参考:自動運転実証実験中に発生した交通事故の概要(国土交通省)

2021年:東京五輪の選手村で歩行者との接触事故

2021年8月に東京都のオリンピック・パラリンピック選手村内で、トヨタが開発した自動運転レベル2の巡回バスが交差点を右折中に、視覚障がいを持つ歩行者と横断歩道上で接触事故を起こしました。バスの乗員にけがはありませんでしたが、歩行者は左足を負傷しました。

事故は以下の要因が複合して起きた、ヒューマンエラーによるものであったと結論付けられています。

  • 交差点への交通信号機の設置が見送られ交通誘導員が配置されたが、人員配置などの計画があいまいだった
  • 歩行者が視覚障がい者でバスの接近を視覚では確認できなかった
  • 交通誘導員は歩行者を制止させようとしたが、声掛けなどは行わなかった
  • バスのドライバーによる手動での減速の判断と操作の遅れ

参考:自動運転車事故調査報告書(自動運転車事故調査委員会・交通事故総合分析センター)

2023年:バスが加速したために乗客が座席から滑り落ち負傷した事故

2023年1月に滋賀県大津市で、実証実験のため運行中だった自動運転バスの乗客が、バスが加速した際に座席から滑り落ち、負傷しました。

バスのドライバーは、前方に停車中だったトラックを避けようとしてハンドルを右へ切りました。障害物がなくなったと判断したことに伴い、自動運転システムが急な加速を指示したとされています。

参考:電気自動車の自動運転バス実験、中止へ 1月の乗客けが事案受け(京都新聞デジタル)

2023年:自動運転レベル4で無人の自転車に接触

2023年10月に福井県永平寺町で、日本初の自動運転レベル4の車両が、人が乗っていない自転車と接触する事故を起こしました。乗客にけがはありませんでした。

事故の主要な原因は、画像認識を行うAIに必要な事前の学習データが不十分で、道路脇に停められた無人の自転車を障害物と認識できなかったことでした。

参考:遠隔監視のみ(レベル4)自動運転サービスの実現に向けた取り組み(産業技術総合研究所)

2025年:大阪・関西万博の自動運転対応バスが壁に接触

2025年4月に大阪・関西万博の会場とパークアンドライド駐車場を結ぶ、自動運転レベル4に対応しているバスが、コンクリート壁に接触する事故を起こしました。回送中のため乗客はおらず、乗員にもけがはありませんでした。

バスは手動運転で回送中でしたが、待機場に停車した際にパーキングブレーキが動作せず、車両が動き始めました。気が付いたドライバーが回避操作を行ったものの間に合わず、コンクリート壁に接触しています。

自動運転システムの設定に誤りがあったことに起因して、システム内で大量のエラーデータが発生したことが、パーキングブレーキが動作しなかった原因でした。自動運転中の事故ではないものの、自動運転対応車でなければ起こりえなかった事故です。

参考:舞洲万博P&R駐車場の待機場における自動運転バス車両のコンクリート擁壁接触事故の原因と今後の対応について(Osaka Metro)

事故の原因の分類

国内・海外ともに、自動運転に関連したさまざまな事故が発生していますが、事故の原因は概ね以下の3通りに分類できます。

  • システムの限界
  • 試験中・実験中の不備
  • 人間のドライバーが犯した誤り

順に解説します。

システムの限界

自動運転システムが障害物や車線を検知したりする機能や、状況判断を行う機能には、技術的な限界があります。技術的な限界のために事故を回避する動作が行えなければ、自動運転であっても事故につながります

例えば、2016年にテスラ車がトレーラーに衝突した事故や、2023年に福井県永平寺町で無人の自転車に衝突した事故などでは、物体を物体として認識できなかったために事故が発生しました。

2022年にテスラ車が分離帯に衝突した事故は、車線の検知ができなかったことが原因でした。

2023年にGMクルーズのタクシーが起こした事故では、被害に遭った歩行者はひき逃げされたことによって突然飛ばされてきたので、タクシーが歩行者と衝突したこと自体は不可抗力といえます。しかし、その後路肩に寄せて停車するために動き出して結果的に被害者をひきずるという判断は、人間のドライバーであればまず行わなかったはずです。

試験中・実験中の不備

自動運転は目下開発中の技術で、試験や実験が繰り返されています。試験中ならではの環境が原因で事故につながることがあります。また、事前に想定していなかった不備が露呈して事故につながるケースもあります。

2018年にウーバーが起こした事故で、車両に本来備えられていた緊急ブレーキ機能が無効にされていたのは、まさに試験中ならではの事情でした。

2020年に日立市で発生した再起動を忘れたことによる事故も、本格的な実用化を前にした実証運行中ならではの原因だったといえます。実用化の際には、同様の事故は発生しないようになっていることでしょう。

2025年に万博会場のバスのパーキングブレーキが動作しなくなった件は、事前に発見できなかったシステムの不備が露呈したことによる事故といえます。

人間のドライバーが犯した誤り

レベル3以下の自動運転の場合は、人間のドライバーが運転操作に介入することが前提となっています。人間のドライバーが誤りを犯せば、事故につながります。

テスラ車のオートパイロット使用中に発生した事故のような、ドライバーに前方を監視したりハンドルを握ったりしている義務があるにもかかわらず怠っていた結果事故に至ったというケースは、人間の犯した誤りによる事故の典型例です。

2020年にSBドライブのバスが駐車車両に接触した事故や、大津市で実証運行中のバスが柵に接触した事故では、ドライバーの手動介入が事故につながっています。

自動運転車が事故を起こした場合の責任の所在は?

手動で運転している自動車が事故を起こした場合の責任の所在は、原則としてドライバーにあります。しかし、自動運転の場合は、事故が起きた原因が必ずしもドライバーにあるとは限らず、責任の所在がどこにあるのかが議論の対象となっています。

日本国内では現時点で、下記のように整理することが議論されています。

レベル2以下の自動運転(運転支援)ではドライバー

レベル2以下の自動運転機能はあくまで「運転支援機能」という扱いです。ドライバーは前方を監視しつつ、いつでも運転操作に復帰できるようにしておく必要があります。

そのため、事故が起きれば、手動運転の場合と同様にドライバーが責任を負うこととなるのが基本です。

レベル3以上の自動運転中の場合もドライバー

レベル3では、ドライバーに前方を監視する義務はありませんが、システムからの要求があれば、ドライバーが運転操作を行うことが前提となっています。したがって、レベル3の場合もドライバーが事故の責任を負うと想定されています

レベル4以上の場合は自動車製造者の責任となる可能性あり

レベル4以上の自動運転の場合は、人間の手動介入は基本的に不可能で、そもそもドライバーが乗車しない場合もあります。そのため、ドライバーが事故の刑事責任を負うことはないと考えられます

一方、事故の被害者は迅速に救済される必要があります。そのため民事上の賠償責任は、自動運転レベル4以上の事故であってもまずはドライバー等に課される方針となっています。そのうえで、自動運転車に欠陥があった場合には、メーカーから事後的に補償してもらえるしくみをつくることが検討されているのです。

参考:自動運転の車で交通事故 責任を負うのは誰?(日本経済新聞)

ソフトウェアの不具合による事故は自動車製造者

自動運転車の欠陥によって事故が発生した場合は、製造物責任法(PL法)の解釈に基づき、自動車製造業者が製造物責任を負うこととなります。

仮に状況判断などを行うAIといったソフトウェアの不具合で事故が起きた場合であっても、ソフトウェアの開発者ではなく自動車製造業者が製造物責任を負うことになっています

参考:AIが間違った判断をして事故が起きたら、誰が責任を負う?〜自動運転の議論を中心に(ブライザ株式会社)

しかし、自動運転を行う上で要となるであろうソフトウェアの製造者が、果たして製造責任を負わなくてよいのかは、今後議論されていくべきでしょう。

【まとめ】自動運転でも事故は起きているが発生率は少ない!事故の責任問題はこれからの課題

自動運転を行っている自動車が事故を起こしていることは歴然とした事実です。しかし、交通ルールを順守し、人為的なミスによる事故を起こさない自動運転車は、人間のドライバーが運転する自動車よりも、交通事故の発生率が低いと考えられています。今後の技術開発の進展によって、自動運転車の事故率はさらに低下することが期待できます。

また、事故が起きてしまった場合に誰が責任を負うのかは各国が議論中です。事故の責任に関する法整備も、自動運転の本格的な普及には欠かせないでしょう。

今後も当メディアでは、自動運転やEVなどのモビリティなどに関するニュースをまとめて発信していきます。最新情報が気になる場合は、ぜひ定期的にチェックしてみてください。

関連コラム