stg-car

【日本・海外別】自動運転車が起こした事故を紹介。原因や責任の所在について解説

更新日: 2025/11/30投稿日: 2025/7/23

EV
【日本・海外別】自動運転車が起こした事故を紹介。原因や責任の所在について解説
目次 nonactive

「自動運転車って過去にどのような事故を起こしたの?」「自動運転車が事故を起こした場合、責任は誰が負うの?」「万が一事故に遭ったら、保険はどうなる?」

このような疑問をお持ちではないでしょうか?

2025年現在、完全な無人運転(レベル5)は実現していませんが、世界各地で自動運転の実証実験・商用サービスが急速に拡大しています。

米国では自動運転タクシーの走行距離が年間数千万マイルに達し、日本でも2023年に「日本初のレベル4」サービスが福井県永平寺町でスタートしました。

一方で、カリフォルニア州だけでも2024年に105件、2023年に133件の自動運転関連事故が報告されています。

また、手動運転と比べて80〜90%ほど衝突事故を軽減できるというデータがある一方で、技術はまだ発展途上であり、事故のリスクはゼロではありません。

この記事では、海外・国内で実際に起きた自動運転関連の事故事例と、その原因・責任の所在を詳しく解説します。自動運転車の購入を検討している方、事故リスクや責任問題、保険について知りたい方は、ぜひ最後までお読みください。

※本記事では、自動運転(レベル3以上)だけでなく「運転支援」に分類される車両(レベル2以下)の事故についても取り扱います。

自動運転のレベルについては、以下の記事も合わせてご確認ください。

自動運転のレベルってなに?それぞれの車種一覧やレベル5の実現可能性について言及

投稿日: 2025/5/31更新日: 2025/12/1

自動運転のレベルってなに?それぞれの車種一覧やレベル5の実現可能性について言及

海外での自動運転関連の事故事例

海外での自動運転関連の事故事例

海外では、Google(Waymo)、テスラ、ウーバー、GMクルーズなど大手企業が自動運転技術の開発・商用化を競っていますが、その過程で複数の重大事故が発生しています。

カリフォルニア州道路管理局(DMV)のデータによると、2024年は年間105件(Waymo 65件、Zoox 25件など)、2023年は133件(Waymo 50件、Cruise 41件など)の衝突事故が報告されています。

ここでは、特に注目すべき8つの事故事例を紹介します。

2016年:グーグルの自動運転車が路線バスと接触事故

項目内容
発生日2016年2月14日
発生場所米国カリフォルニア州マウンテンビュー
車両トヨタ・レクサスRX450h(自動運転システム搭載)
被害状況物損のみ(けが人なし)

Googleが開発中の自動運転車が、前方の砂袋を避けるため車線変更を試みた際、後方から時速24kmで走行してきた路線バスの側面に衝突しました。自動運転車は時速3km以下で走行中でした。

自動運転車のドライバーが「バスが道を譲ってくれる」と判断し、自動運転モードを継続したことが原因。Googleの開発試験では過去にも事故が発生していましたが、すべて相手方の責任でした。

この事故は初めてGoogle側に責任が認められたケースとして注目されました。

2016年:テスラ車がトレーラーに衝突して死亡事故

項目内容
発生日2016年5月7日
発生場所米国フロリダ州
自動運転レベルレベル2(オートパイロット)
被害状況ドライバー死亡

テスラの運転支援機能「オートパイロット」動作中に、左折してきた白い大型トレーラーの下に潜り込む形で衝突。自動運転(運転支援含む)の自動車による米国初の死亡事故となりました。

強い日差しとトレーラーの白い車体により、システムがトレーラーを「物体」として認識できなかったことが技術的な原因です。

しかし、より重要な問題はドライバーがハンドルにほとんど触れていなかった点です。走行37分間のうち、ハンドルに触れていたのはわずか25秒間。

オートパイロットからは7回の警告が出されていましたが、ドライバーは無視していました。この事故を受け、テスラは警告に反応しない場合に自動運転機能を使用不可にする仕様変更を行いました。

2018年:ウーバーの自動運転実験中に歩行者を死亡させる事故

項目内容
発生日2018年3月18日
発生場所米国アリゾナ州テンピ
自動運転レベル実験中(レベル4相当)
被害状況歩行者1名死亡(49歳女性)

ウーバーテクノロジーズの自動運転車が、自転車を押しながら車道を横断中の歩行者を時速約64kmではねて死亡させました。自動運転車が歩行者を死亡させた世界初の事故として世界中で大きく報道。

システムは衝突の約6秒前に「物体」を検知していましたが、自転車を押して歩いていた歩行者を正しく認識できませんでした。

さらに深刻だったのは、ボルボ製車両に搭載されていた緊急ブレーキ機能がテスト用に無効化されていたこと、そして監視役のドライバーがテレビ番組を視聴していたことです。

米道路安全保険協会(IIHS)は、ボルボの安全システムが解除されていなければ事故を回避できた可能性があると指摘しています。

2018年:テスラ車が幹線道路の分離帯に衝突して死亡事故

項目内容
発生日2018年3月23日
発生場所米国シリコンバレー
自動運転レベルレベル2(オートパイロット)
被害状況ドライバー死亡(38歳男性)

オートパイロット使用中のテスラ「モデルX」が、高速道路でコンクリート分離帯に衝突しました。システムが車線を検知できなかったことが技術的な原因です。

しかし、事故直前の6秒間、ドライバーはハンドルを握っておらず、スマートフォンでゲームをプレイしていたことが判明しています。

レベル2の運転支援では、ドライバーの監視義務が継続することを認識していなかった典型例です。テスラ車の自動運転モード中の死亡事故は、2016年5月に続いて2件目となりました。

2023年:自動運転タクシーが人を下敷きにする事故

項目内容
発生日2023年10月2日
発生場所米国サンフランシスコ
自動運転レベルレベル4(無人運転)
被害状況歩行者1名重傷

GMクルーズの無人運転タクシーが、別の車両にひき逃げされた人を下敷きにする事故が発生。被害者は別車両にはねられボンネットから落下した後、タクシーの前方に倒れました。

タクシーは急ブレーキをかけましたが間に合いませんでした。

問題はその後の判断です。システムが事故を「側面衝突」と誤認識し、路肩に寄せて停車しようとしたため、被害者を6m引きずる結果となったのです。

人間のドライバーであれば絶対に行わない判断であり、AIの状況判断能力の限界を示した事故でした。この事故を受け、カリフォルニア州はCruiseの営業停止と無人走行試験許可を即時停止としました。

2023年:テスラ車が道路上にいた人を死亡させる事故

項目内容
発生日2023年11月27日
発生場所米国アリゾナ州
自動運転レベルレベル2(FSD)
被害状況歩行者1名死亡

テスラの運転支援機能「フルセルフドライビング(FSD)」使用中に、高速道路上で先行する衝突事故の交通整理を行っていた女性をはねました。FSD関連で初の歩行者死亡事故として認定されています。

被害者は安全ベストを振り回して危険を知らせていましたが、テスラ車は時速約105km(65マイル)から全く減速せずに衝突。

まぶしい夕日による視界不良で、システムが歩行者を検知できなかったことが原因とされています。

2024年:テスラ車が二輪車のライダーを死亡させる事故

項目内容
発生日2024年4月19日
発生場所米国ワシントン州シアトル
自動運転レベルレベル2(FSD)
被害状況二輪車ライダー1名死亡

FSD動作中のテスラ車が前走する二輪車に追突し、はね飛ばされたライダーがテスラ車の下敷きになり死亡しました。ドライバーはFSD動作中に携帯電話を見ていたことを当局に供述しています。

レベル2の運転支援システムでは、ドライバーに常時監視義務があります。この事故は、運転支援機能への過信がいかに危険かを示す典型例です。

2024年:自動運転タクシーと配送ロボットが交差点で衝突する事故

項目内容
発生日2024年12月27日
発生場所米国ロサンゼルス・ウエストハリウッド
自動運転レベルレベル4(両者とも自律走行)
被害状況物損のみ(双方とも損傷なし)

Waymoの自動運転タクシーとServe Roboticsの配送ロボットが交差点で衝突しました。

配送ロボットが歩道に乗り入れようとしていたところに、右折してきたWaymo車が時速約6.4km(4マイル)で接近し、急ブレーキが間に合わず接触しました。

双方とも特に損傷はなく、約1分間のシステムロック後に走行を再開しました。しかし、この事故は異なる自律システム同士が衝突するという、自動運転時代の新たな技術的課題を浮き彫りにしました。

Waymoは配送ロボットを「無生物」として認識していたと説明しています。

日本国内での自動運転関連の事故事例

自転車との接触事故のイメージ

日本国内でも自動運転の実証実験・商用サービスが各地で進んでおり、残念ながら事故も発生。海外と比較すると死亡事故は発生していませんが、物損事故や軽傷事故が複数報告されています。

ここでは9つの国内事故事例を紹介します。

2018年:テスラ車が高速道路で二輪車のライダーをはねて死亡させる事故

項目内容
発生日2018年4月
発生場所神奈川県・海老名SA付近
自動運転レベルレベル2(運転支援)
被害状況二輪車ライダー1名死亡

運転支援機能を使用中のテスラ車が、別の事故の救護にあたっていた二輪車ライダーをはねました。

前方車両が車線変更して車間距離が空いたこと、およびライダーを検知できなかったことで自動ブレーキが作動しませんでした。さらに、テスラ車のドライバーは居眠り運転をしていたことが判明しています。

2019年:低速自動運転車が接触事故

項目内容
発生日2019年8月26日
発生場所愛知県豊田市
車両名古屋大学所有「ゆっくり自動運転」車両
被害状況物損のみ(けが人なし)

名古屋大学所有の低速自動運転車が時速約14kmで走行中、追い越そうとした一般車両と接触しました。

自動運転車が事故1秒前に進行方位を誤検知し、誤った方向へ急ハンドルを切ったことが原因でした。事故検証委員会の報告書では、リスクアセスメント水準の低さや実験実施体制の不備も指摘されています。

2020年:試験走行中の自動運転バスが駐車車両に接触

項目内容
発生日2020年3月10日
発生場所東京都千代田区・丸の内仲通り
運行主体BOLDLY(旧SBドライブ)
被害状況物損のみ(負傷者なし)

仏Navya社製の自動運転バス「NAVYA ARMA」が、バス停に停車する際に路上駐車の乗用車に接触しました。

バスは自動的に減速を開始していましたが、オペレーターが手動ブレーキに切り替えたことで制動力が弱まり、接触に至りました。手動操作への切り替えから接触までわずか1.3秒でした。

全ての操作をシステムに任せるか、緊急停止ボタンを押すかのどちらかを選択していれば、接触は避けられたと分析されています。

2020年:研究所が実施した実証実験で柵に接触

項目内容
発生日2020年8月30日
発生場所滋賀県大津市
運行主体産業技術総合研究所
被害状況物損のみ(けが人なし)

実証実験中の自動運転バスがUターンの際に歩道柵に接触しました。ドライバーが「柵に接触するおそれがある」と判断し、接触の約8秒前から手動操作に切り替えていましたが、車幅感覚の判断ミスで接触。

この事案では、GPSの精度や自動運転システムに異常は認められず、最終的に運転手の判断ミスが要因とされました。

手動運転でも慎重な操作が必要な箇所を自動運転ルートに設定したことが、ドライバーの介入を招いた一因と考えられています。

参考:自動運転実証実験中に発生した交通事故の概要(国土交通省)

2020年:自動運転バスが急旋回しガードレールに接触

項目内容
発生日2020年12月14日
発生場所茨城県日立市・ひたちBRT路線
運行主体産業技術総合研究所
被害状況物損のみ(乗員3名にけがなし)

バス専用道を時速30kmで走行中、突然右方向へ急旋回してガードレールに接触しました。

走行前に再起動すべき位置推定機器のうち1つが再起動されておらず、古い位置情報が使用されたことで誤った車両制御が行われたのが原因。産総研は再発防止策として、機器に再起動を促す表示を出すなどの対策を行いました。

2021年:東京五輪の選手村で歩行者との接触事故

項目内容
発生日2021年8月26日
発生場所東京都・五輪選手村内
車両トヨタ製e-Palette(レベル2)
被害状況視覚障がい者1名が頭・両足に全治2週間の軽傷

トヨタが開発した自動運転EV「e-Palette」が、交差点を右折中に視覚障がいを持つ日本人選手と接触。

e-Paletteのセンサーが選手を検知して一時停止したものの、オペレーターが安全確認後に発進させた際に事故が発生しました。

以下の複合的なヒューマンエラーが原因と結論付けられています。

  • 交通誘導員の人員配置計画が曖昧だった
  • 歩行者が視覚障がい者でバスの接近を確認できなかった
  • 交通誘導員が声掛けによる制止を行わなかった
  • ドライバーによる手動減速の判断と操作が遅れた

2023年:バスが加速したために乗客が座席から滑り落ち負傷した事故

項目内容
発生日2023年1月11日
発生場所滋賀県大津市
被害状況乗客1名負傷

実証実験中の自動運転バスで、乗客が座席から滑り落ちて負傷。ドライバーが前方の停車トラックを避けるためハンドルを切った後、障害物がなくなったとシステムが判断し、時速10kmまで急加速を指示したことが原因でした。

この事故を受け、実証実験は中止となりました。

2023年:自動運転レベル4で無人の自転車に接触【日本初のレベル4事故】

項目内容
発生日2023年10月29日
発生場所福井県永平寺町
自動運転レベルレベル4(日本初)
被害状況物損のみ(乗客4名にけがなし)

日本初のレベル4自動運転車両として2023年4月にサービス開始した車両が、道路脇に停められた無人の自転車と接触。

ヤマハ発動機の電動カート(7人乗り)をベースに、電磁誘導線を使った「誘導型」自動運転を行っていました。

画像認識AIの学習データが不十分で、無人の自転車を障害物として認識できなかったことが原因でした。

運行は一時停止され、無人自転車の画像を追加学習させるなどの対策を講じた後、2024年3月に再開しました。

2025年:大阪・関西万博の自動運転対応バスが壁に接触

項目内容
発生日2025年4月28日
発生場所大阪・関西万博会場周辺(舞洲P&R駐車場)
自動運転レベルレベル4対応(手動運転中)
被害状況物損のみ(乗員にけがなし)

万博会場とパークアンドライド駐車場を結ぶレベル4対応バスが、手動運転での回送中にコンクリート擁壁に接触。ドライバーが待機場に停車して運転席を離れたところ、車両が自動で動き出しました。

自動運転システムの設定誤りにより大量のエラーデータが発生し、パーキングブレーキが動作しなかったことが判明しています。

自動運転中の事故ではありませんが、自動運転対応車両特有のシステム不具合による事故でした。同年7月にも同路線で縁石接触事故が発生しています。

自動運転事故の原因の分類

自動運転事故の原因の分類

ここまで紹介した国内外の事故事例を分析すると、原因は大きく3つのカテゴリに分類できます。

原因分類概要該当事例
システムの限界技術的な検知・判断能力の限界テスラ車のトレーラー事故、GMクルーズ事故、永平寺町事故など
試験中・実験中の不備開発途上ならではの設定ミスや未発見の不具合ウーバー事故、日立市の急旋回事故、万博バス事故など
人間のドライバーの誤り過信、監視義務違反、操作ミステスラ死亡事故の多く、五輪選手村事故、SBドライブ事故など

システムの限界

自動運転システムの障害物検知や状況判断には、現時点で技術的な限界があります。技術的限界により事故回避動作ができなければ、自動運転であっても事故は発生します。

具体的な限界の例として、以下のとおりです。

  • 物体認識の限界:2016年のテスラ・トレーラー事故(白い車体を空と誤認)、2023年の永平寺町事故(無人自転車を認識できず)
  • 車線検知の限界:2018年のテスラ・分離帯衝突事故
  • 状況判断の限界:2023年のGMクルーズ事故(被害者を引きずる判断)
  • 異なる自律システムとの協調:2024年のWaymo・配送ロボット衝突事故

米国道路安全保険協会(IIHS)の研究によると、完全自動運転車でも事故の約3分の2は防げないとされています。自動運転技術には限界があることを理解しておくことが重要です。

試験中・実験中の不備

自動運転は開発途上の技術であり、試験・実験段階ならではの環境や未発見の不備が事故につながるケースがあります。

具体例は以下のとおりです。

  • 安全機能の無効化:2018年ウーバー事故(緊急ブレーキをテスト用に無効化)
  • 運行前チェックの漏れ:2020年日立市事故(機器の再起動忘れ)
  • システム設定の不備:2025年万博バス事故(設定誤りによるブレーキ不作動)
  • 学習データの不足:2023年永平寺町事故(無人自転車の画像データ不足)

これらは本格的な実用化段階では解消されるべき問題ですが、現時点では注意が必要です。Waymoのように事故発生後に自主リコールを行い、ソフトウェアを改善するケースも増えています。

人間のドライバーが犯した誤り

レベル3以下の自動運転では、人間のドライバーが運転に介入することが前提となっています。実は多くの「自動運転車による事故」において、自動運転システムに問題がないケースも少なくありません。

ドライバーの誤りが事故につながるケースは多く、これが「AIの暴走」というイメージとは異なる現実です。主な誤りのパターンは以下のとおりです。

  • 監視義務違反:ハンドルを握らない、携帯電話を操作、居眠り、テレビ視聴
  • 過信:レベル2を「完全自動運転」と誤解し、システムに任せきりにする
  • 不適切な手動介入:BOLDLYバス事故、大津市柵接触事故(中途半端な介入が事故を招く)

警察庁によると、自動ブレーキの過信・誤用による事故は2015年12月以降で21件報告されています。現状のレベル2(運転支援)では、ドライバーに常時監視義務があることを忘れてはなりません。

自動運転車が事故を起こした場合の責任の所在は?

自動運転車が事故を起こした場合の責任の所在は?

自動運転車の事故で「誰が責任を負うのか」は、多くの方が気になるポイントです。日本では現在、自動運転レベルごとに責任の所在が整理されつつあります。

自動運転レベル運転主体事故時の主な責任者
レベル0〜2ドライバードライバー
レベル3システム(緊急時はドライバー)基本的にドライバー(システム欠陥時は製造者)
レベル4〜5システム製造者・運行事業者(民事は運行供用者)

レベル2以下の自動運転(運転支援)ではドライバー

レベル2以下は「運転支援機能」という位置づけです。アダプティブクルーズコントロールやレーンキープアシストなど便利な機能がありますが、あくまでドライバーの運転を「支援」するものに過ぎません。

ドライバーは常に前方を監視し、いつでも運転操作に復帰できる状態を維持する必要があります。

そのため、事故が起きた場合は、手動運転と同様にドライバーが責任を負うのが基本です。テスラのオートパイロット事故の多くで、ドライバーの監視義務違反が問題となっているのはこのためです。

レベル3以上の自動運転中の場合もドライバー

レベル3では、特定条件下でドライバーの前方監視義務が免除されます。高速道路の渋滞時など、一定の条件下ではスマートフォンを操作したりテレビを見たりすることも可能です。

しかし、システムからの要求があれば、ドライバーが即座に運転を引き継ぐ必要があります。

レベル3でも、事故時の責任はドライバーが負うと想定されています。2020年施行の改正道路交通法で、レベル3の自動運転で発生した事故責任については、自動車の運転者が責任を負うことが明文化されました。

ただし、システムの要求に適切に応答できなかった場合と、システム欠陥があった場合では、責任の所在が異なる可能性があります。

レベル4以上の場合は自動車製造者の責任となる可能性あり

レベル4以上では、人間の介入は基本的に不要で、ドライバーが乗車しないケースも。そのため、ドライバーが刑事責任を負うことはないと考えられています。

日本ではレベル4の運行について許可制を導入し、運行主体である自治体や事業者の義務が明確にされています。

ただし、被害者の迅速な救済のため、民事上の賠償責任は、まず運行供用者(車両所有者等)に課される方針です。これは現行の自賠法の枠組みを維持するものです。

その上で、車両に欠陥があった場合は、製造物責任法(PL法)に基づきメーカーが事後的に補償する仕組みの整備が検討されています。

ソフトウェアの不具合による事故は自動車製造者

車両の欠陥によって事故が発生した場合は、製造物責任法(PL法)に基づき、自動車製造業者が責任を負います。

重要なのは、AIなどのソフトウェアの不具合が原因でも、ソフトウェア開発者ではなく自動車製造業者が製造物責任を負う点です。

自動運転の要となるソフトウェア製造者の責任については、デジタル庁のサブワーキンググループで議論が続けられています。

事故原因別の責任者まとめ

事故原因責任を負う可能性がある主体
車両・システムに原因車両メーカー、車載ソフトウェア開発者
ドライバーに原因車両の所有者、ドライバー
道路環境に原因国道事務所、県庁、市役所など道路管理者
他の車や歩行者に原因相手方の交通参加者
ハッキング等自動車メーカー、システム開発責任者

自動運転車の事故と保険について

自動運転車の事故と保険について

自動運転車で事故が起きた場合、責任の所在が明らかになるまで時間がかかる可能性があります。その間、被害者の救済が遅れてしまうことが懸念されていました。

そこで、多くの保険会社では「被害者救済費用特約」を設定しています。

これは、車の欠陥やハッキングなどにより起きた人身事故または物損事故が発生した場合に、法律上の損害賠償責任が不明または存在しない場合でも補償する特約です。

自動付帯の特約として提供されていることが多いため、ご自身の自動車保険の内容を確認してみてください。また、自動運転レベル3以上の車両には、「自動運行装置」の設置が保安基準で義務付けられています。

これにより、事故直前にブレーキ操作を行っていたかどうかなどの情報が記録され、事故責任の切り分けや原因究明に役立ちます。

自動運転の事故でよくある質問(FAQ)

自動運転の事故でよくある質問(FAQ)

自動運転の事故に関するよくある質問を解説していきます。

Q. 自動運転車で死亡事故は何件起きていますか?

報道によると、2022年6月時点でアメリカで3件の死亡事故が確認されています(テスラ2件、ウーバー1件)。日本国内では自動運転中の死亡事故は発生していません。

ただし、これらはレベル2〜3の「運転支援」中の事故であり、レベル4(完全自動運転)での死亡事故は発生していません。

Q. 自動運転車は本当に安全ですか?

手動運転と比べて80〜90%ほど衝突事故を軽減できるというデータがあり、技術的には安全性が高いと評価されています。ただし、現時点では技術の限界もあり、事故がゼロになるわけではありません。

レベル4以上の自動運転では、各社が事故発生ごとにソフトウェアを改善し、安全性を向上させています。

Q. 自動運転車の事故で責任を負うのは誰ですか?

自動運転レベルによって異なります。レベル2まではドライバー、レベル3も基本的にドライバー、レベル4以上は製造者・運行事業者が責任を負う方向で議論が進んでいます。

ただし、民事上の賠償責任は被害者救済のため、まず運行供用者(車両所有者等)に課される方針です。

Q. 自動運転車に保険は必要ですか?

はい、必要です。自動運転車であっても自賠責保険は必須であり、任意保険への加入も推奨されます。

多くの保険会社では「被害者救済費用特約」を設定しており、車の欠陥やハッキングによる事故でも補償を受けられる場合があります。

【まとめ】自動運転でも事故は起きているが発生率は低い傾向。事故の責任問題は今後の重要課題

【まとめ】自動運転でも事故は起きているが発生率は低い傾向。事故の責任問題は今後の重要課題

本記事では、海外・国内の自動運転関連事故事例と、その原因・責任の所在について解説しました。事故の原因を分析すると、以下の点が見えてきます。

  1. 「AIの暴走」より「人間側の誤解・過信」が事故原因として多い
  2. レベル2(運転支援)の事故をレベル4(完全自動運転)と混同しやすい
  3. 責任の所在はレベルごとに整理されつつある
  4. レベル4の死亡事故はいまだ発生していない(軽微な物損事故が大半)

自動運転車が事故を起こしていることは事実ですが、手動運転と比べて80〜90%ほど衝突事故を軽減できるというデータもあり、技術の安全性は着実に向上しています。

むしろ現状で注意すべきは、機能が向上したレベル2(ADAS)による過信です。ハンズオフ運転が可能なモデルも増えていますが、あくまで「運転支援」であり、自動運転とは大きな隔たりがあることを忘れてはなりません。

事故発生時の責任の所在については、各国で議論が続いています。責任に関する法整備は、自動運転の本格普及に不可欠な要素です。

当メディアでは、今後も自動運転やEVなどモビリティに関する最新ニュースをわかりやすく発信していきます。最新情報が気になる方は、ぜひ定期的にチェックしてください。

関連コラム