ハクソク

世界を動かす技術を、日本語で。

テスラは自動運転のテストを続けるために致命的な事故を隠蔽した

概要

  • Teslaの内部データ流出により、自動運転に関する数千件の重大事故が発覚
  • 一部事故は死亡事故につながり、被害者へ243百万ドルの賠償命令
  • Elon MuskとTeslaが公道を実験場として利用した疑惑
  • データ改ざんや隠蔽、被害者家族の法廷闘争
  • 米国当局による複数の調査と今後の訴訟の見通し

テスラ自動運転事故の隠蔽とデータ流出

  • Tesla内部データの大規模流出により、自動運転機能“Autopilot”に関する数千件の重大事故が明るみに
  • 一部事故は死亡事故に発展し、被害者や家族への巨額賠償命令
  • Elon MuskとTeslaがAI自動運転技術を十分な検証なしで市場投入、公道を実験場として使用
  • 数千件の顧客クレーム、うち2400件超が意図しない加速、事故件数は1000件超
    • 多くのケースで「未解決」ステータス
  • Tesla車両のAIが突然加速・急停止する「AIハルシネーション」現象
    • システムの誤認識による重大事故
  • 一般ドライバーや歩行者がテスト対象となり、同意なくリスクに晒される現状

被害者と家族の闘い

  • 歩行者Naibel BenavidesさんがAutopilotモードのTesla車両事故で死亡
    • 同乗者Dillon Angulo氏は重傷、「自分が実験台だった」と証言
  • 遺族はTeslaを提訴、重要情報の隠蔽を主張
  • 事故時の「ブラックボックス」データが意図的に破損・消去
    • 専門家の復元で、Teslaが事故当日にシステム不具合を認識していた事実が発覚
    • 車両は障害物を検知していたが、回避操作を行わず警告音のみ

歴史的な判決と今後の展開

  • Teslaに対し243百万ドル超の損害賠償命令、Autopilot関連訴訟で初の判決
  • 裁判所はTeslaと運転者双方に責任があると認定
  • Teslaは判決取り消しを求めたが、連邦判事が制裁を維持
    • 今後も控訴の可能性

米国当局と内部告発者による調査

  • **米司法省とNHTSA(国家道路交通安全局)**がTeslaの消費者欺瞞疑惑を調査中
  • 内部告発者が「安全よりスピード優先の社風」「危険性を上層部に警告していた」と証言
  • 今後も追加訴訟の可能性、最初の判決が他の被害者の訴訟を後押し

まとめ

  • Teslaの自動運転事故隠蔽問題は、技術革新の裏での倫理と安全軽視を浮き彫り
  • 被害者家族の闘いと歴史的判決が、自動運転車の社会的責任を問う転機
  • 公道を実験場にする企業行動への規制強化と、今後の法的・社会的議論の高まり

Hackerたちの意見

記事はドイツ語でも公開されてるよ: https://www.srf.ch/news/dialog/autonomes-fahren-wie-tesla-un...
スイスの国営ラジオ・テレビ局だから、たぶん記事は4カ国語以上で出てると思うよ。
テスラは、自動運転の事故についての遵守や開示に関して、非常に悪い実績があるね。
記事に主張に関連する具体的な数字が欠けてるって感じた?その情報があまりにも曖昧だったのがちょっと変だった。個々の悲惨な逸話は別にしても、記事の曖昧さが主張の価値をかなり薄めてたよね。
テスラが事故の数秒前にオートパイロットを切って、事故中にアクティブとして記録されないようにしてるのは、ほんとにヤバいよね。 https://futurism.com/tesla-nhtsa-autopilot-report
これが、私が試すのに慎重になってる理由の一部だと思う(競合他社のバリエーションも含めて)。みんな注意を払わせようとするけど、突然判断を迫られることがあるからね。だったら、常に自分で運転した方がいいし、ギリギリで修正しようとする必要もないと思う。
確かに、そのレポートには「自動運転機能は最初の衝突の1秒前に車両制御を中止した」と書いてあるね。自動運転機能が解決できない状況になったらすぐに制御を中止するのは正しいと思う。もしテスラがこれを使って「FSDが事故の原因じゃない」と証明しようとしている証拠があるなら、考えを変える準備はあるよ。個人的には、事故の5秒前くらいが妥当な限界だと思う。
NHTSAの調査結果がこれに反しているらしいけど(それが2022年の報告より最近の変更かもしれないけど)、テスラはFSDのマーケティングページで、衝突イベントの5秒前をデータ報告の基準として使ってるって主張してる: 「もしFSD(監視付き)が衝突イベントの5秒前にアクティブだった場合、テスラは衝突がFSD(監視付き)で発生したと見なして、車両安全報告の衝突率を計算する。」このアプローチは、ドライバーが潜在的な危険を認識して手動で車を操作するのに必要な時間を考慮してるんだ。この計算により、FSD(監視付き)の報告された衝突率は、システムが車を制御している間だけでなく、ドライバーがシステムを解除したり、衝突の直前にシステムが自動で中止したシナリオも含まれるようになってる。理論的には、これはほとんどの交通事故で使われる約1〜1.5秒の一般的な認知反応時間を十分にカバーするはず。でも、ドライバーアシスタンスシステムがドライバーに制御を戻すプロセスや、それがドライバーの反応時間や全体的な注意力に与える影響について、どんな研究が行われているのかすごく気になる。もしドライバーが車にブレーキやハンドル操作を任せているなら、本当にそんなに低い認知反応時間が見られるのか、それとも測定される行動が変わってしまったのか?刺激に対する直接的な反応のタイミングを計る代わりに、今は注意を再び引き戻すのにかかる時間(たとえ「注意を払っている」と名目上言っていても)、車の完全な制御に移行する時間、そして今迫っている刺激に反応する時間を含めている。そう考えると、このアプローチはブレーキペダルを踏んだりハンドルを切ったりすることが、今アクティブな制御と認識のサインだと暗黙の前提を置いている。果たしてそうなのか?それともただの本能的な反応に過ぎないのか?運転中にブレーキを急に踏まれた時、運転してないのに右足を動かして空想のブレーキペダルを踏むようなことがあったんだ。運転を学んでいた頃、母が普通のブレーキの時にそんなことをしていたのを覚えてる。0. https://www.tesla.com/fsd/safety#:~:text=within five seconds
これはもうしばらく知られていることで、記録を避けるためじゃなくて、壊れたコンピュータが危険な状況で動き続けるのを避けるためなんだ。もし車がクラッシュしてひっくり返ったら、AP/FSDはその状況に対するトレーニングがないし、初動隊が車を確保しようとしている間、車輪が全速力で回り続けることになる。AEBはまだブレーキをかけるために働いているはずだけど、オートステアやクルーズコントロールは、コンピュータや電子機器がまだ正常に動作している間は無効になるから、事故後に乗客や初動隊のために車をより安全にするためなんだ。
いつかAIが人間よりも運転が無限に上手くなる日が来るのは明らかだけど、その日はまだ来てないね。
正直、私にはあまり関係ないかも。AIが私の命や安全を他のどんな懸念よりも優先してくれる保証がない限り、信頼できるかどうかわからない。自分を犠牲にして他のダメージを最小限に抑えるようなAI運転の車には絶対乗りたくない。
「無限に」は高いハードルだけど、Waymoはすでに大多数の人間ドライバーよりも明らかに優れてるよね。
> その日はまだ来ていない Waymoに乗ったことある?SAEレベル4はもう実現してるし、人間より安全だよ。[1]
今日は確実に少しだけ良くなってるし、これからもっと良くなるよ。だからって、人間ドライバーができること全てにおいて優れているわけじゃなくて、平均的に良いってだけなんだ。ギザギザの境界線は実在していて、すごく重要な安全面の考慮事項だけど、平均も大事だよね。
2015年の時点で、HNが「5年後には運転しなくなる」って予測で溢れてたの覚えてる?見た感じだと、人間ドライバーによる重大な事故は、危険なことをわざとやってる場合が多いよ(私の地域では、主に間違った場所やタイミングでの追い越しとか)。それ以外は、人間はかなり安全に運転してると思う。厳しく管理された環境を超えたら、ちゃんとした世界モデルができるまで自動運転は良くならない気がする。だから、もしかしたら永遠に無理かも。
ちょっと動画と記事の背景を説明すると: - ドキュメンタリーはRTSからのもの。RTSはスイスの主要な公営メディアだよ。典型的なヨーロッパの公営メディアとは違って、資金がしっかりしてるし(ほとんどとは逆に)、質の高いコンテンツを作る傾向がある。独立していて、政治的にはやや左寄りだね。 - 動画はフランス語だけど、スイスではメディアが地域の言語に関連した3つのグループに分かれてるから。RTSはフランス語、SSRはドイツ語、RSIはイタリア語。だからドイツ語の翻訳もあるんだ。 - 彼らは一般的に協力的でオープンマインドだから、もし誰かが英語の字幕を提出したいなら、連絡してみて。受け入れてくれるかもしれないよ(何も約束はできないけど)。
ごめん、でも君は欧州の公共メディアが普通は信用できないって暗に言ってるように聞こえるよ。なんで?質の高い公共放送局を持つ欧州の国々のリストを書こうと思ったけど、すぐにリストが長くなって、ちょっと馬鹿らしくなっちゃった。
https://waymo.com/safety/impact/
でも、これって運転手が注意を払っていなかった事故なのかな?
もちろん。でも、FSDの性質が彼らに注意を払わせないっていう主張があるよね。
ドイツ語の同じ記事があるよ、もしそっちの方がいいなら: https://www.srf.ch/news/dialog/autonomes-fahren-wie-tesla-un...
これは古いオートパイロットについての話で、FSDのことじゃないし、記事には新しい情報はなさそう。2023年から公開されている同じリークデータに基づいてるみたい。タイトルは正確じゃない気がする、致命的な事故を隠してるなんてことはないから。