ハクソク

世界を動かす技術を、日本語で。

AI顔認識による誤認で無実の女性が投獄される

概要

  • Angela Lippsは誤認逮捕により約半年間勾留された。
  • 顔認証技術に基づく誤った身元特定が発端。
  • ファーゴ警察は十分な裏付け調査を行わず逮捕を実行。
  • 無実を証明し釈放されたが、生活基盤を喪失。
  • 警察からの謝罪や補償は一切なし。

テネシーの祖母、誤認逮捕による人生の危機

  • Angela Lipps、テネシー州在住の50歳の祖母、人生の大半を北中部テネシーで過ごす。
  • 旅行歴は隣接州のみ、ノースダコタ州には一度も訪れたことがない
  • 2024年7月14日、U.S. Marshalsが自宅で彼女を逮捕、4人の孫の世話中の出来事。
  • 顔認証ソフトによりファーゴの銀行詐欺事件の主犯と誤認。
  • テネシー州の刑務所に約4ヶ月間、保釈なしで勾留される。
  • ファーゴ警察からの事情聴取や連絡は一切なし。

誤認の経緯と証拠

  • ファーゴ警察は監視カメラ映像の女性を顔認証でLippsと特定。
  • SNSや運転免許証の写真と照合し、容疑を確定。
  • 裁判所文書によると、顔の特徴・体型・髪型のみが根拠。
  • Lippsの弁護士Jay Greenwoodは、証拠精査の必要性を指摘。
  • 銀行記録により、事件発生時Lippsはテネシー州にいたことが判明。
    • 同時刻に社会保障給付の入金や、地元ガソリンスタンドでの買い物履歴。
    • Uber Eatsの利用履歴も確認。

釈放とその後

  • 2024年12月24日、事情聴取から5日後に起訴取り下げ、釈放。
  • 釈放時、ファーゴ警察は帰宅費用を一切負担せず
  • 地元の弁護士らがホテル・食事代を援助。
  • F5 Projectの代表Adam Martinがシカゴまで送迎し、テネシー帰還を支援。
  • 逮捕期間中に家・車・飼い犬を失い、生活基盤崩壊。

警察対応と社会的影響

  • ファーゴ警察署長David Zibolskiは事件についての説明や謝罪を拒否。
  • 警察からの謝罪や補償は一切なし
  • 銀行詐欺事件自体は未解決、他の容疑者も未逮捕。

顔認証技術の課題と今後の教訓

  • 顔認証技術のみに依存した捜査のリスク露呈。
  • 裏付け調査や本人確認の重要性。
  • 誤認逮捕による被害者の生活再建支援の必要性。
  • 捜査過程の透明性と警察の説明責任。

被害者支援と社会的課題

  • 逮捕・勾留による生活破壊、家族・社会的信用の喪失。
  • 冤罪被害者への精神的・経済的補償の欠如。
  • 地域コミュニティやNPOによる支援の重要性。

Hackerたちの意見

> 顔認識技術によって、彼女がファーゴ警察が組織的な銀行詐欺事件と呼んでいる事件の主な容疑者であることが示された。 > 彼女の銀行記録によると、警察が彼女がファーゴで詐欺を働いていると主張していた時、彼女はテネシーの自宅から1200マイル以上離れたところにいた。 > 刑務所から請求書を支払えず、家や車、さらには犬まで失ってしまった。
https://archive.ph/2026.03.12-183903/https://www.grandforksh...
これはファーゴ警察を訴えるのに完璧なケースだと思う。アメリカ合衆国マーシャルズや他の組織も含めてね。監視カメラの映像に映っている女性は明らかに若く見えるし、彼女がやってないことを示す明らかなサインがたくさんある。彼女が政府から少なくとも数百万ドルを手に入れることを願ってるよ。
すべての素晴らしい資格免責の原則があるからね?それは夢物語だよ。
私の意見では、アメリカ合衆国マーシャルズだけが無実の側だと思う。彼らは調査を行わず、根本的な事件について何も知らずに令状を執行するだけだから。
> 彼女が政府から少なくとも数百万ドルを手に入れることを願ってる。結局、その費用は市民が負担することになるんだよね。やれやれ。
「刑務所からの支払いができず、彼女は家も車も犬も失った。」誰が彼女の犬を奪ったんだ?!
ほんとに関係ないよ。焦点を間違えてる。彼女がその女性の双子だったとしても、関係ないから。証拠が薄っぺらいのに、6ヶ月も刑務所に入って、家も車も犬も失うなんて、ありえないよ。
これ、イギリスの郵便局スキャンダルを思い出させるね。 https://en.wikipedia.org/wiki/British_Post_Office_scandal
その調査が進行中のとき、ずっと見てたよ。証言は全部YouTubeで生中継されてたしね。あの事件に関わる傲慢さと無能さには驚かされた。
もし手に入るなら、これに関するBAFTA受賞の4話のミニシリーズをおすすめするよ: https://en.wikipedia.org/wiki/Mr_Bates_vs_The_Post_Office
これはAIのエラーだけど、警察や検察、裁判官、そして刑務所の囚人を管理する郡保安官のミスでもある。関わった全員が訴えられて、免責の防御を隠れ蓑にできなくなることを願ってる。顔認識は決して令状の唯一の根拠になってはいけない。
これ、めっちゃ同意。AIに何かしらの権限があるっていう共同幻想はもうやめよう。責任を持てるのは人間だけだよ。終わり。
> これはAIのエラーだけど、警察や検察、裁判官、郡の保安官のエラーでもある。そう、複数の当事者が責任を負うことを忘れちゃいけない。こういうケースでは、a) 法執行機関がツールを誤用して極度の怠慢を示した b) 司法がこれを見逃したことで、監視責任においてもシステム的な怠慢がある c) このAIツールを販売・提供している会社は、誤用される可能性が高いことを知っておくべきで、その結果生じた損害に対して責任がある。こうした正常化された失敗に対して、すべての当事者が職を失ったり、正当性を失ったりすることが法律や規範によって求められない限り、公正な世界は実現しない。免責は失敗した実験だよ。
たとえ彼女が似たような人だったとしても(画像をチラッと見た人には明らかに同じ人じゃないけど)、3億4000万人のアメリカ人の中には似たような人がたくさんいるって常識でわかるでしょ。明らかにAIの神秘的な力を信じる愚かな考えと、容疑者の福祉を無視する態度があるよね。顔の一致だけで1000マイルも引きずられて、数ヶ月も拘束されるなんて、特に無罪を証明する証拠が簡単に手に入るときに、誰もが許されることじゃないよ。
> これはAIのエラーだよ。ソフトウェアがその人をアンジェラ・リップスとして特定したんだ。裁判の書類によると、事件を担当していたファーゴの刑事がリップスのSNSアカウントやテネシー州の運転免許証の写真を見たらしい。彼の起訴文には、リップスが顔の特徴や体型、髪型と色から容疑者に見えたって書いてあった。ソフトウェアは意図した通りに動いてたんだよ。これはデータの中から共通のパターンを見つけて手がかりを提供するフィルターツールで、マッチングするためのものじゃない。興味のある人にフラグを立てるだけ。マッチは0%から100%の間で、特定の入力(例えば、窓口の女性の上から撮った写真)に対してだけ相対的に存在するんだ。だから、ミスマッチは許容範囲内で起こることがあるんだよ。「マッチ」は、最終的にはそのツールを使う人間が手がかりを確認した後に下す判断なんだ。ここで誰かが運転をサボってたね。
自分: おお、すごい!故郷がHacker Newsのトップに載ってる!でも、さらに読んでみたら: あれ、警察署長も今日辞任したみたいだし、これが理由の一部だったとしても驚かないな。
> 警察署長も今日辞任したって。ソースは?
私は、こういうシャナニガンでしか全国ニュースに取り上げられない町出身だよ。
> 裁判所の文書によると、その事件を担当していたファーゴの刑事は、リップスのSNSアカウントとテネシー州の運転免許証の写真を見た。起訴文の中で、刑事はリップスが顔の特徴や体型、髪型と色から容疑者に見えると書いていた。 > 彼らが手に入れた後、ファーゴ警察は12月19日に彼女とリップスをキャス郡の刑務所で面会した。彼女はすでに5ヶ月以上も拘留されていた。警察が彼女をインタビューするのはこれが初めてだった。これがAIのせいだってどうして言えるの?AIが可能性のある一致を示しただけだし、実際の人間の刑事が確認したんだから。しかも、AIとは関係ない理由で、刑事司法制度がこの女性を5ヶ月も拘留させたまま、インタビューすらしなかった。AIをスケープゴートにするんじゃなくて、責任を放棄したプロの人間や、5ヶ月も人を拘留することが許される刑事司法制度を見直すべきだよ。
もっと複雑だと思う。これは「エラーの悲劇」の中の一つのエラーだね。
: https://projects.tampabay.com/projects/2020/investigations/p...
> どうしてこれがAIのせいなの?可能性のある一致を示しただけだよ。生身の人間の探偵が確認したんだ。今、私たちは平均的な人がAIを使ったときの現実の最初の事例を見ているんだ。「コンピュータが正しいと言ったから」という言い訳があったように、今は「AIが正しいと言ったから」にシフトしているだけ。人々がどれだけ機械に権威や思考を委ねるかを過小評価しないでほしい。責任を逃れようとするためにどれだけのことをするかもね(このスレッドで警察署長が辞任することになったけど、それが「退職」として扱われているのを見たよ)。
そうじゃないよ。これはAIによって加速された社会の崩壊に過ぎない。子供の頃に「ロボットが人間を殺す」という本や映画をたくさん見てきた私としては、AIの黙示録が、重要な問題で欠陥のあるAIを過信する愚かな人間によって引き起こされるなんて、驚きだよ。ほとんどの人間はAIと本物の知能を区別できないからね。それに、官僚が「コンピュータがそう言った」と言う傾向と組み合わさると、こんな奇妙な状況が生まれるんだ。もし人間がこの顔の一致をしたら、他の人間は彼を容赦なく嘲笑しただろう。でもAIを動かしているコンピュータがやったから、誰もそれについて考えようともしなかった。コンピュータは本質的に危険なのではなく、人間がそれに対してどう行動するかが危険なんだ。
コンピュータが「はい」と言った。
この特定の「AIの脅威」は、単なるAIじゃなくて、AIを使った警察、特に顔認識ツールや、広範囲にわたるLPR監視ツールなどを持つ警察なんだ。これらの新しい技術は、誰かの名前をくじ引きのように選び出して、クソみたいな警察によって一時的(または[半]永久的)に人生を台無しにするんだ。これが繰り返されている理由は、クソみたいな警察がこれらのツールを持っていて、それを使っているからだよ。これを防ぐ信頼できる方法が見つかるまでは、クソみたいな警察かもしれない人たちがこれらのツールにアクセスするべきじゃない。
> これがAIのせいだってどういうこと?何百万枚の写真をスキャンすることで、間違った人を逮捕する確率がめっちゃ高くなるかもしれないよね。
ツールのせいだよ。私たちの社会は、ツールを人間よりも優れた判断として扱って、完全に信頼することで責任を回避してるんだ。これは、あらゆるマイノリティグループが何十年も警告してきたことだよ。みんながツールの使用を擁護するのは、人間を責任追及することが、ほとんどの場合、これらのツールを完全に捨てることになるからなんだ。80年代からのマーケティングは同じで、「ツールは優れている(でもそうじゃなくなる時もある)」「ツールは完全に信頼される(でも失敗する時もある)」「ツールは間違いを犯さない(でも犯す時もある)」。もし本当にこの問題の被害者の声に耳を傾けていたら、FlockやPalantirのような会社は潰れて、創業者は責任ある地位から追放されてるはずだよ。こんなに多くの人がツールから責任を逸らすのは、マーケティングマニュアルの指示に従ってるだけで、実際には人間の被害者や、法律の下で全く責任を問われない人たちによるツールの誤用や不正使用なんてどうでもいいってことだよ。
ジョン・ブライアント、通称「市民権弁護士」が、似たような誤認逮捕のケースについて最近記事を書いたよ。結果はそこまで深刻じゃなかったけど、AIを他の証拠よりも信じる姿勢は同じだった。動画では、警官がカジノのAIソフトウェアを盲目的に信じてて、ちょっとした調査をすれば誰でも疑問に思うような状況でも、その男を逮捕しちゃったんだ。(しかも、彼が無実だと確認された後も、検察は侵入罪で起訴し続けた!)
この問題は現代のAIよりも前からあったんだ。https://en.wikipedia.org/wiki/Computer_says_noは、責任を持たないプロセスに意図的に責任を放棄することに基づいている。AIはそれを大規模に実現させてるだけなんだ。それがAIから受け入れるべきだってことにはならないよ。AIでも、間違ったタイミングでテレタイプに虫が止まったとしても、権威の外見に盲目的に従うことに対抗すべきなんだ。
本当にみんなに理解してほしいのは、ツールから責任を逸らして人間を責めることが、これらの会社のマーケティング戦略にまんまとハマってるってこと。警官は責任を問われない。法律が彼らに免責を与えてるから。政治家も次の選挙で落とされるくらいしか責任を問えない。システムを運営している人たちも責任を問われない。システムは権威あるものとしてマーケティングされてるけど、実際にはブラックボックスで透明性がないから。彼らは言われた通りにシステムを信じてるから、責任を問えないんだ。だから、チェーンの中の誰もがこれらのことに責任を問われないとき、法律が被害者に謝罪さえもさせないとき、ツールとその製作者だけが責任を問えるものになるんだ。ツールから責任を逸らすことで(「AIのせいじゃない、顔認識のせいだ」「人間が承認しなきゃいけなかった」「逮捕したのは人間であって機械じゃない」)、責任を問える唯一の存在を守ってることになる。責任を求めたいなら、資本に責任を問うことから始めて、これらの問題はすぐに解決するよ。技術的なニュアンスに迷わされずに、実際の人間の問題に目を向けよう。