画像
ドリトスの袋が銃と誤検知される / Credit:Canva
artificial-intelligence

ドリトスを食べていた学生、AIの誤検知により警察に囲まれる (2/2)

2025.10.29 11:30:57 Wednesday

前ページAIの誤検知により「ドリトスを食べていた学生」が手錠をかけられる

<

1

2

>

「誤検知」だけじゃない、「本物の銃を見逃す」ケースも

今回、AIが「スナックの袋」を「銃」と誤認した理由について、Omnilert社は「照明や袋の色、持ち方が銃に似ていた」と説明しています。

しかし、本人に画像を見せたところ「どう見ても銃ではなく、ただのスナック袋だった」と話しており、AIや運用する側の“主観”が大きく関与したことが伺えます。

AIによる画像認識は、まだ完璧とは言えません。

光の当たり方や物体の色・持ち方など、ちょっとした違いで誤認識が発生します。

さらに、危険を見逃さないために慎重になりすぎて、本当は脅威ではない場合でも“とりあえず通報”してしまうケースも増えています。

実際、同じOmnilertシステムが導入された他の学校でも、警察が出動した結果、無害な物品しか持っていなかったという事例が報告されています。

一方、もっと深刻な問題も浮き彫りになっています。

2024年には、別の高校で実際に生徒による銃撃事件が発生しましたが、その時はカメラから犯人が遠かったためAIは何も検出できませんでした。

つまり、AIは「本物の銃」を見逃してしまう場合があるのです。

こうしたAIシステムには巨額のコストがかけられていますが、「過剰な誤認識」と「本当の危険を見逃す」両方のリスクが現実には残されています。

しかも、AIの学習データや運用者の判断に社会的バイアス(特に人種バイアス)が入り込むことで、「特定の生徒がより危険視されやすい」という課題も指摘されています。

このように、AIによる銃検知は、「学校の安全を守る」目的で急速に導入が進みましたが、現場では「見せかけの安心感」や「生徒や家族の不安と不信感」を生む副作用も出ています。

現段階では、「人間の安全」を守るうえで、AIを全面的に信頼することはできません。

AIの驚異的な力を実感する場面が増えてきたからこそ、そのことを思い起こす必要があるでしょう。

<

1

2

>

ドリトスを食べていた学生、AIの誤検知により警察に囲まれる (2/2)のコメント

ゲスト

そもそも銃がそこらにあって学校に持ち込まれる状況がおかしい定期

ゲスト

疑われた子は確か黒人でしたよね?
人工知能もちゃんと人種差別できるんだなって感心しました。
学んでほしいことを学ばず、学んでほしくないことから学んでいくのは人間の子どもと同じですね。

コメントを書く

※コメントは管理者の確認後に表示されます。

0 / 1000

人気記事ランキング

  • TODAY
  • WEEK
  • MONTH

Amazonお買い得品ランキング

スマホ用品

AI・人工知能のニュースartificial-intelligence news

もっと見る

役立つ科学情報

注目の科学ニュースpick up !!