SCIENCE ET VIE 🔵 Baltimore : des enfants menacés pour un faux positif de l’IA anti-armes

Aux États-Unis, les écoles cherchent de plus en plus à se
protéger contre les fusillades. Pour y parvenir, certaines misent
sur la technologie. Caméras intelligentes, logiciels d’analyse,
alertes automatiques. La détection d’armes par IA est censée
rassurer. Pourtant, quand ces outils se trompent, ce ne sont pas
des secondes gagnées, mais des enfants menacés.
Une fausse alerte qui vire à l’opération policière
Le 8 novembre 2025, en fin d’après-midi, le lycée Parkville High
School est placé en alerte. Un système de surveillance basé sur
l’intelligence artificielle signale la présence possible d’une arme
dans l’établissement. Les élèves sont rapidement déplacés vers une
zone sécurisée pendant que la police fouille les lieux. Après
plusieurs heures de vérifications, les autorités annoncent
qu’aucune menace n’a été détectée et les cours reprennent
normalement. Selon Patch, l’alerte avait été
déclenchée par le logiciel Omnilert, entraînant une intervention
policière par simple mesure de précaution.
Cet épisode n’est pourtant pas isolé. En octobre, un incident
similaire s’était produit au lycée Kenwood, toujours dans le comté
de Baltimore. Là aussi, l’alerte provenait du même logiciel. La
situation avait alors pris une tournure bien plus violente. Des
policiers armés avaient encerclé un groupe d’adolescents à la
sortie d’un entraînement sportif. L’un d’eux, Taki Allen, avait été
contraint de s’agenouiller avant d’être menotté. L’objet suspect
identifié par l’IA s’est finalement révélé être un simple sachet de
chips abandonné au sol, un fait confirmé par CBS Baltimore.
Détection d’armes par IA et promesse de sécurité
automatisée
Le logiciel
Omnilert, analyse en temps rĂ©el les flux vidĂ©o des camĂ©ras dĂ©jĂ
installées dans les établissements scolaires. Dans le comté de
Baltimore, environ 7 000 caméras ont été connectées à ce système
depuis 2023. L’objectif affiché est d’identifier visuellement une
arme à feu et de transmettre l’alerte à des opérateurs humains
chargés d’en vérifier la pertinence avant toute intervention.
Selon la direction des écoles publiques du comté, la technologie
n’a pas vocation à décider seule. La surintendante Myriam Rogers a
expliqué lors d’une conférence de presse que le programme devait
simplement signaler une anomalie afin que des adultes évaluent la
situation. Dans le cas de Kenwood, cette chaîne de vérification
s’est rompue. L’alerte aurait été annulée en interne après examen
des images, mais l’information ne serait pas parvenue aux forces de
l’ordre à temps.
Cette défaillance met en lumière une limite structurelle de ces
dispositifs. L’algorithme ne comprend ni le contexte ni
l’intention. Il se base sur des formes, des angles et des postures.
Un objet tenu d’une certaine manière peut suffire à déclencher une
alerte, même lorsqu’il s’agit d’un objet du quotidien.

Un traumatisme pour les élèves, un
signal d’alarme pour les écoles
Pour les adolescents concernés, l’erreur technique a eu des
effets bien réels. Taki Allen décrit une scène marquée par la peur
et l’incompréhension. Il évoque des armes pointées sur lui et
plusieurs voitures de police autour du lycée. Son récit a provoqué
une forte réaction dans la communauté. Beaucoup ont exprimé colère
et sentiment d’injustice face à cet événement.
Les élus du comté ont rapidement demandé des comptes. Julian
Jones et Izzy Patoka, membres du conseil du comté de Baltimore, ont
appelé à une révision des protocoles entourant l’usage de ces
technologies. Pour eux, aucune mesure de sécurité ne devrait
exposer des enfants à un tel niveau de stress sur la base d’une
simple suspicion algorithmique.
Ces incidents interrogent plus largement la place accordĂ©e Ă
l’intelligence artificielle dans des environnements sensibles.
Lorsqu’une fausse alerte peut mener à une intervention armée, la
question n’est plus seulement celle de la performance technique,
mais celle de la responsabilité humaine et des garde-fous
nécessaires pour éviter que la peur ne prenne le pas sur le
discernement.
