A volte la realtà supera la fantasia, e non sempre in senso positivo. È quello che è successo a Taki Allen, uno studente della Kenwood High School nella contea di Baltimore, Maryland, che si è ritrovato ammanettato e perquisito dalla polizia per aver semplicemente tenuto in mano un sacchetto di Doritos. Il motivo? Un sistema di sicurezza basato sull’intelligenza artificiale ha interpretato e confuso le sue patatine come una possibile arma da fuoco.
La vicenda solleva interrogativi importanti sull’affidabilità dei sistemi di riconoscimento automatico, specialmente quando vengono impiegati in contesti sensibili come le scuole. Allen ha raccontato la sua esperienza con parole che non lasciano spazio a interpretazioni: “Stavo solo tenendo un sacchetto di Doritos, con due mani e un dito fuori, e hanno detto che sembrava un’arma“. La conseguenza? “Mi hanno fatto inginocchiare, mettere le mani dietro la schiena e mi hanno ammanettato“.
Ma come si è arrivati a una reazione così drastica per un falso allarme? Secondo la ricostruzione fornita dalla preside Katie Smith in una comunicazione ai genitori, il sistema di rilevamento ha effettivamente generato un allarme per possibile presenza di arma da fuoco. Il dipartimento di sicurezza della scuola ha esaminato la segnalazione e l’ha cancellata, riconoscendola come un falso positivo. Tuttavia, Smith non si era immediatamente resa conto che l’allerta era stata annullata e ha proceduto a informare l’agente di sicurezza della scuola, il quale ha a sua volta contattato la polizia locale.
Il risultato è stato un intervento delle forze dell’ordine che ha coinvolto direttamente lo studente, con modalità che hanno comprensibilmente suscitato preoccupazione nella comunità scolastica. Si tratta di un episodio che mette in luce come la catena di comunicazione e i protocolli di risposta possano amplificare gli errori dei sistemi automatizzati, trasformando un malfunzionamento tecnologico in un’esperienza traumatizzante per un ragazzo. Omnilert, l’azienda che gestisce il sistema di rilevamento AI installato nella scuola, ha rilasciato una dichiarazione alla CNN in cui esprime rammarico per l’accaduto e preoccupazione per lo studente e la comunità. Tuttavia, e questo è forse l’aspetto più controverso della vicenda, l’azienda sostiene che “il processo ha funzionato come previsto“. Una affermazione che suona quantomeno paradossale, considerando che un adolescente è finito ammanettato per aver tenuto in mano uno snack.
I sistemi di rilevamento armi basati su AI analizzano le immagini catturate dalle telecamere di sorveglianza, cercando di identificare forme e pattern compatibili con armi da fuoco. Il problema è che questi algoritmi, per quanto sofisticati, possono essere ingannati da oggetti di uso comune che presentano silhouette vagamente simili. Un sacchetto di patatine tenuto in una certa posizione, con la mano parzialmente visibile, può apparentemente essere sufficiente a far scattare l’allarme. Una situazione assurda che fa capire quanto sia labile la possibilità che le intelligenze artificiali possano non rispondere nel modo corretto, come nel caso del RizzBot. La comunità di Kenwood High School si trova ora a dover elaborare questo episodio e, si spera, a rivedere le procedure per evitare che situazioni simili si ripetano. Resta da vedere se questo caso particolare porterà a modifiche nel modo in cui i sistemi di sicurezza AI vengono implementati e supervisionati nelle scuole, o se rimarrà semplicemente un’altra storia paradossale nell’era dell’automazione imperfetta.
ovviamente ciò non vuol dire che sia solo negativa infatti