La polizia ha iniziato ad usare ChatGPT per gli identikit dei sospettati

L‘intelligenza artificiale non si limita più a identificare presunti criminali attraverso le telecamere: ora genera immagini fotorealistiche dei loro volti che la polizia diffonde sui social media. O meglio, questa è la teoria: nella pratica abbiamo visto che l’integrazione dell’AI nelle indagini non è una buona idea e che la maggior parte dei sistemi di riconoscimento facciale automatici ha la tendenza a generare falsi positivi, in alcuni casi con conseguenze gravissime.

Sta di fatto che il Dipartimento di Polizia di Goodyear, alle porte di Phoenix, in Arizona, ha iniziato a utilizzare ChatGPT per creare foto di sospetti al posto dei tradizionali identikit disegnati a matita. Secondo quanto rivelato dal Washington Post, l’iniziativa nasce da una motivazione sorprendente: aumentare l’engagement sui social network.

Zero arresti, molti like

Mike Bonasera, disegnatore di identikit per il dipartimento di Goodyear, ha spiegato al Washington Post che la decisione è legata all’era dei social media. “Siamo in un’epoca in cui se pubblichiamo un disegno a matita, la maggior parte delle persone non lo noterà nemmeno”, ha ammesso l’artista. Il dipartimento ritiene che i residenti locali, specialmente i più giovani, siano molto più propensi a interagire con rendering fotorealistici generati dall’intelligenza artificiale.

I droni equipaggiati con riconoscimento facciale: il progetto di “Sauron”
I droni equipaggiati con riconoscimento facciale: il progetto di “Sauron”

“Le persone sono molto attratte dalle immagini ben definite, ed è per questo che funziona”, ha dichiarato Bonasera. La polizia di Goodyear sostiene che le loro immagini non siano “fabbricazioni dell’AI” perché partono da disegni compositi tradizionali prima di essere elaborate attraverso ChatGPT.

Un azzardo rischioso

Quando un generatore di immagini come ChatGPT produce la foto di una persona, attinge da un vasto database di foto di persone reali, e i pregiudizi presenti in quella raccolta si riflettono inevitabilmente nell’immagine finale. Bryan Schwartz, professore di diritto all’Università dell’Arizona, ha spiegato al Washington Post che questi generatori sono molto efficaci nel creare volti bianchi ma meno bravi con altre etnie.

Quando si tratta di creare immagini di persone reali, questo tipo di pregiudizio sistemico può avere conseguenze devastanti, specialmente quando i dipartimenti di polizia si rifiutano di riconoscerlo. L’uso del riconoscimento facciale basato sull’AI da parte delle forze dell’ordine ha già portato a numerosi arresti errati in città come Detroit, New York e Atlanta.

La polizia ha iniziato ad usare ChatGPT per gli identikit dei sospettati è stato pubblicato per la prima volta su Lega Nerd. L’utilizzo dei testi contenuti su Lega Nerd è soggetto alla licenza Creative Commons Attribuzione-Non commerciale-Non opere derivate 2.5 Italia License. Altri articoli dello stesso autore: Umberto Stentella