La funzione di intelligenza artificiale di Reddit, pensata per aiutare gli utenti a trovare risposte rapide, si è trasformata in un caso controverso. Reddit Answers, l’assistente basato su IA, è finito nel mirino dei moderatori dopo aver fornito consigli medici errati e potenzialmente pericolosi, come raccomandare alte dosi di kratom o addirittura l’uso di eroina per il dolore cronico. La notizia, riportata da 404 Media, ha aperto un dibattito acceso sull’affidabilità dell’IA generativa applicata a temi sensibili come la salute.
L’IA che suggerisce farmaci illegali
Un moderatore di una community medica ha denunciato il problema dopo aver visto Reddit Answers incoraggiare gli utenti a interrompere i farmaci prescritti in favore di sostanze non regolamentate. Altri moderatori hanno subito confermato esperienze simili, evidenziando come la funzione non può essere spenta o corretta manualmente. Il rischio, secondo loro, è che utenti vulnerabili possano prendere sul serio indicazioni generate in modo automatico, amplificando la diffusione di informazioni dannose.
Interpellata da 404 Media, Reddit ha risposto di aver aggiornato la funzione per evitare la comparsa di “risposte correlate” su argomenti sensibili. Tuttavia, la società non ha chiarito nel dettaglio quali temi siano esclusi, né se offrirà ai moderatori strumenti di controllo più efficaci. L’azienda ha solo specificato che l’IA non elabora contenuti provenienti da community private, NSFW o in quarantena, ma resta evidente che le barriere attuali non bastano.
Moderazione impossibile
L’incidente mette in luce le difficoltà di integrare l’intelligenza artificiale in spazi pubblici dove convivono milioni di voci. Reddit Answers nasce con l’obiettivo di sintetizzare discussioni e offrire risposte automatiche, ma il confine tra informazione e disinformazione è sottile. I moderatori, già impegnati a gestire contenuti tossici o illegali, ora si trovano a dover vigilare anche sull’operato di un algoritmo che non sempre distingue sarcasmo, ironia o errori medici gravi.
Il caso segue altre polemiche sull’uso dell’IA in piattaforme social come X o TikTok, dove strumenti simili hanno diffuso falsità o raccomandazioni pericolose.
Reddit Answers sotto accusa: l’IA suggerisce il consumo di eroina è stato pubblicato per la prima volta su Lega Nerd. L’utilizzo dei testi contenuti su Lega Nerd è soggetto alla licenza Creative Commons Attribuzione-Non commerciale-Non opere derivate 2.5 Italia License. Altri articoli dello stesso autore: Umberto Stentella