Quando Mrinank Sharma ha scritto, nero su bianco, che “il mondo è in pericolo”, non stava cercando un titolo a effetto. Stava lasciando Anthropic e lo faceva con una lettera pubblica che in poche ore ha superato il milione di visualizzazioni. Un addio che non è solo un cambio di carriera, ma un segnale d’allarme lanciato dall’interno di un settore che corre più veloce della sua stessa capacità di comprendersi.
Today is my last day at Anthropic. I resigned.
Here is the letter I shared with my colleagues, explaining my decision. pic.twitter.com/Qe4QyAFmxL
— mrinank (@MrinankSharma) February 9, 2026
Chi è Sharma?
Dottorato a Oxford, approdato in Anthropic nel 2023, ha guidato il team che si occupa delle salvaguardie: la linea di difesa tra i modelli di AI e i loro possibili abusi. Il suo lavoro ha spaziato dal contrasto al bioterrorismo assistito dall’AI allo studio della sycophancy, quella tendenza dei chatbot a compiacere l’utente anche quando non dovrebbero.
In altre parole: era uno di quelli che dovevano impedire all’AI di fare danni. Nella sua lettera, Sharma non accusa direttamente Anthropic. Ma il messaggio è chiaro: mantenere saldi i propri principi in un settore che avanza a velocità vertiginosa è diventato sempre più difficile. “Stiamo avvicinandoci a una soglia”, scrive, “in cui la nostra saggezza deve crescere quanto la nostra capacità di influenzare il mondo”.
Insomma, pare che la tecnologia stia correndo più della responsabilità.
E non è il primo a dirlo. Prima di lui, figure come Jan Leike e Gretchen Krueger avevano lasciato OpenAI per ragioni simili: divergenze sui valori, sulla governance, sulla trasparenza. Il settore dell’AI safety, paradossalmente, sembra essere quello con il più alto tasso di dimissioni eccellenti.
Le parole di Sharma arrivano in un momento delicato per Anthropic. I report più recenti indicano che alcuni modelli Claude — Opus 4.6 e Sonnet 4.5 — possono essere vulnerabili in contesti informatici specifici, fino a fornire assistenza involontaria in attività legate allo sviluppo di armi chimiche o altri crimini.
L’azienda minimizza: rischi rari, spesso legati a iniziative autonome dei modelli, non a utenti malintenzionati. Ma resta il fatto che “raro” non significa “impossibile”.
E poi c’è lo studio pubblicato dallo stesso Sharma pochi giorni prima delle dimissioni: migliaia di interazioni quotidiane che possono distorcere la percezione della realtà degli utenti, soprattutto in ambiti emotivi e relazionali. I casi più gravi sono pochi, ma il trend è chiaro: l’AI non è solo uno strumento, è un interlocutore che può influenzare.
La partenza di Sharma si aggiunge a quelle di Harsh Mehta e Behnam Neyshabur, altri due ricercatori di punta che hanno lasciato Anthropic per “avviare qualcosa di nuovo”. Un’emorragia di talenti che apre una domanda scomoda: le aziende dell’AI stanno davvero creando un ambiente in cui la sicurezza è prioritaria, o stanno semplicemente cercando di tenerla al passo mentre spingono sull’acceleratore dell’innovazione?
Il mega round di Anthropic
Anthropic, fondata nel 2021 da ex dirigenti di OpenAI, ha investito molto nella narrativa dell’AI responsabile. Ha introdotto livelli di sicurezza avanzati, come l’ASL-3 per Claude Opus 4, e ha sempre dichiarato che rendere i modelli “impossibili da violare” non è realistico, ma renderlo “molto, molto difficile” sì.
Eppure, se chi lavora sulla sicurezza sente il bisogno di andarsene, qualcosa non torna. Sharma dice che si dedicherà alla poesia, al coaching, alla costruzione di comunità. Una scelta che sembra quasi un gesto politico: allontanarsi dal cuore pulsante dell’AI per tornare a ciò che è umano, relazionale, lento. Tutto questo contemporaneamente alla conclusione del mega round da da 30 miliardi.
Ma il suo messaggio resta lì, sospeso: “Il mondo è in pericolo”. Non per colpa dell’AI soltanto, ma per un intreccio di crisi che si alimentano a vicenda. La tecnologia, però, è una delle leve più potenti — e più instabili — di questo equilibrio.
Le sue dimissioni non sono un incidente di percorso. Sono un sintomo. E forse anche un avvertimento.