OpenAI ha licenziato Ryan Beiermeister, dirigente senior responsabile delle policy di prodotto, dopo alcune settimane di assenza dall’azienda. Secondo quanto riportato dal Wall Street Journal, il provvedimento sarebbe legato a presunti episodi di discriminazione sessuale nei confronti di un collega uomo. Beiermeister ha respinto con decisione ogni accusa, definendola «assolutamente falsa».
La società, da parte sua, ha mantenuto una linea prudente: ha riconosciuto il valore del contributo della manager e ha precisato che l’uscita «non è collegata a questioni da lei sollevate durante il lavoro». Una precisazione non casuale, perché Beiermeister guidava proprio il team incaricato di definire ciò che è consentito o meno fare con ChatGPT e di progettare i meccanismi di controllo del modello.
Ed è qui che la vicenda si intreccia con un nodo più ampio: il lancio di una nuova modalità che permetterà conversazioni e contenuti erotici destinati esclusivamente agli adulti. Una scelta che ha generato tensioni interne. Alcuni ricercatori e membri del comitato consultivo su “benessere e AI” avrebbero espresso dubbi sul rischio che contenuti sessuali possano rafforzare legami emotivi eccessivi tra utenti e chatbot.
A che cosa serve ChatGPT mode?
Beiermeister, secondo le ricostruzioni, avrebbe sollevato anche questioni tecniche: l’efficacia dei sistemi di protezione dei minori, la reale separazione tra contenuti adulti e adolescenti, e la capacità dei filtri di reggere a un uso su larga scala.
Il CEO Sam Altman ha difeso la nuova direzione, sostenendo la necessità di «trattare gli utenti adulti come adulti». Una posizione che riflette anche la pressione competitiva del momento: Google spinge su Gemini, xAI di Elon Musk adotta un approccio meno restrittivo con Grok, e OpenAI — forte di oltre 800 milioni di utenti settimanali — sta ampliando l’offerta e sperimentando nuove forme di monetizzazione, inclusa la pubblicità.
Beiermeister era arrivata in OpenAI a metà 2024, parte di una generazione di talenti provenienti da Meta che puntava a influenzare dall’interno le politiche di sicurezza delle big tech. All’inizio del 2025 aveva anche lanciato un programma di mentorship tra pari dedicato alle donne dell’azienda, con l’obiettivo di creare reti di supporto trasversali e condividere strategie di crescita professionale.
La sua uscita non è solo un fatto di cronaca aziendale ma un segnale delle tensioni che attraversano oggi l’industria dell’Intelligenza artificiale, sospesa tra innovazione, responsabilità e nuove frontiere — anche etiche — dell’interazione uomo‑macchina.