«Le cose che ci rendono umani diventeranno ancora più importanti». Può sorprendere pensare che una frase di questo tipo l’abbia pronunciata una delle protagoniste della rivoluzione tecnologica legata all’intelligenza artificiale. Eppure è ciò che ha detto a Fortune America un paio di giorni fa Daniela Amodei, co-fondatrice e presidente di Anthropic, colosso che ha dato vita a Claude e ora competitor diretto anche di ChatGPT e quindi di Open AI persino nelle recenti campagne marketing, come abbiamo riportato anche su StartupItalia.

Sorpresa, o forse no. Nel tempo segnato dalla crescita pervasiva dell’intelligenza artificiale che automatizza il codice, accelera le decisioni e comprime le competenze tecniche, la vera scarsità non sarà la tecnologia bensì l’umanità. Empatia, pensiero critico, capacità di interpretare i contesti e di costruire relazioni: sono questi i nuovi asset strategici delle organizzazioni che vogliono restare rilevanti. Insomma, leggere la complessità. Non è un paradosso, ma il segnale di un passaggio d’epoca. Più le macchine evolvono, più il vantaggio competitivo si sposta sulle competenze profondamente umane, quelle che nessun algoritmo può (ancora) davvero replicare. Restando in famiglia, qualche tempo fa era stato il fratello Dario Amodei a definire il secolo corrente come compresso. Il riferimento, in modo oppositivo, era per quello apostrofato come breve e cioè quel Novecento così definito dallo storico britannico Eric Hobsbawm perché compreso tra la prima guerra mondiale e il crollo dell’Unione Sovietica e segnato da conflitti, totalitarismi, guerra fredda e trasformazioni geopolitiche radicali.
Figlia mia, studia anche filosofia
Torniamo al punto, ossia al valore delle scienze umane anche nel mondo estremamente tecnologico. Un paio di anni fa sulle pagine dell’Harvard Business Review Marco Argenti, CIO di Goldman Sachs, lanciava una provocazione destinata a lasciare il segno: gli ingegneri del futuro dovrebbero studiare filosofia. Non per abbandonare il codice, ma per imparare a porre le domande giuste prima ancora di cercare le risposte. È un messaggio premuroso rivolto a sua figlia e che risuona con particolare forza nel tempo della corsa globale verso tecnologie sempre più immersive, predittive e invasive: intelligenza artificiale generativa, sistemi biometrici, ambienti digitali persistenti, modelli capaci di anticipare comportamenti e decisioni. «Di recente ho detto a mia figlia studentessa universitaria: se vuoi intraprendere una carriera in ingegneria, dovresti concentrarti sullo studio della filosofia oltre ai tradizionali corsi di ingegneria. Perché? Perché migliorerà il tuo codice», scriveva Argenti. In questa accelerazione continua, la tecnologia non è più soltanto uno strumento operativo, ma diventa infrastruttura sociale, culturale e politica. E proprio per questo richiede nuove competenze interpretative. Leggere la complessità con la filosofia non significa rallentare l’innovazione, ma renderla più consapevole. Significa interrogarsi sui presupposti dei modelli algoritmici, sui bias incorporati nei dati, sulle implicazioni etiche delle decisioni automatizzate. In altre parole, comprendere il perché prima del come. È qui che il pensiero filosofico torna a essere una competenza concreta, operativa, strategica.
“Leggere la complessità con la filosofia non significa rallentare l’innovazione, ma renderla più consapevole”
I nuovi chief philosophy officer
Non è un caso che già negli anni scorsi alcune aziende internazionali abbiano iniziato a coinvolgere filosofi “pratici” nei processi decisionali, come raccontava un’analisi del Guardian descrivendo l’avanzata dei Chief Philosophy Officer: professionisti chiamati non a fornire risposte rapide, ma a formulare domande più profonde, capaci di aprire nuove prospettive su governance, responsabilità e scelte di lungo periodo. Per le startup, spesso concentrate sull’esecuzione veloce e sulla sperimentazione continua, questa prospettiva rappresenta un cambio di paradigma. Accanto a sviluppatori, data scientist e designer diventa cruciale integrare competenze capaci di interpretare il contesto, valutare le conseguenze delle tecnologie e costruire visioni sostenibili nel tempo. Non si tratta di aggiungere un elemento teorico ai team, ma di rafforzare la capacità strategica delle organizzazioni. Nell’economia dell’intelligenza artificiale la differenza competitiva non sarà determinata soltanto da chi svilupperà le tecnologie più avanzate, ma da chi saprà comprenderne meglio il significato. Le macchine possono generare soluzioni sempre più sofisticate, ma resta profondamente umano il compito di definire i problemi, stabilire le priorità e tracciare i confini entro cui l’innovazione deve muoversi. In fondo è quanto mi aveva già detto Anna Koivuniemi, guida del Google DeepMind’s Impact Accelerator, struttura che dal 2010 si occupa di impatto sociale delle tecnologie. «Per studiare l’AI serve un team multidisciplinare. Nei nostri laboratori esperti di etica e filosofi».
“Per leggere la complessità bisogna combinare competenze tecnologiche e capacità filosofica. Pensare meglio diventa la forma più avanzata di innovazione”
Ecco perché la provocazione lanciata da Amodei in questi giorni e un paio di anni fa da Argenti assume il valore di una roadmap culturale per startup e imprese: il futuro del lavoro non appartiene solo agli ingegneri o ai programmatori, ma a chi saprà combinare competenze tecnologiche e capacità filosofica di leggere la complessità. Perché nell’epoca delle tecnologie intelligenti, pensare meglio diventa la forma più avanzata di innovazione.