Nel dibattito pubblico sull’intelligenza artificiale, soprattutto negli ultimi due anni, ha preso forza una linea che potremmo sintetizzare con l’espressione “AI for social good” o, in una declinazione più recente e politicamente più densa, “AI for social economy”. È il racconto di un’AI capace di migliorare l’allocazione delle risorse, rendere più efficaci i servizi di welfare, anticipare bisogni, supportare decisioni pubbliche, ampliare l’accesso a diritti e opportunità per chi è più fragile.
È una narrazione che parla di equità, inclusione, impatto, e che trova terreno fertile nel mondo delle fondazioni, delle istituzioni, del Terzo Settore. Un racconto necessario, perché segnala che l’AI non è neutra e che può essere orientata, ma proprio perché ambizioso, questo racconto mostra una rimozione strutturale: raramente si interroga su come funziona l’AI che vorremmo mettere “al servizio del bene”.

Su quali infrastrutture materiali richiede, quali filiere globali attiva, quali costi produce e dove questi costi vengono scaricati. L’attenzione si concentra sugli usi, sugli output, sui casi di successo, mentre restano sullo sfondo, quando non del tutto invisibili, le condizioni di possibilità di quei risultati. Eppure è esattamente in quello scarto che si gioca la credibilità di qualsiasi prospettiva di AI for social good.
Non basta chiedersi se un algoritmo migliori una prestazione o un servizio, occorre chiedersi a quale prezzo, per chi, e con quali effetti sistemici. Un’AI che ottimizza il welfare ma contribuisce ad accrescere la concentrazione di potere tecnologico e cognitivo, che consuma enormi quantità di risorse ambientali, che dipende da filiere estrattive segnate da sfruttamento e conflitti, e che nel frattempo riduce l’autonomia del pensiero umano, non è un paradosso: è esattamente il modello dominante che stiamo normalizzando. E chiamarlo “for good” senza affrontare questi nodi significa depotenziare il concetto stesso di bene comune.

C’è poi un livello ancora più profondo, spesso del tutto assente dal dibattito: quello del costo cognitivo e culturale. Se l’AI generativa diventa scorciatoia permanente, sostituto del ragionamento, protesi del pensiero non allenato, il rischio non è solo una perdita di competenze individuali, ma un impoverimento collettivo della capacità di giudizio. Una società che delega sistematicamente l’interpretazione, la sintesi e la decisione a sistemi opachi può diventare più efficiente, ma anche più fragile, più eterodiretta, meno capace di conflitto argomentato e di scelta consapevole. E questa non è una questione tecnica, è una questione democratica.
Per questo, una prospettiva matura di AI for social good non può limitarsi a orientare l’AI verso bisogni sociali già dati. Deve interrogarsi su che tipo di soggetti, di relazioni e di comunità contribuisce a generare. Il punto non è solo usare l’AI per fare del bene, ma evitare che, nel farlo, si erodano proprio quelle capacità umane che rendono possibile definire che cosa sia il bene. Un’AI orientata al bene comune dovrebbe essere valutata anche per la sua capacità di potenziare la società del pensiero, non di sostituirla; di rafforzare l’autonomia, non di infantilizzarla; di sostenere l’umano, non di ridurlo a utente, consumatore o dato.

È qui che l’economia civile e sociale entra in gioco in modo non accessorio. Non come ambito di applicazione “etica” di tecnologie progettate altrove, ma come spazio di produzione di senso, di criteri, di domande. Se l’AI amplia il campo del possibile, spetta a questi mondi tenere aperta la domanda su ciò che è desiderabile, giusto, condivisibile. Non per rallentare l’innovazione, ma per impedirle di diventare una corsa cieca. Un’AI davvero “for social good” non è quella che semplicemente funziona meglio, ma quella che rende le persone e le comunità più capaci di pensare, scegliere e prendersi responsabilità. Perché senza questa autonomia, anche il bene rischia di diventare solo un effetto collaterale, temporaneo e riservato a pochi.