Sei già sommerso dagli AI Slop? La spazzatura sintetica delle intelligenze artificiali invade tutti i nostri spazi

Sei già sommerso dagli AI Slop? La spazzatura sintetica delle intelligenze artificiali invade tutti i nostri spazi

Immaginate di fare “scrolling” sulle piattaforme digitali che usate solitamente e di accorgervi di visualizzare solo video, o comunque la maggior parte. Nel momento in cui focalizzate quella scena pensate che buona parte di quei video non sono veri. O meglio, sembrano veri, ma in realtà non lo sono. Questo appena descritto non è uno scenario che avverrà, è già così. Certo, il volume di video generati dalla AI non è ancora così elevato, ma con le recenti novità che andremo a vedere insieme fra poco non passerà molto tempo perché lo diventi davvero.

Sicuramente avrete già letto e visto delle recenti novità che riguardano i video generati dall’Intelligenza artificiale sempre più legati alle piattaforme digitali e social media. Anzi, adesso i nuovi modelli vengono lanciati come app standalone per la generazione di video in chiaro stile TikTok o Instagram. Quindi video verticali e brevi pronti per la generazione di engagement sempre meno attento.

franz russo privacy weekly

Allora, dopo questa breve introduzione passiamo a vedere insieme quali sono queste novità e come queste ormai stanno ridefinendo un nuovo scenario in cui le piattaforme digitali e i social media sono sempre più al traino della AI. Intanto il fenomeno AI Slop (più avanti leggete il paragrafo specifico) è già esploso. Solo che ora con le novità il tutto diventerà sempre più sofisticato e di qualità sempre più elevata.

contenuti IA social media FR 1
Immagine generata con l’AI

Le recenti novità su video e IA

Sora 2, evoluzione del modello originale lanciato alla fine del 2024, si concentra su video di breve durata. Da circa 5 secondi fino a un massimo di 20 secondi per clip singola su piani Pro, ottimizzati per lo stile frammentato e virale dei social come TikTok o Instagram Reels. Rispetto a Sora originale (limitato a 20s ma con qualità instabile oltre i 10-15s), Sora 2 migliora la fluidità e include audio nativo, ma impone un limite giornaliero (es. 30-50 generazioni/giorno) per bilanciare domanda e server.

L’innovazione chiave è l’integrazione con l’app Sora, una piattaforma social che permette agli utenti di generare e condividere clip personalizzate – come un podcaster tech in un caffè futuristico – direttamente nel feed di TikTok. I primi dati ci indicano un impatto dell’app immediato. Nei primissimi giorni dal lancio, l’app Sora ha registrato milioni di download negli USA, con un’attenzione particolare a clip brevi che aumentano l’interazione del 30%.

OpenAI enfatizza la “filosofia del feed artistico”, dove l’AI non solo crea, ma suggerisce evoluzioni basate su trend virali, rendendo i video iper-personalizzati. In ogni caso gli esperti sono in allarme. Questo approccio rischia di amplificare contenuti che alimentano la dipendenza dalle piattaforme, con un potenziale “pericolo” per la salute mentale degli utenti, già esposti a scrolling infinito. In Unione Europea Sora 2 non è ancora attivo, per via del DSA, lo è al momento solo negli Usa e Canada su invito.

contenuti IA social media FR 5
Immagine generata con l’AI

La risposta di Grok a OpenAI

La risposta di xAI non si è fatta attendere e a strettissimo giro la startup di IA di Elon Musk ha lanciato Grok Imagine v0.9, modello AI sempre più veloce e creativo. Grok Imagine v0.9 rappresenta un aggiornamento sostanziale allo strumento di generazione multimodale di xAI, che ora include la produzione di video ultraveloce – in meno di 15 secondi per clip – con notevoli miglioramenti nella qualità visiva, nei movimenti realistici e nella creazione di audio integrato.

Basta un breve prompt testuale per la generazione di un’immagine che diventa al tempo stesso una breve clip di 6 secondi. Grok è accessibile gratuitamente su X e sull’app Grok. Anche gratis, pur con forti limitazioni. Le novità di v0.9 sono impressionanti. Interfaccia che mette in risalto la modalità voce per dettare i prompt, il supporto a una modalità “audace” per contenuti più liberi (con protezioni etiche non troppo rigide) e l’integrazione con i trend della piattaforma X.

Elon Musk ha scritto sulla sua piattaforma che questo modello sfida direttamente Sora, puntando a creare un film generato dall’AI di qualità professionale entro il 2026. Va detto che il modello ad oggi permette di creare deepfake di celebrità (come se non ce ne fossero già abbastanza) molto realistici con davvero poche restrizioni. Una situazione che sta alimentando dibattiti sull’etica di questa modalità un po’ ovunque. In termini di prestazioni, Grok impressiona per la sua velocità. Un video di 10 secondi su un tema tech, come “l’impatto dell’IA sui social”, può essere pronto in pochi istanti, completo di audio narrativo personalizzato.

contenuti IA social media FR 4
Immagine generata con l’AI

Cosa si intende per AI Slop

Nel panorama attuale dei social e dei video generati da Intelligenza artificiale, un fenomeno emergente che merita attenzione è quello dell’AI Slop. Con questo termine si indica contenuto AI prodotto in massa – testi, immagini, video o audio – con scarsa qualità, poca coerenza e scarso controllo umano. Il nome vuole evocare un’idea di “scarto digitale”. Qualcosa di simile a spam, questi contenuti puntano più alla quantità che alla sostanza.

L’origine del termine risale a circa il 2020, quando gli utenti delle community tech cominciarono a notare che molte generation AI erano “scorie”: troppe immagini simili, prompt riciclati, errori visivi o logici. Col tempo “slop” è diventato termine corrente sui social media e non solo. La sua popolarità arriva intorno al 2024 con il boom di contenuti generativi come “Shrimp Jesus” su Facebook

Oggi, l’AI Slop prolifera su piattaforme come TikTok, Instagram, feed video (come quelli generati da Meta Vibes) e persino nelle risposte dei motori di ricerca, spinto da due fattori centrali. Vale a dire strumenti di IA Generativa alla portata di tutti (strumenti IA che permettono generazioni rapide) e logica dell’algoritmo (premiazione dell’engagement istantaneo).

In particolare, strumenti come Sora 2 rientrano tra quelli che permettono rapidità nella generazione di contenuti simili, specialmente quando permettono di “inserire” volti o elementi riconoscibili nei video. E questo rende lo slop più attraente ma anche più insidioso. In questo contesto, il rischio è una saturazione del feed sociale con video non reali, visivamente accattivanti ma privi di significato. Una sorta di “rumore digitale” che può sminuire la fiducia dell’utente, rendere più difficile distinguere ciò che è autentico. Le novità di Grok e di altri modelli social IA dovranno misurarsi con questa sfida. E cioè, gestire non solo la capacità generativa, ma anche la qualità, la trasparenza e i meccanismi di rilevazione di slop.

contenuti IA social media FR 3
Immagine generata con l’AI

Quali effetti produrrà tutto questo

Ora di fronte a questo scenario in continua evoluzione, c’è da chiedersi, banalmente, quali effetti tutto questo potrà avere. Siamo di fronte non a una moda, ma a un nuovo punto di svolta che tocca le piattaforme digitali ancora una volta. Fino ad oggi abbiamo sempre visto e usato la AI come uno strumento per creare contenuti. Da adesso in poi la AI sarà a sua volta il contenuto pronto per essere condiviso. È questo il punto di svolta.

Come abbiamo visto, i video prodotti dall’IA possono essere realizzati in pochi secondi, in formati verticali, perfetti per TikTok o Reels. E con la possibilità di creare volti, voci e movimenti realistici, diventa sempre più difficile distinguere ciò che è autentico da ciò che non lo è. I feed delle piattaforme digitali sono già saturi di contenuti ripetitivi e poco verificabili, e potrebbero presto essere invasi da una massa enorme di video falsi, non reali.

ricette mediche

La IA è già nelle piattaforme, adesso fa un salto in avanti

L’Intelligenza artificiale non è più soltanto uno strumento per raccontare, per costruire e creare una narrazione. L’AI diventa la narrazione stessa. L’Intelligenza artificiale nelle piattaforme non è una novità. Da anni decide cosa vediamo (le raccomandazioni) e cosa non vediamo (la moderazione). La vera novità è che adesso l’AI, come abbiamo già detto prima, ora entra direttamente nella produzione dei contenuti.

Le piattaforme provano a reagire aggiungendo etichette e regole di trasparenza. YouTube oggi richiede di dichiarare quando un contenuto “realistico” è stato alterato o generato, mostrando un’etichetta anche nel player. TikTok impone la segnalazione per immagini, audio e video creati con l’AI se possono trarre in inganno.

Sono passi avanti importanti, ma restano tre limiti evidenti: la frammentazione (ogni piattaforma adotta regole diverse), l’osservazione delle regole (quanti dichiarano davvero in modo onesto?) e i volumi ingestibili per qualunque sistema di controllo. Dal punto di vista tecnico si stanno affermando standard pensati per garantire la tracciabilità e l’autenticità dei contenuti. C2PA e Content Credentials, due tra gli esempi, permettono di allegare metadati verificabili sull’origine e sulle modifiche di un contenuto. SynthID di Google DeepMind inserisce filigrane invisibili in immagini, audio, testo e video generati con l’IA.

Si tratta di strumenti preziosi, ma finché restano opzionali e non interoperabili, il loro impatto resta davvero limitato. Servirebbe un’adozione predefinita lungo tutta la filiera. Dai modelli agli editor, dalle piattaforme ai browser.

Europa1

Cosa può fare l’Europa

Anche il quadro normativo europeo prova a colmare il vuoto. L’AI Act, all’articolo 50, introduce obblighi di trasparenza per i deepfake e per i contenuti generati o manipolati che possono sembrare reali. È un passaggio fondamentale, perché trasforma la trasparenza da scelta editoriale a responsabilità legale. Resta però il nodo dell’applicazione stessa della regola. Chi controlla, con quali strumenti, e con quali tempi, dentro feed che si aggiornano alla velocità degli algoritmi?

Ora, di fronte a tutto questo, come possiamo ancora fidarci di ciò che vediamo scorrere sulle piattaforme che usiamo?

È necessario discutere di questo, perché siamo ormai a un punto di non ritorno. Quando l’AI comincia a produrre la realtà, facendolo male e peggio, si rischia di disperdere quel valore enorme che è la fiducia. E senza fiducia, la narrazione si trasforma in qualcos’altro. È necessario oggi ricercare un equilibrio tra innovazione e responsabilità. Vogliamo un’innovazione che sia sempre più creativa, che ci aiuti a generare contenuti sempre guardando alla responsabilità e alla fiducia. Ma non al prezzo di perdere il contatto con i fatti e con la realtà.