Milioni di utenti sui social media sono stati esposti a un nuovo e inquietante fenomeno: i video con contenuti razzisti generati dall’intelligenza artificiale. Filmati offensivi, creati tramite il potente strumento di generazione video Google Veo 3, stanno inondando piattaforme come TikTok e Instagram, sollevando preoccupazioni sull’etica nell’uso della tecnologia e sulla moderazione contenuti.
Introdotto a maggio 2025, Google Veo 3 consente agli utenti di creare video di otto secondi attraverso semplici prompt testuali. Basato su un avanzato modello di diffusione addestrato su miliardi di dati multimediali, lo strumento si è rapidamente trasformato in un’arma nelle mani sbagliate. La facilità d’uso, che inizialmente prometteva di democratizzare la creatività, si è rivelata un terreno fertile per la diffusione di contenuti d’odio.
Un’esplosione di contenuti offensivi
Un’inchiesta di Media Matters ha rivelato come numerosi video rappresentino persone di colore con stereotipi degradanti, arrivando persino a utilizzare caricature razziste come il personaggio “Bigfoot Baddie”. Questo trend non si limita a una singola comunità: sono stati documentati video antisemiti, xenofobi e contenenti rappresentazioni degradanti di altre minoranze. Alcuni creatori hanno spinto il limite fino a ricreare eventi storici traumatici, come scene di aggressioni del Ku Klux Klan o simulazioni di campi di concentramento.
La sfida della moderazione
Nonostante le politiche di moderazione contenuti adottate da piattaforme come TikTok e Google, il volume di contenuti problematici sembra sopraffare i sistemi esistenti. TikTok ha dichiarato di aver sospeso numerosi account coinvolti, ma la velocità con cui i video si diffondono dimostra l’inefficacia dei filtri attuali. La combinazione di accessibilità e mancanza di restrizioni sugli input testuali di Google Veo 3 ha amplificato il problema, rendendo lo strumento una piattaforma per la diffusione di pregiudizi.
La necessità di responsabilità tecnologica
Questo caso mette in luce una questione cruciale: come bilanciare innovazione tecnologica e responsabilità sociale? È evidente che le aziende tecnologiche devono implementare misure più rigorose per prevenire l’abuso delle loro creazioni. Un approccio collaborativo tra sviluppatori, piattaforme e autorità regolatorie potrebbe essere la chiave per assicurare che strumenti avanzati come Google Veo 3 siano utilizzati in modo etico.
Il dibattito si estende anche al ruolo delle piattaforme social, che devono migliorare la loro capacità di identificare e rimuovere contenuti dannosi. Solo con una regolamentazione efficace e un impegno condiviso sarà possibile trasformare tecnologie potenti come l’AI in strumenti di progresso sociale, piuttosto che di divisione.
Se vuoi aggiornamenti su AI inserisci la tua email nel box qui sotto: