La protezione dell'identità digitale e la lotta contro la disinformazione sono al centro del disegno di legge bipartisan NO FAKES Act 2024, recentemente supportato da YouTube. Questa iniziativa legislativa, promossa dai senatori Chris Coons e Marsha Blackburn, mira a regolamentare l'uso improprio delle tecnologie di replica digitale, come i deepfake, e a salvaguardare l'immagine personale degli individui.
Il titolo completo della proposta, "Nurture Originals, Foster Art, and Keep Entertainment Safe", evidenzia l'intento di creare un quadro normativo che contrasti la creazione e diffusione di contenuti digitali non autorizzati. Secondo il disegno di legge, chi produce o ospita deepfake senza il consenso del soggetto rappresentato potrebbe incorrere in conseguenze legali. Una delle sfide principali è definire le responsabilità delle piattaforme che ospitano tali contenuti, ma YouTube ha già dichiarato la propria disponibilità a collaborare per implementare sistemi di controllo più rigorosi.
Nel testo della proposta legislativa si legge: "L'intelligenza artificiale generativa ha aperto nuovi orizzonti creativi, fornendo strumenti che incoraggiano milioni di persone a esplorare il proprio potenziale artistico. Tuttavia, questi strumenti possono essere utilizzati per sfruttare la voce o l'immagine di un'altra persona creando repliche digitali altamente realistiche senza autorizzazione." La necessità di una regolamentazione si è resa evidente dopo episodi come la creazione di una canzone che imitava perfettamente la voce di Drake o una pubblicità in cui appariva una versione digitale non autorizzata di Tom Hanks.
La dichiarazione ufficiale di YouTube
YouTube, in una dichiarazione ufficiale, ha sottolineato: "Crediamo che l'AI abbia un potenziale incredibile, ma sbloccarlo in modo responsabile significa implementare misure di sicurezza. Il NO FAKES Act offre un percorso intelligente per bilanciare protezione e innovazione, mettendo il potere direttamente nelle mani degli individui."
Parallelamente, YouTube sostiene anche il TAKE IT DOWN Act, una legge che criminalizza la condivisione di immagini intime non consensuali, e ha già introdotto strumenti per consentire agli utenti un maggiore controllo sulla propria rappresentazione digitale. Questi sforzi fanno parte di un impegno più ampio per affrontare le sfide legate alla protezione digitale e alla gestione responsabile dei contenuti generati dall'intelligenza artificiale.
Oltre a YouTube, altri giganti tecnologici come Amazon, Google, Meta e X hanno espresso il loro sostegno iniziale a questa legislazione AI, dimostrando un crescente impegno del settore verso pratiche più responsabili.