Nessun risultato. Prova con un altro termine.
Guide
Notizie
Software
Tutorial

OpenAI annuncia Media Manager e tool per identificare deepfake

Con Media Manager (in arrivo nel 2025) i creator potranno indicare a OpenAI quali contenuti sono coperti da copyright.
OpenAI annuncia Media Manager e tool per identificare deepfake
Con Media Manager (in arrivo nel 2025) i creator potranno indicare a OpenAI quali contenuti sono coperti da copyright.
Link copiato negli appunti

OpenAI ha recentemente annunciato due interessanti novità dedicate ai suoi servizi di intelligenza artificiale. La prima riguarda il prossimo arrivo di un DALL-E, chiamato Media Manager. Questo permetterà ai creator e ai proprietari di contenuti di informare OpenAI su ciò che deve essere considerato come protetto da copyright. Inoltre, quest’ultimi possono anche indicare se desiderano o meno che tali contenuti vengano aggiunti ai modelli di formazione AI dell'azienda. Come ricorda la stessa azienda: “ciò richiederà una ricerca all’avanguardia sull’apprendimento automatico per creare uno strumento primo nel suo genere che ci aiuti a identificare testo, immagini, audio e video protetti da copyright attraverso più fonti e riflettere le preferenze dei creator”. Media Manager è ancora nelle sue fasi iniziali e non sarà lanciato ufficialmente fino al 2025. OpenAI potrebbe voler lanciare questo strumento a causa delle numerose cause legali che sta attualmente affrontando in relazione a tale tema.

OpenAI: tool per riconoscere le immagini AI efficace nel 98% dei casi

Il secondo annuncio ha rivelato che OpenAI sta lavorando su un altro strumento progettato per rilevare deepfake, ovvero le immagini realizzate con DALL-E. Secondo l’azienda: “il nostro obiettivo è consentire una ricerca indipendente che valuti l'efficacia del classificatore, analizzi la sua applicazione nel mondo reale, emerga considerazioni rilevanti per tale utilizzo ed esplori le caratteristiche dei contenuti generati dall'intelligenza artificiale”. OpenAI afferma che una prima versione di questo strumento attualmente senza nome ha identificato con successo oltre il 98% delle immagini realizzate da DALL-E. Inoltre, ha identificato erroneamente le immagini in meno dello 0,5% delle volte come realizzate da DALL-E. Lo strumento è attualmente in fase di test privato da parte di una serie di "laboratori di ricerca e organizzazioni no-profit di giornalismo orientate alla ricerca". Non si sa quando lo strumento sarà generalmente disponibile.

OpenAI ha anche affermato nello stesso post sul blog che entrerà a far parte del comitato direttivo della Coalition for Content Provenance and Authenticity (Coalizione per la provenienza e l'autenticità dei contenuti). Il consorzio C2PAcrea standard per la certificazione dei contenuti digitali. Inoltre, OpenAI e il suo principale partner Microsoft stanno collaborando per finanziare 2 milioni di dollari in quello che le aziende chiamano Societal Resilience Fund. Questo fondo verrà utilizzato per contribuire a finanziare una serie di organizzazioni che si dedicano alla "educazione e comprensione dell'IA".

Ti consigliamo anche