Nessun risultato. Prova con un altro termine.
Guide
Notizie
Software
Tutorial

Microsoft: solo il 62% degli utenti distingue immagini AI dalle reali, allarme per la disinformazione

Microsoft svela che solo il 62% degli utenti riconosce immagini AI: urge trasparenza e strumenti per contrastare la disinformazione digitale.
Microsoft: solo il 62% degli utenti distingue immagini AI dalle reali, allarme per la disinformazione
Microsoft svela che solo il 62% degli utenti riconosce immagini AI: urge trasparenza e strumenti per contrastare la disinformazione digitale.
Link copiato negli appunti

Solo il 62% delle persone è in grado di distinguere tra immagini reali e immagini create dall’intelligenza artificiale, secondo un recente studio condotto da Microsoft in collaborazione con AI for Good.

Questo dato, emerso da un’indagine su 12.500 partecipanti che hanno valutato ben 287.000 immagini, mette in luce un problema sempre più pressante: la difficoltà crescente per l’occhio umano di riconoscere contenuti visivi manipolati o completamente artificiali, in particolare quando si tratta di paesaggi o scene urbane.

Real or Not Quiz

L’esperimento, denominato “Real or Not Quiz”, ha rivelato una disparità significativa nella capacità di identificare immagini false. Se per i ritratti la percentuale di successo è stata relativamente alta, quando i soggetti riguardavano scenari naturali o urbani la precisione scendeva al 59-61%.

Questa differenza si spiega con la nostra innata abilità nel rilevare anomalie nei volti umani, mentre altri soggetti, come paesaggi e città, forniscono meno indizi utili per smascherare le manipolazioni digitali.

Aumento della disinformazione visva

L’aumento della disinformazione visiva rappresenta un allarme per il settore tecnologico e per la società nel suo complesso. L’incapacità di distinguere immagini reali da quelle generate da immagini AI può avere ripercussioni importanti su temi quali la fiducia nelle informazioni online, la sicurezza e persino la percezione della realtà stessa.

Di fronte a questi rischi, Microsoft sottolinea l’urgenza di adottare soluzioni tecnologiche avanzate, tra cui sistemi di rilevamento automatico e l’introduzione di watermark invisibili per certificare l’autenticità dei contenuti digitali.

Inpainting e watermark

Tra le tecniche più insidiose emerse dallo studio figura l’inpainting, un metodo che consente di sostituire parti di fotografie reali con elementi generati artificialmente. Questo rende la manipolazione praticamente invisibile agli occhi dell’utente medio, aumentando la difficoltà di rilevare le alterazioni anche per chi è particolarmente attento.

Anche l’utilizzo di watermark visibili si è rivelato poco efficace, poiché questi possono essere facilmente rimossi con semplici strumenti di editing, vanificando la loro funzione di tutela dell’autenticità.

Differenze tra tecnologie generative

Un altro dato interessante riguarda le differenze tra le tecnologie generative. I modelli più datati, come le GANs (Generative Adversarial Networks), riescono spesso a ingannare gli utenti grazie alla loro capacità di produrre immagini che appaiono come fotografie amatoriali autentiche.

Paradossalmente, le creazioni più “perfette” e sofisticate dei sistemi di ultima generazione, come Midjourney o DALL E 3, risultano talvolta più facilmente riconoscibili come artificiali, proprio perché la loro qualità eccessiva può insospettire l’osservatore.

Se vuoi aggiornamenti su AI inserisci la tua email nel box qui sotto:

Compilando il presente form acconsento a ricevere le informazioni relative ai servizi di cui alla presente pagina ai sensi dell'informativa sulla privacy.

Ti consigliamo anche