Nessun risultato. Prova con un altro termine.
Guide
Notizie
Software
Tutorial

ChatGPT ha sempre più allucinazioni: il paradosso dei modelli più "intelligenti"

OpenAI affronta sfide con modelli AI avanzati. Errori elevati sollevano dubbi su affidabilità e utilizzo in settori critici.
ChatGPT ha sempre più allucinazioni: il paradosso dei modelli più
OpenAI affronta sfide con modelli AI avanzati. Errori elevati sollevano dubbi su affidabilità e utilizzo in settori critici.
Link copiato negli appunti

La recente evoluzione dei sistemi di intelligenza artificiale sta evidenziando un fenomeno paradossale: i modelli più avanzati, come quelli sviluppati da OpenAI, mostrano tassi di errore superiori rispetto ai loro predecessori meno sofisticati. Questa tendenza solleva interrogativi significativi sull’affidabilità e sull’effettiva utilità di tali tecnologie in ambiti pratici.

Un paradosso tecnologico

I dati interni di OpenAI rivelano che i nuovi modelli, pur vantando capacità logiche migliorate, faticano a garantire un livello di precisione adeguato. Il modello GPT o3, ad esempio, registra errori in un caso su tre quando si tratta di rispondere a domande su figure pubbliche, un tasso doppio rispetto al suo predecessore. Ancora più preoccupante è il caso dell’o4-mini, che raggiunge un tasso di errore del 48% in situazioni simili.

La caratteristica distintiva dei modelli di reasoning è la loro capacità di suddividere problemi complessi in sequenze logiche, emulando il ragionamento umano. Tuttavia, questa complessità introduce un rischio significativo: ogni passaggio logico può amplificare le imprecisioni, generando risultati finali lontani dalla realtà. Nel benchmark SimpleQA, i risultati peggiorano ulteriormente: il GPT o3 sbaglia il 51% delle risposte, mentre l’o4-mini arriva a un allarmante 79%.

Implicazioni per l’utilizzo pratico

Questo aumento degli errori dei sistemi di AI compromette la loro applicabilità in settori critici come la sanità, l’istruzione e la pubblica amministrazione. Come sottolineato da esperti del settore, l’efficienza dell’automazione rischia di essere annullata dalla necessità di verificare minuziosamente ogni output. Il fenomeno ricorda l’“Eliza Effect” degli anni ’80, quando si attribuivano ai computer capacità superiori a quelle reali. La differenza oggi è che i modelli stessi sembrano "convinti" delle proprie affermazioni, anche quando sono palesemente errate, fenomeno noto come allucinazioni AI.

Nonostante i problemi, l’intero settore tecnologico è impegnato a bilanciare potenza computazionale e affidabilità. Per aziende come OpenAI, la sfida è sviluppare soluzioni che sfruttino i vantaggi dell’intelligenza artificiale senza sacrificare l’accuratezza, un elemento essenziale per garantire un’adozione responsabile e sicura di queste tecnologie rivoluzionarie.

Se vuoi aggiornamenti su AI inserisci la tua email nel box qui sotto:

Compilando il presente form acconsento a ricevere le informazioni relative ai servizi di cui alla presente pagina ai sensi dell'informativa sulla privacy.

Ti consigliamo anche