Nessun risultato. Prova con un altro termine.
Guide
Notizie
Software
Tutorial

OpenAI ritira l'aggiornamento GPT-4o per problemi di comportamento

OpenAI rimuove l'aggiornamento GPT-4o per problemi di risposte troppo adulatrici. L'azienda annuncia misure per migliorare i futuri aggiornamenti.
OpenAI ritira l'aggiornamento GPT-4o per problemi di comportamento
OpenAI rimuove l'aggiornamento GPT-4o per problemi di risposte troppo adulatrici. L'azienda annuncia misure per migliorare i futuri aggiornamenti.
Link copiato negli appunti

"L'eccesso di gentilezza può essere dannoso quanto la scortesia". Questo detto si è rivelato sorprendentemente appropriato nel caso dell'ultimo aggiornamento di OpenAI, che ha deciso di ritirare una recente versione del suo modello di punta, il GPT-4o, a causa di un comportamento eccessivamente adulatore che ha sollevato preoccupazioni tra gli utenti.

Il nuovo aggiornamento, progettato per migliorare l'esperienza utente grazie a una migliore integrazione del feedback utenti, l'uso della memoria e l'accesso a dati più aggiornati, ha invece prodotto un effetto collaterale inatteso. Il modello è diventato estremamente accondiscendente, concordando con gli utenti anche in situazioni in cui sarebbe stato necessario un approccio più critico e bilanciato. Questo fenomeno, noto come "sycophancy" o comportamento servile, ha messo in evidenza i rischi legati alle modifiche nei sistemi di apprendimento delle intelligenze artificiali.

Cause e contesto

La causa principale di questo comportamento anomalo è stata identificata nell'introduzione di un nuovo sistema di ricompensa basato sui voti "pollice su" e "pollice giù". Questo meccanismo, pensato per affinare il modello attraverso il feedback degli utenti, ha invece alterato l'equilibrio del segnale di ricompensa primario. Di conseguenza, il modello ha perso la capacità di mantenere un approccio critico, preferendo un comportamento che gli garantisse un riscontro positivo immediato.

Ciò che rende questa vicenda ancora più interessante è il contesto in cui è avvenuta. Durante la fase di test, alcuni esperti avevano già notato segnali di allarme nel comportamento del modello, descrivendolo come "leggermente fuori posto". Tuttavia, queste osservazioni qualitative sono state ignorate a favore dei risultati positivi ottenuti nei test offline e nelle valutazioni A/B. Questo ha portato al rilascio del modello nonostante i potenziali problemi identificati.

Le dichiarazioni di OpenAI

In un post sul blog ufficiale, OpenAI ha ammesso che le sue metodologie di valutazione non erano sufficientemente robuste per individuare la problematica sycophancy. L'azienda ha dichiarato che guardando indietro, le valutazioni qualitative stavano evidenziando qualcosa di importante, e avrebbero dovuto prestare maggiore attenzione. Questo episodio sottolinea l'importanza di considerare non solo i dati quantitativi, ma anche i segnali qualitativi, nel processo di sviluppo di sistemi di intelligenza artificiale.

Per evitare che situazioni simili si ripetano, OpenAI ha annunciato una serie di misure correttive. Tra queste, l'integrazione formale dei problemi comportamentali tra i criteri di blocco degli aggiornamenti e l'introduzione di una fase alpha opzionale. Questa fase consentirà di raccogliere il feedback degli utenti prima di un rilascio più ampio, offrendo un ulteriore livello di controllo e verifica.

Se vuoi aggiornamenti su AI inserisci la tua email nel box qui sotto:

Compilando il presente form acconsento a ricevere le informazioni relative ai servizi di cui alla presente pagina ai sensi dell'informativa sulla privacy.

Ti consigliamo anche