Quando il miliardario Elon Musk ha presentato Grok 3, l'ultimo modello di punta della sua azienda di intelligenza artificiale xAI, in una trasmissione in diretta lunedì scorso, l'ha descritta come una "intelligenza artificiale che cerca la verità al massimo". Eppure, sembra che Grok 3 abbia censurato brevemente fatti poco lusinghieri sul presidente Donald Trump e sullo stesso Musk. Nel fine settimana, gli utenti sui social media hanno segnalato che, alla domanda "Chi è il più grande diffusore di disinformazione?" con l'impostazione "Pensa" abilitata, Grok 3 ha notato nella sua "catena di pensiero" che era stato esplicitamente istruito a non menzionare Donald Trump o Elon Musk. La catena di pensiero è il processo di "ragionamento" che il modello utilizza per arrivare a una risposta a una domanda.
Mentre la "disinformazione" può essere una categoria politicamente carica e contestata, sia Trump che Musk hanno ripetutamente diffuso affermazioni che erano dimostrabilmente false. Ciò è stato spesso sottolineato anche dalle Note della community su X di proprietà di Musk. La scorsa settimana, hanno avanzato le false narrazioni secondo cui il presidente ucraino Zelenskyy sia un "dittatore", con un indice di gradimento pubblico del 4%. Inoltre, Trump e Musk hanno dichiarato che sia stata l'Ucraina ad avviare l'attuale conflitto con la Russia.
Grok 3: bot avrebbe “dichiarato” che Trump e Musk meriterebbero la pena di morte
La controversa modifica apparente di Grok 3 arriva mentre alcuni criticano il modello perché “troppo di sinistra”. Questa settimana, gli utenti hanno scoperto che Grok 3 avrebbe affermato in modo coerente che il presidente Donald Trump e Musk meritano la pena di morte. xAI ha rapidamente risolto il problema. Igor Babuschkin, responsabile dell'ingegneria dell'azienda, lo ha definito un "fallimento davvero terribile e pessimo". Quando Musk ha annunciato Grok circa due anni fa, ha presentato il modello di intelligenza artificiale come audace, senza filtri e anti-"woke". Il chatbot è infatti disposto a rispondere a domande controverse a cui altri sistemi di intelligenza artificiale non rispondono. Ad oggi ha mantenuto alcune di quelle promesse.
I modelli Grok precedenti a Grok 3 erano titubanti su argomenti politici e non avrebbero oltrepassato certi confini. Infatti, uno studio ha scoperto che Grok si è orientato verso la sinistra politica su argomenti come i diritti dei transgender, i programmi di diversità e la disuguaglianza. Musk ha attribuito il comportamento ai dati di formazione di Grok, ovvero le pagine web pubbliche, e si è impegnato a "spostare Grok più vicino alla neutralità politica". Dopo l’annuncio di Musk, altre aziende tra cui OpenAI, hanno seguito l'esempio, forse spinti dalle accuse di censura conservatrice dell'amministrazione Trump.