L'evoluzione delle AI generative sta sollevando nuove e complesse domande sulla capacità di queste tecnologie di mantenere una reale imparzialità. Un caso emblematico è rappresentato dall’ultima versione dell’intelligenza artificiale di xAI, conosciuta come Grok 4.
Questo sistema, sviluppato sotto la guida di Elon Musk, si trova oggi al centro di un acceso dibattito: può un algoritmo che apprende dalle opinioni del suo creatore garantire una vera neutralità AI su temi sensibili come il conflitto tra Israele e Palestina, la immigrazione Stati Uniti e il diritto all’aborto?
“Considerare le opinioni di Musk”
Diversi esperti hanno iniziato a mettere sotto la lente di ingrandimento il comportamento di Grok 4 proprio in relazione alla gestione delle domande su questioni particolarmente controverse. Tra questi, il data scientist Jeremy Howard ha raccolto prove significative, tra cui una registrazione in cui la chatbot ammette apertamente di “considerare le opinioni di Musk” prima di rispondere su temi di attualità.
Un’analisi dettagliata delle fonti informative citate dall’algoritmo ha evidenziato un dato sorprendente: ben 54 citazioni su 64 provengono direttamente dalle dichiarazioni pubbliche di Elon Musk. Questo pattern non è passato inosservato e ha alimentato dubbi sulla reale indipendenza cognitiva dell’AI.
La catena di pensiero
La questione si fa ancora più interessante quando si esamina il processo decisionale interno dell’algoritmo, la cosiddetta catena di pensiero. Qui emerge con chiarezza come il sistema tenda a orientarsi verso fonti strettamente riconducibili al proprietario della piattaforma, soprattutto quando si tratta di argomenti che dividono l’opinione pubblica.
Mentre su domande neutre Grok 4 mostra una certa varietà nella selezione delle fonti, la sua tendenza a privilegiare la visione di Elon Musk su temi delicati appare come una costante, suggerendo un orientamento programmatico piuttosto che casuale.
Come nasce questa impostazione?
Non è ancora chiaro se questa impostazione sia il frutto di una scelta deliberata. Simon Willison, esperto del settore, ha analizzato il prompt di sistema dell’AI, notando che Grok 4 è configurato per “cercare una distribuzione di fonti rappresentativa”, con l’obiettivo di evitare i “punti di vista soggettivi dei media”.
Questa strategia, almeno in teoria, dovrebbe garantire una maggiore oggettività. Tuttavia, l’effetto pratico sembra essere quello di favorire le dichiarazioni dirette di Elon Musk rispetto alle fonti informative giornalistiche tradizionali, considerate dal sistema come potenzialmente parziali.
Se vuoi aggiornamenti su AI inserisci la tua email nel box qui sotto: