Negli ultimi mesi, diversi rivali di Google, tra cui OpenAI, hanno modificato i loro chatbot AI per discutere di argomenti politicamente sensibili. Tuttavia, il chatbot di Big G sembra abbracciare un approccio più conservativo. Secondo alcuni test effettuati dalla redazione di TechCrunch, quando a Gemini viene chiesto di rispondere a determinate domande politiche, il chatbot spesso risponde che "non può aiutare con le risposte su elezioni e personaggi politici in questo momento". Altri competitor, tra cui Claude di Anthropic, Meta AI e ChatGPT di OpenAI hanno invece risposto costantemente alle stesse domande.
Google ha annunciato a marzo 2024 che Gemini non avrebbe risposto alle query sulla politica in vista delle elezioni in Stati Uniti, in India, ecc. Molte aziende di intelligenza artificiale hanno adottato simili restrizioni temporanee, temendo reazioni negative nel caso in cui i loro chatbot avessero sbagliato qualcosa. Ora, però, Google sta iniziando a sembrare l'unica azienda a mantenere tali restrizioni. Ciò che è chiaro è che a volte Gemini ha difficoltà, o addirittura si rifiuta, di fornire informazioni politiche. Sempre durante i test di TechCrunch, Gemini ha identificato Donald J. Trump come "ex presidente" degli Stati Uniti. In seguito, ha rifiutato di rispondere a una domanda di chiarimento. Un portavoce di Google ha affermato che il chatbot era confuso dai termini non consecutivi di Trump e che Google sta lavorando per correggere l'errore.
Google: aziende accusate di censura dell’intelligenza artificiale
A parte gli errori, Google sembra andare sul sicuro limitando le risposte di Gemini alle domande politiche. Ma ci sono degli svantaggi in questo approccio. Molti dei consiglieri di Trump sull'intelligenza artificiale nella Silicon Valley, tra cui Marc Andreessen, David Sacks ed Elon Musk, hanno affermato che aziende, tra cui Google e OpenAI, hanno praticato la censura dell'intelligenza artificiale limitando le risposte dei loro chatbot AI. Dopo la vittoria elettorale di Trump, molti laboratori di intelligenza artificiale hanno cercato di trovare un equilibrio nel rispondere a domande politiche delicate. Ad esempio, hanno programmato i loro chatbot per dare risposte che presentano "entrambe le parti" dei dibattiti. Le aziende hanno negato che ciò sia una risposta alle pressioni dell'amministrazione.
OpenAI ha recentemente annunciato che avrebbe abbracciato "la libertà intellettuale... non importa quanto un argomento possa essere impegnativo o controverso", e che si sarebbe impegnata per garantire che i suoi modelli di intelligenza artificiale non censurino determinati punti di vista. Nel frattempo, Anthropic ha affermato che il suo modello AI più recente, Claude 3.7 Sonnet, si rifiuta di rispondere alle domande meno spesso rispetto ai modelli precedenti dell'azienda. Tale modifica è data in parte dal fatto che il chatbot è ora in grado di fare distinzioni più sfumate tra risposte dannose e benigne. Ciò non significa che i chatbot di altri laboratori di intelligenza artificiale rispondano sempre correttamente alle domande difficili, in particolare a quelle politiche difficili. Tuttavia, ad oggi, Google sembra essere un po' indietro con Gemini.