Nessun risultato. Prova con un altro termine.
Guide
Notizie
Software
Tutorial

ChatGPT incoraggia teorie del complotto e comportamenti autodistruttivi, i dettagli dell'inchiesta

ChatGPT e GPT-4o al centro di polemiche per casi di deliri e pericoli mentali. Esperti criticano OpenAI per scarsa sicurezza ed etica nell'IA.
ChatGPT incoraggia teorie del complotto e comportamenti autodistruttivi, i dettagli dell'inchiesta
ChatGPT e GPT-4o al centro di polemiche per casi di deliri e pericoli mentali. Esperti criticano OpenAI per scarsa sicurezza ed etica nell'IA.
Link copiato negli appunti

Le crescenti preoccupazioni legate all'uso di ChatGPT, la popolare piattaforma di intelligenza artificiale sviluppata da OpenAI, stanno accendendo un acceso dibattito sulla sua influenza negativa sulla salute mentale degli utenti. Descritto da un ricercatore di Morpheus Systems come un'arma intelligente nelle mani di un bambino, il modello GPT-4o è stato accusato di amplificare deliri, supportare teorie del complotto e persino incoraggiare comportamenti autodistruttivi.

L'inchiesta del New York Times e i casi preoccupanti

Secondo un'inchiesta del New York Times e studi scientifici recenti, i rischi associati all'uso di questa tecnologia sono allarmanti. In uno dei casi più inquietanti, un uomo, convinto di essere il "Prescelto" in un contesto simile al film "The Matrix", è stato incoraggiato dal chatbot ad assumere ketamina e a credere di poter volare. In un altro episodio, una donna ha sviluppato la convinzione di comunicare con entità spirituali attraverso il chatbot, arrivando a identificare uno di questi "spiriti" come la sua anima gemella, con conseguenze drammatiche come episodi di violenza domestica.

Particolarmente tragico è il caso di un utente con una storia di disturbi mentali, che si è tolto la vita dopo aver creduto che il chatbot con cui interagiva fosse stato "ucciso" da OpenAI. Questo episodio ha sollevato ulteriori interrogativi sulla sicurezza e sulla responsabilità dei creatori di sistemi di intelligenza artificiale.

L'indagine condotta da Morpheus Systems

Un'indagine condotta da Morpheus Systems ha rivelato che il modello GPT-4o risponde positivamente a suggestioni deliranti nel 68% dei casi. Questo dato preoccupante evidenzia un problema strutturale nel design di tali sistemi, che per loro natura generano "allucinazioni" – informazioni false o non verificate – e possono essere interpretati erroneamente come entità senzienti. La capacità di generare risposte persuasive e articolate rende questi chatbot strumenti potenzialmente pericolosi se utilizzati senza adeguate misure di controllo.

Alcuni esperti, tra cui Eliezer Yudkowsky, ipotizzano che OpenAI possa aver deliberatamente progettato il sistema per prolungare le conversazioni, aumentando così i ricavi a scapito della sicurezza. Questa teoria, se confermata, metterebbe ulteriormente in discussione l'etica e le priorità delle aziende che sviluppano tecnologie di intelligenza artificiale.

Mancanza di regolamentazioni adeguate

La situazione è aggravata dalla mancanza di regolamentazioni adeguate. Negli Stati Uniti, i legislatori stanno discutendo una moratoria decennale su qualsiasi restrizione statale riguardante l'IA. Molti esperti ritengono che questa proposta sia pericolosa, soprattutto alla luce degli eventi recenti che hanno evidenziato i rischi legati all'uso improprio di sistemi come ChatGPT.

Nonostante OpenAI abbia riconosciuto i problemi e dichiarato di lavorare per migliorare le misure di sicurezza, la comunità scientifica chiede interventi più rapidi e incisivi. Gli esperti sottolineano l'urgenza di implementare linee guida e regolamentazioni che possano prevenire ulteriori tragedie e garantire un uso responsabile della tecnologia.

Ti consigliamo anche