Nessun risultato. Prova con un altro termine.
Guide
Notizie
Software
Tutorial

Il diritto all’oblio computazionale per cancellare notizie da Google AI MODE

Cancellare una notizia non basta più, bisogna insegnare alle macchine a dimenticare. Ne abbiamo parlato con l’Avvocato Domenico Bianculli (Cyber Lex).
Il diritto all’oblio computazionale per cancellare notizie da Google AI MODE
Cancellare una notizia non basta più, bisogna insegnare alle macchine a dimenticare. Ne abbiamo parlato con l’Avvocato Domenico Bianculli (Cyber Lex).
Link copiato negli appunti

Nel 2014 la Corte di Giustizia dell’Unione Europea, con la celebre sentenza Google Spain, riconobbe a ogni cittadino il diritto di ottenere la rimozione dei propri dati personali dai risultati dei motori di ricerca. Da allora, il cosiddetto diritto all’oblio è diventato una colonna portante della tutela della reputazione online, trovando pieno riconoscimento nell’articolo 17 del Regolamento (UE) 2016/679 – GDPR.

A distanza di dieci anni, lo scenario è radicalmente cambiato. Oggi non basta più cancellare un link da Google per far “sparire” un’informazione: occorre fronteggiare una nuova generazione di sistemi – Google AI Mode, Perplexity.ai, ChatGPT, Copilot e Gemini – che non si limitano a restituire risultati, ma rielaborano e sintetizzano contenuti in tempo reale, fondendo i dati di milioni di fonti pubbliche e private. Il diritto all’oblio, nato come strumento giuridico, si trova ora a fare i conti con una trasformazione informatica che ne sfida le fondamenta.

Cyberlex e diritto all'oblio

Dal diritto alla cancellazione all’oblio algoritmico

L’art. 17 GDPR prevede che ogni interessato possa ottenere la cancellazione dei propri dati personali quando essi non siano più necessari, siano trattati illecitamente o il loro mantenimento arrechi un pregiudizio sproporzionato. Nella pratica, il meccanismo si traduce nella deindicizzazione: il link incriminato non viene cancellato dal web, ma semplicemente escluso dai risultati dei motori di ricerca.

Con l’avvento dell’intelligenza artificiale, tuttavia, questo principio entra in crisi. I modelli linguistici come ChatGPT o gli algoritmi di risposta sintetica di Google AI Mode non “conservano” link, bensì rappresentazioni statistiche dei testi appresi durante la fase di addestramento.

Se un’informazione personale è stata inclusa nei dataset di training, la sua cancellazione a posteriori diventa pressoché impossibile: l’algoritmo non sa dove “abitano” i dati, perché li ha già trasformati in parametri matematici.

La dottrina parla oggi di “oblio algoritmico”, ossia la capacità – ancora teorica – di garantire all’individuo non solo la rimozione dei link, ma anche la “disimparanza” dei dati da parte delle AI. L’AI Act europeo, approvato nel 2024, muove i primi passi in questa direzione, imponendo ai fornitori di sistemi di intelligenza artificiale obblighi di tracciabilità, audit dei dataset e possibilità di rettifica, quando tecnicamente fattibile.

Cyberlex e diritto all'oblio

L’architettura informatica dei nuovi motori di ricerca

Per capire quanto sia complesso cancellare notizie dalle AI, è necessario osservare il loro funzionamento tecnico.

Google AI Mode, oggi in fase di integrazione su scala globale, rappresenta la naturale evoluzione di Google Search. Invece di mostrare dieci link blu, il motore fornisce una risposta generata automaticamente, costruita sulla base di fonti verificate, risultati di ricerca, e contenuti open access. In termini architetturali, il modello si fonda su una rete di Large Language Models (LLM) che incrociano l’indicizzazione tradizionale con la capacità di generare testo.

Ciò significa che, anche se un link viene deindicizzato per effetto del diritto all’oblio, la risposta sintetica di Google AI potrebbe comunque evocare i contenuti rimossi, poiché il modello li ha già inglobati nella propria base di conoscenza.

Un meccanismo analogo regge Perplexity.ai, motore di ricerca conversazionale basato su un’architettura ibrida tra GPT e retrieval-based search. Perplexity non mostra soltanto risultati: produce una sintesi narrativa delle fonti e, in alcuni casi, cita esplicitamente i siti di provenienza.

Tuttavia, la selezione delle fonti è parzialmente opaca, e la capacità di filtrare contenuti deindicizzati è ancora oggetto di dibattito tecnico e legale.

ChatGPT, invece, opera diversamente: la versione pubblica non naviga costantemente sul web, ma si basa su un modello addestrato fino a una determinata data, con un modulo di ricerca (“Browse with Bing”) opzionale. Questo significa che le informazioni personali già presenti nei dataset di addestramento restano immodificabili, mentre i dati acquisiti tramite browsing vengono gestiti da sistemi esterni (come Bing Search), soggetti a politiche di deindicizzazione differenti.

Cyberlex e diritto all'oblio

Cancellare notizie da AI e motori: una sfida tecnica

Sul piano tecnico, la cancellazione di notizie o dati personali da un sistema AI implica tre livelli di intervento:

  1. Cancellazione a monte, eliminando la fonte originale dal web o impedendo la sua indicizzazione.
  2. Cancellazione a valle, ovvero la richiesta di deindicizzazione ai motori di ricerca tradizionali come Google o Bing.
  3. Cancellazione nella memoria del modello, la parte più complessa, poiché richiede la capacità di “disimparare” dati già appresi.

Le soluzioni informatiche attualmente allo studio, come il machine unlearning, cercano di consentire ai modelli di “dimenticare” selettivamente certe informazioni, rigenerando solo porzioni dei pesi di rete neurale interessate da un dato specifico. Tuttavia, si tratta di un campo ancora sperimentale, privo di standard internazionali consolidati.

Google, ad esempio, ha recentemente inserito nella sua Guida di approfondimento legale la possibilità di presentare la richiesta di rimozione per le versioni “AI Overviews” e “AI MODE”:

Cyberlex e diritto all'oblio

Un’altra strada è l’introduzione di dataset di addestramento più tracciabili, dove ogni documento incorpori un “flag” giuridico di trattamento, indicante se i dati sono revocabili o meno. In tal modo, le richieste di cancellazione potrebbero essere gestite a livello di metadati, prima ancora che di testo.

La reputazione digitale e i rischi delle risposte sintetiche

Le implicazioni non sono solo tecniche o giuridiche, ma anche reputazionali. Le risposte generate da AI e motori ibridi non si limitano a citare fatti: costruiscono narrazioni, influenzando la percezione di individui e aziende. Una sintesi che riprende vecchie notizie, un commento distorto o una correlazione sbagliata possono consolidarsi in rete come “verità algoritmiche”.

Le aziende e i professionisti ne risentono immediatamente: basta una frase generata in modo improprio per compromettere l’affidabilità percepita di un brand. Non a caso, molte società hanno iniziato a investire nella AI reputation management, un insieme di tecniche e strategie per monitorare e correggere in tempo reale le informazioni prodotte da sistemi generativi.

Verso una convergenza tra diritto e ingegneria dell’intelligenza artificiale

Il futuro del diritto all’oblio non può più essere scritto solo nei tribunali: deve nascere nei laboratori di ricerca e nei server farm che ospitano i modelli linguistici.

Per l’Avvocato Domenico Bianculli, esperto di privacy (sua la rappresentanza di un cittadino italiano nel procedimento contro Google in questa interessante pronuncia della Cassazione) “il dialogo tra giuristi, informatici e data scientist è ormai imprescindibile: servono protocolli comuni che traducano le tutele giuridiche in specifiche tecniche – dal tagging dei dataset al logging dei dati personali – e che consentano un equilibrio tra trasparenza algoritmica e privacy individuale.

Del resto, anche la giurisprudenza europea ha iniziato a muoversi in questa direzione. La Corte di Giustizia dell’Unione Europea, nella nota sentenza C-131/12, Google Spain vs. AEPD e Mario Costeja González, aveva già chiarito che i motori di ricerca sono titolari autonomi del trattamento e che devono garantire la cancellazione dei link quando le informazioni risultano inadeguate, non pertinenti o non più necessarie. Un principio poi ribadito nel caso GC e altri vs. CNIL (C-136/17), in cui la Corte ha distinto tra diritto all’oblio “continentale” e “globale”, affermando che l’effetto della deindicizzazione non deve necessariamente estendersi a tutti i domini del motore di ricerca, ma deve essere effettivo almeno all’interno dell’Unione.

Tali pronunce - conclude l’Avv. Bianculli - offrono la base per un’estensione interpretativa del diritto all’oblio anche alle piattaforme di intelligenza artificiale. Laddove un modello di AI generativa sintetizzi o riproduca informazioni personali obsolete, la logica della Corte suggerisce che debba essere garantito un analogo meccanismo di rimozione o rettifica, pur con modalità tecniche diverse.

In Italia, il Garante per la Protezione dei Dati Personali ha più volte ribadito che il diritto alla cancellazione si applica a tutti i sistemi di trattamento automatizzato dei dati, inclusi quelli basati su apprendimento automatico.

La cancellazione delle notizie dai motori di ricerca, un tempo questione di link, diventa così una sfida di architettura dell’informazione: non più eliminare pagine, ma educare i modelli a dimenticare. La prospettiva che emerge è quella di un “diritto all’oblio computazionale”, fondato sulla cooperazione tra norme e codice, dove la tutela dei diritti fondamentali passa anche attraverso l’ingegneria del dato.

 

In collaborazione con CyberLex

Se vuoi aggiornamenti su Digital Economy inserisci la tua email nel box qui sotto:

Compilando il presente form acconsento a ricevere le informazioni relative ai servizi di cui alla presente pagina ai sensi dell'informativa sulla privacy.

Ti consigliamo anche