Nessun risultato. Prova con un altro termine.
Guide
Notizie
Software
Tutorial

OpenAI crea team di sicurezza per prevenire i rischi dell'AI

Per ridurre le possibili derive di AI rischiose, OpenAI ha creato un nuovo  team di sicurezza e ha conferito al CDA potere di veto.
OpenAI crea team di sicurezza per prevenire i rischi dell'AI
Per ridurre le possibili derive di AI rischiose, OpenAI ha creato un nuovo  team di sicurezza e ha conferito al CDA potere di veto.
Link copiato negli appunti

OpenAI sta migliorando la sicurezza interna per respingere la minaccia di una eventuale intelligenza artificiale dannosa. Per questo motivo l’azienda ha istituito un Safety Advisory Group (SAG). Questo sarà al di sopra dei team tecnici e avrà lo scopo di studiare le possibili derive dell’AI. In un recente post pubblicato sul proprio blog, OpenAI poi ha introdotto il nuovo “team di preparazione”, il cui scopo principale è quello di mostrare un percorso chiaro per identificare, analizzare e decidere cosa fare riguardo ai rischi “catastrofici” inerenti ai modelli che l’azienda sta sviluppando. Come riporta la stessa OpenAI: “Per rischio catastrofico intendiamo qualsiasi rischio che potrebbe comportare danni economici per centinaia di miliardi di dollari o portare al danno grave o alla morte di molti individui: questo include, ma non è limitato a, il rischio esistenziale”. Il Safety Advisory Group sarà guidato da Aleksander Madry, informatico del Massachusetts Institute of Technology (MIT).

OpenAI: tre team per prevenire ogni possibile rischio legato all’intelligenza artificiale

I modelli attualmente in produzione sono supervisionati da un team che si occupa di “sistemi di sicurezza”. Questo riguarda, ad esempio, gli abusi sistematici di ChatGPT che possono essere mitigati con restrizioni o ottimizzazioni dell'API. I modelli di frontiera in fase di sviluppo vengono affidati al “team di preparazione”. Quest'ultimo cerca di identificare e quantificare i rischi prima che il modello venga rilasciato. Infine, vi è il “team di superallineamento”, che sta lavorando su binari guida teorici per modelli “superintelligenti”, ai quali potremmo essere vicini o meno. I primi due team valutano ciascun modello in base a quattro categorie di rischio: sicurezza informatica, “persuasione” (ad esempio, disinformazione), autonomia del modello (ovvero, azione autonoma) e CBRN (minacce chimiche, biologiche, radiologiche e nucleari, ecc.).

Una volta identificati, i rischi verranno sottoposti al Safety Advisory Group, l’organismo che formulerà raccomandazioni a Sam Altman o a una persona da lui designata. Il CEO di OpenAI deciderà quindi le possibili modifiche da apportare a un modello per ridurre i rischi associati. Se un modello viene valutato come avente un rischio alto, non può essere implementato e se un modello presenta rischi critici, non verrà sviluppato ulteriormente. Il Consiglio di amministrazione sarà tenuto informato e, come già accennato, potrà porre il suo veto sulla decisione presa. Si tratta di una garanzia data ai dirigenti, dopo la saga del licenziamento temporaneo di Sam Altman che aveva suscitato critiche da parte del CDA sulla sua legittimità.

Ti consigliamo anche