Non molto tempo fa, il CEO di Meta, Mark Zuckerberg, si è impegnato a rendere disponibile pubblicamente l'intelligenza artificiale generale (AGI). Quest’ultima è definita approssimativamente come un'AI in grado di svolgere qualsiasi compito che un essere umano possa svolgere. Ma in un nuovo documento di policy, Meta suggerisce che ci sono alcuni scenari in cui potrebbe non rilasciare un sistema di AI altamente capace sviluppato internamente. Il documento, che Meta chiama Frontier AI Framework, identifica due tipi di sistemi di AI che l'azienda considera troppo rischiosi da rilasciare. SI tratta dei sistemi "ad alto rischio" e "a rischio critico".
Come li definisce Meta, sia i primi sia i secondi sono in grado di aiutare negli attacchi alla sicurezza informatica, chimici e biologici. La differenza è che i sistemi "a rischio critico" potrebbero causare un "esito catastrofico [che] non può essere mitigato in [un] contesto di distribuzione proposto". I sistemi ad alto rischio potrebbero invece rendere un attacco più facile da eseguire ma non in modo affidabile come un sistema a rischio critico.
L'elenco dei possibili problemi inclusi nel documento di Meta è tutt'altro che esaustivo. Tuttavia, l’azienda include quelle che ritiene essere "le più urgenti" e plausibili, che potrebbero verificarsi come conseguenza diretta del rilascio di un potente sistema. Meta classifica il rischio di sistema non basandosi su un singolo test empirico, ma basandosi sul contributo di ricercatori interni ed esterni che sono soggetti a revisione da parte di "decision maker di alto livello". L’azienda afferma di non credere che la scienza della valutazione sia "sufficientemente solida da fornire metriche quantitative definitive" per decidere la rischiosità di un sistema.
Meta: in caso di criticità, l’azienda limiterà l’accesso al sistema
Se Meta determina che un sistema è ad alto rischio, l’azienda limiterà l'accesso al sistema internamente. Inoltre, non lo rilascerà finché non implementerà delle mitigazioni per "ridurre il rischio a livelli moderati". Se, d'altro canto, un sistema è considerato a rischio critico, la società implementerà delle protezioni di sicurezza non specificate. Lo scopo è quello di impedire che il sistema venga esfiltrato. Inoltre, Meta interromperà lo sviluppo finché il sistema non potrà essere reso meno pericoloso. Il Frontier AI Framework sembra essere una risposta alle critiche all'approccio "aperto" dell'azienda allo sviluppo del sistema. Meta ha adottato una strategia per rendere la sua tecnologia di AI apertamente disponibile, anche se non open-source.
Per Meta, l'approccio di rilascio open ha avuto aspetti positivi e negativi. La famiglia di modelli AI Llama ha accumulato centinaia di milioni di download. Tuttavia, Llama è stato anche utilizzato da almeno un avversario statunitense per sviluppare un chatbot di difesa. Pubblicando il suo Frontier AI Framework, Meta potrebbe anche mirare a contrapporre la sua strategia di intelligenza artificiale aperta a quella della società cinese di intelligenza artificiale DeepSeek. Anche DeepSeek rende i suoi sistemi disponibili apertamente. Ma l'intelligenza artificiale dell'azienda ha poche garanzie e può essere facilmente indirizzata a generare output dannosi. Come scrive l’azienda nel suo documento: "Non crediamo che considerando sia i vantaggi che i rischi nel prendere decisioni su come sviluppare e distribuire un'intelligenza artificiale avanzata. È possibile fornire quella tecnologia alla società in un modo che preservi i vantaggi di quella tecnologia per la società mantenendo anche un livello di rischio appropriato".