Il recente lancio di GPT-4.1 da parte di OpenAI ha attirato attenzione non solo per i miglioramenti tecnologici, ma anche per le controversie legate alla mancanza di un report di sicurezza. Questo modello avanzato, che promette maggiore efficienza e tempi di risposta ridotti, è stato presentato senza la consueta system card, un documento che garantisce trasparenza sui test di sicurezza effettuati.
Secondo l’azienda, guidata da Sam Altman, la decisione di non pubblicare la system card è giustificata dal fatto che GPT-4.1 non rappresenta un modello di frontiera. Tuttavia, questa scelta ha generato critiche da parte di esperti e ricercatori, che vedono tali documenti come strumenti essenziali per assicurare la trasparenza dell'AI. In passato, OpenAI è stata accusata di fornire benchmark non corrispondenti alle versioni effettivamente implementate, un aspetto che alimenta ulteriori dubbi sull’affidabilità delle informazioni condivise.
Steven Adler, ex ricercatore di sicurezza di OpenAI, ha sottolineato che, sebbene non obbligatori per legge, i report di sicurezza rappresentano un impegno fondamentale verso la trasparenza. Ironia della sorte, OpenAI stessa aveva enfatizzato l’importanza di questi documenti durante il summit sulla sicurezza dell’AI nel Regno Unito nel 2023, definendoli elementi chiave per la responsabilità aziendale.
Una situazione complessa
La situazione è aggravata da un trend più ampio nel settore, dove diverse aziende hanno ridotto gli standard di reporting per affrontare la pressione competitiva. Il Financial Times ha rivelato che OpenAI ha diminuito le risorse destinate ai test di sicurezza, alimentando preoccupazioni sull’impatto di tali scelte sulla sicurezza dei modelli. Inoltre, un gruppo di 12 ex dipendenti ha presentato un amicus brief in una causa contro l’azienda, denunciando che il modello di business for-profit potrebbe compromettere il lavoro sulla sicurezza.
Thomas Woodside, del Secure AI Project, ha dichiarato che le capacità avanzate di GPT-4.1 aumentano la necessità di un report di sicurezza. Modelli più potenti, infatti, comportano potenzialmente rischi maggiori, rendendo ancora più urgente la trasparenza sui test effettuati. Nonostante ciò, OpenAI si è opposta a requisiti legali per la pubblicazione di questi report, come dimostrato dal suo rifiuto al disegno di legge SB 1047 in California.
Il dibattito si inserisce in un contesto di crescente richiesta di regolamentazioni più rigide per l’uso responsabile dell’intelligenza artificiale. Sebbene GPT-4.1 rappresenti un progresso tecnologico significativo, la mancanza di trasparenza solleva interrogativi sulla responsabilità di OpenAI e sull’impegno dell’azienda verso standard etici e di sicurezza. Questa vicenda potrebbe segnare un punto di svolta nella definizione di norme più stringenti per il settore.