L’intelligenza artificiale è ormai largamente utilizzata, in svariati ambiti, purtroppo anche per scopi illegali o che minacciano la sicurezza degli utenti. Non è quindi uno shock apprendere che i criminali informatici organizzati stanno iniziando a utilizzare strumenti e servizi di AI generativa per i loro attacchi. Recentemente, Microsoft e OpenAI hanno condiviso nuove informazioni relative al modo in cui gli hacker sfruttino modelli linguistici di grandi dimensioni per i loro scopi. In un post sul proprio blog, l’azienda di Redmond ha mostrato i risultati di una nuova ricerca sul tema sicurezza e intelligenza artificiale. Questa Include informazioni su alcuni gruppi specifici di hacker. Questi hanno sede in paesi come Russia, Corea del Nord, Iran e Cina. Uno di questi si chiama Forest Blizzard ed è collegato all'unità GRU russa 26165. Microsoft afferma che il gruppo è stato attivo nel prendere di mira organizzazioni legate alla guerra in Ucraina.
Microsoft: AI usata per manipolazione di file o per cercare errori di codifica
Microsoft afferma che Forest Blizzard ha utilizzato gli LLM “per comprendere i protocolli di comunicazione satellitare, le tecnologie di imaging radar e parametri tecnici specifici". Lo studio aggiunge che questo gruppo ha cercato di automatizzare attività come la selezione e la manipolazione dei file anche con i LLM. Un altro gruppo di cybercriminali che avrebbe utilizzato l’AI per le proprie attività è Salmon Typhoon. Il gruppo con sede in Cina ha una storia di attacchi al governo e agli appaltatori della difesa statunitense. Secondo Microsoft, Salmon Typhoon ha utilizzato i LLM in vari modi. Questi includono la ricerca di errori di codifica e la traduzione di documenti tecnici informatici.
Microsoft afferma che continuerà a collaborare con OpenAI per ricercare gruppi hacker che sfruttano intelligenza artificiale per attaccare gli utenti. Come riporta l’azienda di Redmond: “nell’ambito di questo impegno, abbiamo adottato misure per interrompere risorse e account associati agli autori delle minacce, migliorare la protezione della tecnologia OpenAI LLM e degli utenti da attacchi o abusi e modellare i guardrail e i meccanismi di sicurezza attorno ai nostri modelli.” Microsoft ha infine aggiunto che utilizzerà il proprio servizio Copilot for Security per individuare queste minacce informatiche basate su LLM.
Se vuoi aggiornamenti su AI inserisci la tua email nel box qui sotto: