Nessun risultato. Prova con un altro termine.
Guide
Notizie
Software
Tutorial

Cybersecurity: gli avvertimenti per il 2019 del Mit Technology Review

Le più preoccupanti minacce informatiche per il 2019 secondo la Mit Technology Review.
Cybersecurity: gli avvertimenti per il 2019 del Mit Technology Review
Le più preoccupanti minacce informatiche per il 2019 secondo la Mit Technology Review.
Link copiato negli appunti

Abbiamo di recente parlato del team della cybersecurity, descrivendo la direttiva europea conosciuta come NIS. L'Unione Europea non è l'unico soggetto che si sta preoccupando delle nuove minacce informatiche, infatti anche diverse organizzazioni private stanno esaminando i dati a riguardo raccolti durante il 2018. La nota rivista Mit Technology Review ha pubblicato ad esempio diversi articoli contenenti alcune considerazione sulle aree dove probabilmente si concentreranno i maggiori rischi di sicurezza nel 2019.

Automobili guidate dalle AI

Il settore IoT è fortemente legato a quello delle intelligenze artificiali. In particolare l'industria delle self-driving car ha fatto passi da gigante e le aziende sono pronte per iniziare la commercializzazione su larga scala di questi modelli.

Tuttavia, cosi come qualsiasi dispositivo connesso alla Rete, anche queste automobili sono vulnerabili se non adeguatamente protette dai possibili attacchi informatici. Inoltre i sistemi di sensori a bordo di tali vetture non sono esenti da errori, come dimostrato da diversi incidenti avvenuti in questi anni.

Fake news ed influenze esterne nelle elezioni nazionali

Tutti ricordano bene lo scandalo Cambridge Analytica. Diverse società come Facebook che gestiscono i nostri dati personali hanno avuto in questi anni uno scarso riguardo per la loro tutela. La condivisione di questi dati con soggetti terzi ha portato con molta probabilità ad influenzare il risultato di decine di elezioni in vari stati, tra cui quasi sicuramente le presidenziali USA del 2016 e le votazioni sul referendum del Regno Unito in merito alla Brexit.

Tramite un sistema di bot automatizzati e degli algoritmi di machine learning è stato possibile realizzare vari sistemi di amplificazione di notizie "parzialmente vere" (misinformation) con l'obbiettivo di influenzare l'opinione pubblica su diverse tematiche.

Si tratta di un rischio molto serio evidenziato da decine di analisi e le contromisure applicate da Facebook e dalle altre società non bastano per contrastare questo fenomeno che sta diventando sempre più preoccupante.

AI nelle forze armate

Nel 2018 Google ha scelto di terminare la sua collaborazione con l'esercito degli Stati Uniti abbandonando il progetto Maven e pubblicando un suo personale codice etico in merito alle applicazioni delle intelligenze artificiali nei diversi settori industriali.

Big G ha quindi rinunciato pubblicamente a qualsiasi contratto che portasse le proprie AI nei prodotti destinati a scopi militari. Altre aziende non hanno invece manifestato difficoltà a lavorare col Pentagono, come ad esempio Microsoft e Amazon, ed è quindi plausibile che nel prossimo futuro vedremo delle AI al comando di droni e altri sistemi usati dai vari servizi di intelligence militari.

Questa nuova generazione di macchine belliche ci pone davanti ad una serie di dilemmi etici oltre che di sicurezza. Infatti se non adeguatamente protetti questi sistemi possono creare danni molto gravi oltre ovviamente a mettere a rischio la privacy dei cittadini.

Sorveglianza di massa

Chiunque abbia letto il romanzo 1989 di George Orwell si sarà accorto che i timori dell'autore britannico si stanno almeno in parte concretizzando, ovviamente non viviamo nella distopia immaginata dall'autore del libro, ma i mezzi di controllo e sorveglianza a disposizione della forze di sicurezza sono davvero avanzati, grazie alle tecnologie di machine learning è ormai possibile riconoscere un volto all'interno di un database composto da miliardi di persone.

Tutti i governi hanno realizzato sistemi simili più o meno invasivi, quello dell'agenzia federale statunitense NSA fu messo a nudo da Wikileaks e di recente sono emersi nuovi dettagli sui sistemi di sorveglianza applicati dal governo cinese nella zona dello Xinjiang.

Oltre ai sistemi di riconoscimento facciale è possibile monitorare le abitudini dell'utente tramite la sua cronologia Web, i suoi spostamenti con la rete cellulare e il GPS e i suoi consumi monitorando i sistemi di pagamento elettronico.

Senza un'adeguata sensibilizzazione delle persone, le tecnologie che sono ormai di uso quotidiano si stanno rivelando delle armi a doppio taglio che possono essere sfruttate da governi o criminali per ottenere il controllo sulle persone.

Deepfake video

In questi anni si stanno perfezionato i sistemi che permettono di eseguire fotoritocchi e videomontaggi con l'obbiettivo di influenzare l'opinione pubblica. Si tratta del fenomeno dei Deepfake video.

Inizialmente tali tecnologie erano impiegate per creare parodie pornografiche, ma ben presto queste complesse AI hanno mostrato il loro potenziale in diversi settori come ad esempio quello delle misinformation news.

Una delle aziende più all'avanguardia in questo settore è Nvidia, che di recente ha mostrato una nuova tecnologia chiamata GANs (Generative adversarial networks), si tratta di un sistema capace di realizzare immagini fotorealistiche di persone inventate partendo da un database di immagini di soggetti veri.

La pericolosità dei Deepfake video starebbe per aumentare esponenzialmente e senza una buona campagna informativa le persone saranno portate a credere a notizie inventate di sana pianta ma del tutto credibili.

Via Mit Technology Review

Ti consigliamo anche