banner
L’intelligenza artificiale come arma per criminali
L’intelligenza artificiale come arma per criminali
Sicurezza

L’intelligenza artificiale come arma per criminali

By Alfredo de Candia - 30 Nov 2020

Chevron down

È stato da poco pubblicato un report da parte dell’Europol in collaborazione con l’UNICRI (United Nations Interregional Crime and Justice Research Institute) e Trend Micro, dal titolo eloquente “Malicious Uses and Abuses of Artificial Intelligence” e che verte proprio sulle nuove tecnologie impiegate dai criminali come ad esempio l’intelligenza artificiale.

Il documento è abbastanza ampio, da 80 pagine, in cui si delinea lo scenario attuale ed i casi di utilizzo dell’IA per scopi criminali. Passa poi agli scenari futuri e come si evolveranno i futuri attacchi dei criminali con questa tecnologia. Infine troviamo anche delle raccomandazioni per arginare al minimo eventuali rischi e danni.

Ci sono diverse pagine dedicate al fenomeno che tutti conoscono del deep fake, ossia quella tecnica che consente di sostituire un volto a proprio piacimento in un video e farlo sembrare il più reale possibile.

Casi noti e ben documentati li troviamo per il momento soprattutto nel mondo del porno, in cui questa tecnica viene utilizzata per inserire i volti delle attrici di film famosi e non, all’interno di video dal contenuto sessuale, video che per ovvi motivi non troviamo sui principali portali erotici.

Non è un fenomeno limitato, visto che potrebbe essere implementato in qualsiasi settore, ad esempio in politica, sfruttando i volti di persone famose o importanti per metterle in cattiva luce. Pensiamo all’eventualità che il volto di un amministratore delegato di una società finisca in un video porno o in un contenuto discutibile, questo potrebbe comportare delle conseguenze non da poco sia per la persona coinvolta e sia d’immagine all’azienda amministrata.

Gli utilizzi criminali dell’intelligenza artificiale

Ovviamente il deep fake è solo la punta dell’iceberg, ma l’utilizzo ed impiego dell’intelligenza artificiale va ben oltre una semplice sostituzione di un volto su un video. Infatti si potrebbe addestrare un malware ad aggirare eventuali protezioni o adattarsi al sistema in cui viene iniettato, rendendolo autosufficiente ed impossibile da debellare in maniera efficace.

Non parliamo di attacchi a singoli utenti, ma bensì nei confronti di vere e proprie aziende, anche di alcuni concorrenti. Ma ciò potrebbe avvenire anche a strutture strategiche come quelle della pubblica amministrazione, dai comuni agli ospedali, ed è comprensibile come questo tipo di attacchi potrebbe diventare una vera e propria piaga.

Si potrebbe creare un malware che riesca a criptare i sistemi e richieda un riscatto in base a parametri che ritiene idonei sia di importi che di metodologia, visto che potrebbe essere talmente intelligente da chiedere un riscatto in BTC o XMR e controllare autonomamente se la transazione è stata effettuata oppure no, senza nemmeno l’intervento del suo creatore, rendendolo di fatto introvabile.

Come ricorda lo stesso Edvardas Šileris, Head of Europol’s Cybercrime Centre:

“La promessa dell’intelligenza artificiale è quella di una grande efficienza, automazione e autonomia. Nel momento in cui il grande pubblico è sempre più preoccupato sull’utilizzo di questa tecnologia, però, dobbiamo essere completamente trasparenti circa le possibili minacce, non focalizzarci solo sui benefici che ci può portare”.

Anche Vincenzo Ciancaglini, Senior Threat Researcher di Trend Micro, si è mostrato preoccupato ma ottimista sulla materia:

“I cybercriminali sono sempre stati early adopter di tecnologie e l’intelligenza artificiale è una di queste. Come sottolinea lo studio è già utilizzata per indovinare password, rompere CAPTCHA e clonare le voci, ma altri utilizzi sono in via di definizione, Siamo molto soddisfatti di fare squadra con Europol e UNICRI per aumentare il livello di consapevolezza su queste minacce, creando un futuro digitale più sicuro per tutti”.

Non dimentichiamo infine che così come i criminali stanno investendo risorse in questo settore, così anche le varie imprese e settori si devono adeguare a questo tipo di minaccia visto che se una stessa azienda riesce a sviluppare un prototipo di IA ma non crea opportune misure di sicurezza, allora la stessa potrebbe essere ingannata da un’altra IA che riuscirebbe a fingersi del codice sicuro e bypassare eventuali protezioni.

È chiaro che bisogna intervenire anche sul lato delle sicurezze avanzate e biometriche visto che i criminali potrebbero creare software per emulare le credenziali biometriche necessarie per accedere a particolari informazioni. Basterebbe risalire da una semplice impronta a costruire digitalmente la stessa per sbloccare un livello di sicurezza che prima si pensava sicuro. Ciò è particolarmente grave nel caso che l’impronta serva ad esempio ad accedere ad un deposito di materiale nucleare, o per sbloccare ed avviare la nostra auto elettrica.

 

Alfredo de Candia
Alfredo de Candia

Android developer da oltre 8 anni sul playstore di Google con una decina di app, Alfredo a 21 anni ha scalato il Monte Fuji seguendo il detto "Chi scala il monte Fuji una volta nella vita è un uomo saggio, chi lo scala due volte è un pazzo". Tra le sue app troviamo un dizionario di giapponese, un database di spam e virus, il più completo database sui compleanni di serie Anime e Manga e un database sulle shitcoin. Miner della domenica, Alfredo ha una forte passione per le crypto ed è un fan di EOS.

Utilizziamo i cookie per essere sicuri che tu possa avere la migliore esperienza sul nostro sito. Se continui ad utilizzare questo sito noi assumiamo che tu ne sia felice.