HomeAIL'intelligenza artificiale (AI) è un problema per la cybersecurity 

L’intelligenza artificiale (AI) è un problema per la cybersecurity 

Con cybersecurity si intende la protezione dagli attacchi digitali, ed anche in questo campo ormai l’argomento più caldo è l’intelligenza artificiale (AI). 

Lo rivela Trend Micro nel suo ultimo “predictions report” annuale per il 2024. 

Cybersecurity: il problema dell’intelligenza artificiale (AI)

I rischi, come al solito, sono molti e di diverse tipologie, ma uno dei focus su cui si concentra il report è la cosiddetta intelligenza artificiale generativa (GenAI). 

In particolare dal punto di vista della cybersecurity l’AI generativa aumenterà il livello e l’efficacia delle esche di ingegneria sociale prodotte dai truffatori per cercare di adescare potenziali vittime. 

Il report di Trend Micro prevede che nel 2024 la clonazione vocale sarà al centro delle truffe mirate, oltre ad essere già un potente strumento per il furto di identità e l’ingegneria sociale. 

A ciò si aggiungono altre tecniche che sfruttano l’intelligenza artificiale come lo spear phishing, l’harpoon whaling ed i rapimenti virtuali, che comunque sono solo la punta dell’iceberg del ruolo che l’AI generativa può giocare all’interno degli schemi criminali informatici.

Sebbene nel 2023 sia stato chiuso il WormGPT basato sul modello LLM (Large Language Model), prevedono che una maggiore quantità dei suoi spawn popolerà il dark web. Inoltre, i truffatori troveranno sempre nuovi modi per sfruttare l’intelligenza artificiale per le loro attività criminali informatiche. 

Oltretutto la legislazione per regolamentare l’utilizzo dell’intelligenza artificiale generativa deve ancora essere approvata, pertanto è fondamentale che i difensori attuino politiche di zero trust e stabiliscano una mentalità vigile per le rispettive imprese, onde evitare di cadere preda delle truffe basate su AI

I problemi legati alla blockchain

Oltre all’AI altri problemi potrebbero arrivare anche dalle blockchain private. 

Il report sostiene che la blockchain fungerà da nuovo terreno di caccia per i truffatori, in particolare le blockchain private a cui sempre più aziende si rivolgono per ridurre i costi. 

Infatti, le blockchain private generalmente devono affrontare meno stress-test, e non arrivano ad avere lo stesso livello di resilienza rispetto alle blockchain pubbliche decentralizzate e permissionless. 

Queste ultime infatti affrontano attacchi costanti, e nel corso del tempo affrontano e superano di fatto così tanti stress-test da risultare alla fine sicure. I criminali informatici invece probabilmente preferiranno quelle private meno sicure. 

In ambito crypto e Web3 Trend Micro individua anche minacce legate a organizzazioni autonome decentralizzate (DAO) governate da smart contract autoeseguibili ospitati su blockchain pubbliche. 

Alcuni problemi in tal senso sono già stati osservati ad esempio in chi utilizza gli smart contract come arma per aggiungere livelli di complessità ai crimini legati alle criptovalute nei confronti le piattaforme di finanza decentralizzata (DeFi).

Gli altri problemi

Il report aggiunge a queste minacce anche quelle legate all’apprendimento automatico (AI/ML) ed al cloud. 

L’apprendimento automatico (machine learning) in realtà ha sempre a che fare con l’AI, anche se non necessariamente con l’intelligenza artificiale generativa di cui sopra. 

Il cloud invece è l’archiviazione in remoto di dati su piattaforme online di terze parti. 

Il report afferma che, dato che l’adozione del cloud diventa sempre più critica per le aziende, queste devono arrivare a guardare ben al di là dei malware e delle vulnerabilità di routine dei loro sistemi informatici. 

Sostengono che nel 2024 gli ambienti cloud saranno terreno di gioco per worm creati su misura per sfruttare le tecnologie cloud, con le configurazioni errate che fungeranno da facile punto di ingresso per gli aggressori.

Inoltre, l’eventuale avvelenamento dei dati archiviati in cloud renderà vulnerabili anche i modelli di machine learning (ML), ed un modello ML compromesso può aprire le porte alla divulgazione di dati riservati, o alla scrittura di istruzioni dannose, o alla fornitura di contenuti distorti che potrebbero portare all’insoddisfazione degli utenti o a potenziali ripercussioni legali.

L’intelligenza artificiale (AI) e le truffe: cybersecurity in pericolo

In ambito crypto probabilmente il problema principale non saranno gli attacchi informatici puri, che ci sono sempre stati e sempre ci saranno e che però attaccano soprattutto i sistemi più vulnerabili. 

Il problema principale potrebbero essere le truffe, ed i truffatori potrebbero potenziare enormemente le loro tecniche di ingegneria sociale grazie alla GenAI. 

In realtà già nel 2023 sono circolati diversi video fake creati con l’intelligenza artificiale, e difficilmente riconoscibili in quanto tali, in cui si vedevano inconsapevoli VIP promuovere delle vere e proprie truffe. 

Riprodurre l’immagine e la voce di un personaggio famoso con l’AI per fargli dire ciò che si vuole non è ormai più tanto difficile, ed il VIP può intervenire per bloccare la diffusione di questi video solo quando ormai sono stati pubblicati e distribuiti online. 

Il punto chiave, da molti tuttavia ancora ampiamente sottovalutato, non è quello di riconoscere se un contenuto digitale sia autentico o meno, ma di verificare quale sia stata la fonte primaria ad averlo pubblicato e distribuito per primo online. 

Se la fonte primaria non si trova, o se risulta essere una fonte non attendibile, quel contenuto andrebbe ignorato e basta, senza dover nemmeno prendersi la briga di esaminarlo per capire se è falso oppure no. Solo se la fonte primaria viene trovata ed è affidabile vale la pena esaminarlo, e se la fonte è credibile può bastare questo per immaginare che possa essere veritiero. 

Questo però è un processo che quasi sempre le persone comuni non fanno, e che purtroppo al giorno d’oggi non fa anche buona parte dei professionisti dell’informazione il cui principale lavoro dovrebbe essere proprio questo (individuare e verificare le fonti). 

Marco Cavicchioli
Marco Cavicchioli
"Classe 1975, Marco è stato il primo a fare divulgazione su YouTube in Italia riguardo Bitcoin. Ha fondato ilBitcoin.news ed il gruppo Facebook "Bitcoin Italia (aperto e senza scam)".
RELATED ARTICLES

MOST POPULARS