ISSN 2784-9635

Intelligenza artificiale, furto di dati e minacce hacker

Elisa Gorra - 23/02/2024

È ormai noto come l’intelligenza artificiale sia in grado di rivoluzionare interi settori professionali, ma occorre chiedersi cosa potrebbe accadere se finisse nelle mani degli hacker.

Secondo il parere degli esperti di sicurezza di Trend Micro, un’azienda leader nel settore della cybersecurity, nel 2024, gli hacker saranno in grado di sfruttare facilmente l’AI generativa per sferrare sempre più attacchi e minacce.

Nell’ultimo report in tema di cybersecurity emerge che gli hacker si focalizzeranno, in modo particolare, sulla creazione di strumenti che consentiranno all’IA generativa di creare falsi messaggi di posta elettronica; in questo modo, potranno essere più facilmente ingannati anche gli utenti più esperti, i quali saranno indotti a cliccare su link o file allegati che sottraggono dati sensibili in modo illecito.

I cybercriminali potrebbero essere in grado di corrompere anche i database da cui l’IA trae importanti informazioni. Sarà proprio la vastissima disponibilità di IA generativa ad essere la causa di cambiamento negli attacchi e nelle strategie di phishing. Le previsioni per il 2024 affermano come l’AI permetterà ai truffatori di fa evolvere le trappole di social engineering in attacchi mirati. Le porte di accesso all’utilizzo dell’intelligenza artificiale cominceranno a schiudersi, attraendo nuovi malintenzionati che troveranno facilmente la strada per sfruttare l’IA a proprio vantaggio, individuando le vulnerabilità informatiche e aggirando tutte le difese.

Negli ultimi mesi, ChatGPT ha mostrato le potenzialità di un chatbot basato su intelligenza artificiale e machine learning. Tutti i sistemi capaci di generare testo basati su IA sono strumenti nocivi se utilizzati per realizzare un attacco hacker. Si pensi al phishing: un reato online che inganna l’utente allo scopo di ottenere informazioni sensibili. Applicare l’intelligenza artificiale al phishing permetterebbe di personalizzare gli attacchi in modo molto semplice, così da renderli quasi impossibili da distinguere rispetto ad una comunicazione reale.

Un’altra applicazione dell’intelligenza artificiale sono i sistemi di deep learning, capaci di replicare la voce, il volto e le movenze di una persona reale. L’IA, in questo modo, permette di clonare i tratti di chiunque voglia. L’intelligenza artificiale potrebbe addirittura rende protagonista di un attacco hacker.

A fronte di questa situazione, l’intero settore della cybersecurity deve collaborare attivamente con i governi e le istituzioni al fine di mitigare i rischi relativi all’IA. In tal senso, si dovrebbe adottare un approccio olistico e proattivo.

Sarà utile effettuare regolari controlli sui sistemi di IA utilizzati, garantire la protezione e la sicurezza dei dati, ottimizzare il sotfware, formare il personale il modo adeguato sulla gestione del rischio legato all’intelligenza artificiale, prepararsi ed avere un piano di risposta agli incidenti.

Ebbene, l’intelligenza artificiale può diventare un prezioso alleato della cybersecurity, agevolando le analisi e la mitigazione delle minacce informatiche. Diventerà fondamentale per prevedere le mosse degli avversari, offrendo la possibilità di neutralizzare le minacce prima che diventino reali.  In tal senso, nazioni e governi dovranno sviluppare strategie cyber che integrino l’IA. In questo scenario, l’aumento della cooperazione internazionale diventerà fondamentale per combattere le minacce cyber in un contesto globale, al fine di garantire la sicurezza mondiale.

 

Per ulteriori informazioni: http://ranierirazzante.it