Approfondimenti

Cybersecurity e Intelligenza Artificiale generativa: tra rischi e opportunità

Qual è il rapporto tra cybersecurity e Intelligenza Artificiale?
Nell’ambito della cybersecurity, l’utilizzo di sistemi di Intelligenza Artificiale non è una novità. Ad esempio, l’IA viene utilizzata per scovare velocemente anomalie, e dunque potenziali minacce, all’interno di set di dati, oppure, memorizzando i comportamenti degli utenti sul web (modalità con cui vengono digitate le password, velocità dei movimenti e durata dei click), è in grado di determinare se chi sta visitando un sito è una persona oppure un robot. Ciò a cui abbiamo assistito negli ultimi mesi è stato però l’intensificarsi dell’uso dell’Intelligenza Artificiale generativa, in primis da parte dei cyber criminali.
Durante la recente RSA Conference – l’annuale conferenza mondiale sulla cybersecurity – Rob Joyce, il direttore della divisione Cybersecurity della National Security Agency (NSA, Agenzia per la Sicurezza Nazionale Statunitense), ha affermato che la NSA prevede che l’IA generativa verrà utilizzata per creare attacchi sempre più sofisticati, in particolare di phishing.
Tuttavia, gli esperti ritengono non vi siano solo rischi ma anche notevoli opportunità per difendersi dagli attacchi e ancor più per prevenirli.

Phishing

L’IA generativa, ed in particolare i chatbot come ChatGPT, offrono notevoli opportunità ai cybercriminali. Con un click è possibile ottenere e-mail ben scritte e ricche di dettagli, dunque altamente ingannevoli (una delle prime strategie per individuare le e-mail di phishing è proprio quella di prestare attenzione al testo perché spesso mal formattato o contenente svariati errori). Inoltre, la possibilità di tradurre i messaggi in moltissime lingue permette di aumentare quasi esponenzialmente il numero dei destinatari.
La Cloud Service Alliance – organizzazione mondiale che si dedica alla definizione degli standard, certificazioni e best practice per un ambiente cloud sicuro – ha recentemente classificato il phishing basato su ChatGPT come di rischio medio ma altamente probabile.

Non solo phishing

Oltre al phishing, la CSA individua altre modalità di attacco che prevedono l’utilizzo dell’Intelligenza Artificiale generativa per scopi malevoli. Tra queste sono sicuramente interessanti la facilità con cui gli strumenti di IA sono in grado di individuare vulnerabilità all’interno di un codice e ottenere quindi un accesso non autorizzato e la possibilità di identificare potenziali obiettivi, punti deboli e porte di accesso, attraverso la raccolta di informazioni su un sistema, una rete o un’organizzazione bersaglio prima di lanciare un attacco.
In forte crescita, ed associato sempre più di frequente al phishing, è il fenomeno dei deepfake. “Deepfake” è un neologismo nato dalla fusione dei termini “fake” e “Deep Learning”. I deepfake sono foto, video e audio creati grazie all’Intelligenza Artificiale che, partendo da contenuti reali, riescono a modificare o ricreare, in modo estremamente realistico, le caratteristiche e i movimenti di un volto o di un corpo e a imitarne fedelmente la voce.
Il deepfake è una grave forma di furto d’identità che può essere utilizzato per diverse attività illecite: dal revenge porn (diffusione online a scopo di ricatto di foto e video a contenuto sessuale falsi) allo spoofing (furto di informazioni che avviene attraverso la falsificazione della propria identità) al phishing e ransomware. Video o audio-messaggi deepfake creati da malintenzionati possono essere inviati a colleghi, amici o familiari per invitarli a cliccare su link o aprire allegati pericolosi, oppure per convincerli a fornire informazioni e dati sensibili.
L’Intelligenza Artificiale generativa può essere utilizzata anche per creare malware (software malevoli) sempre più pericolosi. I chatbot basati su IA sono spesso in grado di scrivere codice in modo molto preciso ed efficace. Alcune caratteristiche dei malware possono essere aggiornate in modo che gli antivirus non riescano a riconoscere e segnalare la nuova versione.

L’IA a supporto della cybersecurity

L’Intelligenza Artificiale ha un impatto notevole sulla cybersecurity, presenta infatti enormi potenzialità per essere parte attiva nel migliorare la sicurezza.
Alcuni tra i principali vantaggi sono:

  • analisi di Big Data: secondo Joyce l’IA può contribuire in modo positivo all’analisi di Big Data. Ad esempio, attraverso la scansione periodica o costante dei registri digitali e l’individuazione di potenziali vulnerabilità, può aiutare le organizzazioni nella definizione delle priorità relative ai problemi di sicurezza;
  • individuazione delle minacce: se da un lato l’IA viene utilizzata per rendere più aggressivi e sofisticati gli attacchi, come nel caso di phishing e malware, dall’altro anche l’individuazione di minacce diventa sempre più efficiente. In particolare, gli algoritmi di Machine Learning, consentendo ai sistemi di apprendere dai dati senza una programmazione esplicita, permettono di identificare comportamenti e pattern sospetti prevenendo eventuali attacchi. Gli algoritmi di Deep Learning, utilizzando Reti Neurali Artificiali per elaborare dati complessi e non strutturati sono, invece, molto efficaci nell’analisi del traffico di rete, nell’identificazione delle “firme” dei malware e nel rilevamento di comportamenti dannosi;
  • analisi comportamentali: monitorare il comportamento degli utenti permette di identificare avvenimenti anomali, come l’accesso a dati sensibili in modi inusuali o il tentativo di comunicare con server sconosciuti, che potrebbero segnalare un attacco;
  • risposta automatica in caso di attacco: analizzando velocemente il tipo di attacco e la relativa gravità è possibile mitigare i danni con misure di diversa intensità in base alla singola situazione.

Il fattore umano

Per quanto siano elevate le potenzialità dell’Intelligenza Artificiale nell’ambito della cybersecurity, è bene ricordare che le tecnologie non possono sostituire completamente l’intervento umano: è importante che ci sia collaborazione tra macchine e uomini e che gli interventi effettuati tramite IA siano sempre convalidati da professionisti.
Inoltre, le potenzialità dell’Intelligenza Artificiale non sollevano unicamente questioni in merito alla sicurezza informatica ma anche etiche: è fondamentale che ci sia consapevolezza delle potenzialità degli strumenti e che sia garantita, anche nella creazione di sistemi di protezione, trasparenza, rispetto della privacy ed equità alla base degli algoritmi che lavorano i dati. Solo in questo modo è possibile alimentare la fiducia verso le “macchine”.
Infine, nonostante il diffondersi di nuovi tipi di minacce, rimangono validi i consigli generali che dovrebbero guidare la nostra attività online, come l’uso di password complesse e il loro frequente aggiornamento, la presenza di sistemi operativi e antivirus sempre aggiornati, un regolare backup, l’uso dell’autenticazione a due fattori quando possibile e della crittografia per proteggere le informazioni riservate.

L’Intelligenza Artificiale sta cambiando le nostre abitudini e, purtroppo, anche quelle dei cyber criminali. Anche in questo caso, tra opportunità e rischi ciò che fa la differenza è il fattore umano.

Non perdere nessuna novità, leggi altri articoli Skilla.

Scritto da: Arianna Meroni e Camilla Zan il 6 Luglio 2023

Potrebbe interessarti anche

© Copyright 2024 Amicucci Formazione | P.IVA 01405830439 | Cap. Soc.: Euro 100.000,00 (i.v.) | C.C.I.A.A. (Macerata) | R.E.A. (149815) | Privacy policy | Cookie policy | Etica e compliance