"Sabotare" l'Intelligenza Artificiale: perché avviene?

Pubblicato il 29 Ottobre 2024
5 minuti di lettura

Con la diffusione sempre più ampia dell’intelligenza artificiale (IA) in settori critici come sanità, finanza e sicurezza, emergono nuove minacce legate al suo utilizzo improprio. Oltre ai benefici evidenti, l’IA può essere vulnerabile a una serie di attacchi che ne compromettono il funzionamento e l’affidabilità e non mancano veri e propri tentativi di “sabotare” l’intelligenza artificiale.

Tra i rischi principali ci sono il data poisoning, il jailbreaking e l’uso dei MALLA, servizi malevoli basati su modelli linguistici di grandi dimensioni (LLM). Questi fenomeni mettono a rischio la sicurezza dei sistemi IA e possono avere gravi ripercussioni nel mondo reale.

Perché il Data Poisoning è un rischio per l'Intelligenza Artificiale?

Il data poisoning (letteralmente, l’avvelenamento dei dati) è un attacco in cui un malintenzionato altera o inserisce dati falsi nel dataset utilizzato per addestrare un modello IA. Questo compromette l’accuratezza del modello, che inizia a prendere decisioni basate su dati corrotti.

Nel 2020, un attacco di data poisoning a Detroit (USA) ha colpito un sistema di riconoscimento facciale. Gli hacker hanno indotto il sistema a fare identificazioni errate, collegando una persona innocente a crimini che non aveva commesso. L’episodio ha sollevato preoccupazioni sulla sicurezza di queste tecnologie, specialmente quando utilizzate in ambiti sensibili come le indagini criminali o la sorveglianza pubblica.

Il data poisoning è particolarmente pericoloso in settori come la sanità o la finanza, dove un errore può provocare danni economici e sociali. Un attacco a un sistema sanitario potrebbe portare a diagnosi errate, con ovvie conseguenze sulla vita dei pazienti. In ambito finanziario, un sistema IA manipolato potrebbe far prendere decisioni di investimento sbagliate, con conseguenze gravi per investitori e aziende.

Le motivazioni dietro il sabotaggio dell'Intelligenza Artificiale

Le ragioni che spingono a sabotare l’IA sono varie. Alcuni vedono nell’intelligenza artificiale una minaccia per il lavoro umano, poiché l’automazione tende a sostituire mansioni ripetitive svolte dalle persone. Altri, come creativi e artisti, temono che l’IA possa generare opere senza il dovuto riconoscimento dell’ingegno dell’uomo.

Nel 2023, tre artiste visuali americane hanno intrapreso un’azione legale contro piattaforme AI, accusandole di aver utilizzato le loro opere senza consenso per addestrare modelli di intelligenza artificiale. Ciò ha scatenato una reazione negativa da parte della comunità artistica, che ha visto minacciati i propri diritti d’autore.

Simili preoccupazioni hanno portato a movimenti di sabotaggio e boicottaggio, con l’obiettivo di limitare o bloccare l’uso dell’IA in determinati contesti. Il settore creativo è solo uno dei tanti che vede l’IA come una minaccia diretta alle professioni e alla privacy.

Vulnerabilità e modalità di attacco nel Data Poisoning

Abbiamo visto come gli attacchi di data poisoning si verificano quando gli hacker iniettano dati falsi nei dataset di addestramento, inducendo il modello IA a fare errori significativi. Un esempio è la manipolazione dei video di sorveglianza: i sabotatori possono alterare i filmati in modo che i sistemi di sicurezza non rilevino movimenti reali, compromettendo l’efficacia del monitoraggio.

Esistono già sul mercato abiti anti-sorveglianza, realizzati con tessuti o design specifici che distorcono le immagini catturate dalle telecamere. Ad esempio, possono riflettere la luce o utilizzare pattern complessi che confondono gli algoritmi di riconoscimento facciale, rendendo difficile per i sistemi intelligenti identificare correttamente una persona. Questi capi creano intenzionalmente interferenze che inducono i modelli di machine learning a fare errori, interpretando in modo errato o confuso i volti o i corpi.

Un’altra vulnerabilità comune riguarda l’uso di dati pubblici per l’addestramento dei modelli IA. Poiché i dati pubblici sono facilmente accessibili, gli hacker possono manipolarli o modificarli. Ad esempio, un modello che utilizza dati da social media potrebbe essere indotto a generare informazioni errate o fuorvianti, compromettendo la validità delle sue risposte.

Jailbreaking: oltre i limiti delle restrizioni LLM

Il jailbreaking dei modelli di intelligenza artificiale è il processo, letteralmente di “evasione”, mediante il quale gli utenti bypassano i filtri di sicurezza impostati dai fornitori AI. Questo permette di ottenere risposte che i modelli, come ChatGPT, altrimenti non genererebbero, inclusi contenuti pericolosi o illegali.

Un esempio noto riguarda un utente che è riuscito a far generare a ChatGPT istruzioni su come costruire una bomba, simulando una situazione di gioco per superare i filtri di sicurezza. Questo dimostra che, sebbene le piattaforme di IA siano progettate per evitare contenuti illegali, possono essere vulnerabili a tali attacchi.

Il jailbreaking permette al modello di linguaggio non solo di generare contenuti dannosi, come malware o email di phishing, ma anche di aggirare le linee guida che normalmente limitano l’accesso a certe informazioni. Una volta bypassate queste restrizioni, l’IA può essere utilizzata per automatizzare processi illeciti su larga scala, aumentando la capacità di diffusione di virus o truffe online.

Malla: la proliferazione dei servizi malevoli basati su LLM

I MALLA, o Large Language Models for Malicious Services, sono modelli di IA avanzati, addestrati per generare contenuti dannosi. Sono in grado di imitare lo stile di scrittura umano per creare contenuti altamente persuasivi e difficilmente distinguibili da quelli originali.

Questi modelli vengono utilizzati dai cybercriminali per una vasta gamma di attività illecite, come la creazione di email di phishing estremamente realistiche (ad esempio, imitando lo stile di comunicazione di una banca), la generazione di notizie false e la creazione di malware personalizzato. La pericolosità dei MALLA risiede nella loro capacità di automatizzare e industrializzare il crimine informatico, rendendo gli attacchi più sofisticati e difficili da rilevare.

Un esempio concreto è un MALLA addestrato su milioni di email aziendali. Questo modello potrebbe essere usato per creare email dirette ai dipendenti di un’azienda, sfruttando informazioni pubbliche sulle persone e sulla loro attività. L’email potrebbe sembrare inviata dal CEO e richiedere l’accesso a informazioni sensibili, ingannando anche gli utenti più cauti.

Strategie di mitigazione e soluzioni di sicurezza

Per contrastare i rischi del data poisoning, del jailbreaking e dei MALLA, i fornitori di IA stanno sviluppando nuove misure di sicurezza. Ad esempio, OpenAI ha implementato un sistema di moderazione in tempo reale per impedire la generazione di contenuti dannosi, mentre altre aziende adottano il Reinforcement Learning (apprendimento per rinforzo) per migliorare i modelli sulla base di feedback umani.

Questo processo funziona come un ciclo: gli utenti valutano le risposte del modello, fornendo indicazioni su quali risultati sono corretti o utili. Sulla base di queste valutazioni, il modello viene adattato, apprendendo quali risposte sono preferibili. Ogni feedback positivo rafforza le decisioni future del modello, rendendolo più preciso e affidabile nel tempo.

Un’altra soluzione promettente è l’uso di modelli di rilevamento delle anomalie, che identificano dati sospetti nei dataset. Tuttavia, la prevenzione non può limitarsi a soluzioni tecniche: è necessario un approccio legale ed etico per regolamentare e proteggere l’uso dell’IA.

Il futuro della sicurezza nell'Intelligenza Artificiale

Il futuro della sicurezza nell’IA dipenderà dalla capacità di bilanciare innovazione e protezione. Sebbene l’IA offra enormi opportunità, è essenziale sviluppare strumenti e normative che impediscano l’abuso di queste tecnologie. Governi, aziende e ricercatori dovranno imparare a collaborare per assicurarsi che l’intelligenza artificiale venga utilizzata in modo sicuro e responsabile, prevenendo attacchi come il data poisoning o il jailbreaking o i MALLA.

Affidati oggi a un partner sicuro: chiama artea.com

In un contesto così complesso, realtà come artea.com sono fondamentali per aiutare le aziende a proteggersi da queste minacce. Dal 2018, offriamo soluzioni innovative in materia di sicurezza, gestione dei dati e integrazione di sistemi AI.

Se sei interessato a sapere di più su come proteggere la tua azienda dalle vulnerabilità dell’intelligenza artificiale, visita il nostro sito. Scopri le nostre soluzioni avanzate per la gestione dei dati, l’integrazione dei sistemi e la sicurezza IA. Siamo pronti ad aiutarti a costruire un futuro più sicuro e tecnologicamente avanzato per la tua impresa.

Condividi l'articolo
Twitter
Facebook
LinkedIn

Altre notizie dal mondo dell'AI