Come usare l'AI in modo sicuro
Quali sono i principali problemi dell'IA in materia di sicurezza? E come può proteggere la sua organizzazione da questi rischi?
> Le sue sfide > Come utilizzare l'AI in modo sicuro?
Usare l'AI in modo sicuro
Autore: Ralph Moonen, Direttore Tecnico di Bureau Veritas Cybersecurity.
Con l'enorme crescita delle capacità delle IA, e in particolare dei Large Language Models (LLM), i nostri clienti chiedono sempre più spesso una guida sulla sicurezza delle IA. È possibile utilizzare l'AI in modo sicuro? Quali sono i problemi principali delle IA in materia di sicurezza? E come può proteggere la sua organizzazione da questi rischi?
Credo che la maggior parte delle persone sia d'accordo sul fatto che il livello di utilità delle IA e in particolare dei LLM è arrivato al punto che non si può più ignorare. Nel mondo degli affari, possono essere un ottimo incentivo alla produzione per le attività legate al testo, come le traduzioni o i riassunti.
Per lo sviluppo di software, le AI possono anche fornire un'eccellente assistenza nella codifica e nel debug. Ad esempio, si potrebbe chiedere a ChatGPT o a Claude 3 di generare codice o di aiutare nel debug. È piacevole diventare creativi e se vuole vedere cosa è possibile fare, il thread su https://twitter.com/javilopen/status/1719363262179938401 è un esempio straordinario. Un altro modo di utilizzare le AI nella codifica è quello di assistere nel reverse engineering, nella decompilazione e in altri compiti. Questo può essere molto utile quando si cerca di capire la funzionalità di un certo codice.
Allucinazione e problemi di copyright
Naturalmente, le Intelligenze Artificiali tendono ad avere allucinazioni: controlli e convalidi tutti i risultati, altrimenti potrebbe cercare di utilizzare costrutti di codice o parametri della riga di comando che non hanno alcuna base nella realtà. Inoltre: l'output delle AI pubbliche e generative non ha copyright: può utilizzarlo come meglio crede (compresi immagini, testi, codice sorgente e software). Ma non può nemmeno rivendicare il proprio copyright, quindi venderlo o utilizzarlo nei prodotti potrebbe essere problematico. Questi sono i rischi generali che si corrono quando si utilizza l'AI.
I due principali rischi di sicurezza dell'IA
Esistono anche rischi di sicurezza più specifici associati all'uso dell'IA.
Rischio 1: Perdita di informazioni
Il primo rischio per la sicurezza nell'utilizzo delle IA è che tutto ciò che lei carica, copia o incolla in un'IA significa essenzialmente che sta facendo trapelare quelle informazioni. Indipendentemente dalle funzioni, dagli interruttori o dalle configurazioni del modello di IA, se carica informazioni sensibili a terzi, queste sono trapelate.
E deve essere consapevole che tutto ciò che entra in un'intelligenza artificiale può anche uscire. Potrebbe essere necessario un po' di convincimento per 'vuotare il sacco', ma è stato possibile estrarre modelli, dati di formazione e suggerimenti di altri utenti. Un ricercatore della Northwestern University ha testato più di 200 GPT personalizzati ed è riuscito ad estrarre informazioni dal 97% di essi, utilizzando solo semplici richieste. Quindi non sono solo gli operatori dell'IA a conoscere ciò che lei ha caricato: anche gli avversari possono estrarre dati di formazione dalle IA attraverso l'interazione con i prompt.
Ciò significa che chiedere a un'IA di riassumere un testo con segreti aziendali o informazioni personali sensibili non è una buona idea, anche quando l'apprendimento rinforzato non è abilitato. Somministrare all'AI solo informazioni non sensibili, come testi commerciali, contenuti di siti web o informazioni disponibili al pubblico. Naturalmente, una possibile soluzione a questo problema potrebbe essere quella di eseguire il proprio LLM nel proprio cloud privato o on-premise. Sebbene non sia impossibile, i costi possono essere proibitivi a breve termine.
Un altro modo per affrontare questo problema è quello di istruire il suo LLM personalizzato affinché avverta l'utente se rileva informazioni sensibili nei materiali caricati, e ignori tale input.
Rischio 2: Manipolazione dell'output dell'AI
Un secondo rischio per l'IA è la manipolazione, ad esempio la manipolazione di chatbot o di stimolatori di produttività come Microsoft Copilot. Le IA possono essere indotte a fornire output indesiderati, come ad esempio un linguaggio offensivo (trasformando il suo amichevole chatbot del servizio clienti in un pirata delle parolacce), oppure attacchi più gravi in cui possono essere presi di mira altri componenti collegati. Se un'AI è connessa a Internet, potrebbe persino essere manipolata per eseguire attacchi ad altri sistemi. Esistono diversi modi per manipolare le IA affinché eseguano attività indesiderate o addirittura dannose.
La maggior parte di queste tecniche utilizza l'iniezione di prompt: Input malevoli progettati per manipolare l'elaborazione o l'output di un sistema di intelligenza artificiale, inducendolo a eseguire azioni indesiderate o a rivelare informazioni sensibili. La maggior parte delle AI filtra tali suggerimenti prima di trasmetterli all'LLM vero e proprio. Tuttavia, si possono usare modi intelligenti di offuscare, mascherare, dividere o codificare le richieste per aggirare questi filtri. Un esempio recente è la ricerca che ha utilizzato l'arte ASCII per codificare le istruzioni e aggirare i filtri: https: //arxiv.org/abs/2402.11753.
Un altro modo per manipolare le IA è quello di utilizzare la 'virtualizzazione' o il 'gioco di ruolo', in cui l'aggressore istruisce l'IA ad assumere una personalità o un ruolo diverso e semplicemente a fingere di essere o fare qualcosa. Questo può anche aggirare molti filtri.
Siamo ancora agli inizi e non sappiamo ancora nel dettaglio quali potrebbero essere le conseguenze di questo tipo di manipolazione. Posso immaginare che potrebbe portare a nuove forme di estorsione. O forse un aggressore potrebbe manipolare uno strumento come CoPilot per generare codice vulnerabile che viene poi utilizzato nei prodotti. O forse l'AI potrebbe essere utilizzata per eseguire chiamate API o ricerche di database su altri servizi riservati.
Se vuole saperne di più su questi tipi di tecniche di attacco, OWASP ha una grande risorsa all'indirizzo https://owaspai.org/ e naturalmente esiste già una Top10 di OWASP per gli studenti di LLM: https: //llmtop10.com/.
Mettere in sicurezza i rischi
Quindi, come controllare i rischi quando si utilizzano le AI? In termini di controlli di sicurezza, dovrebbe considerare la formulazione di una Politica di Utilizzo Accettabile per le AI. Inoltre, potrebbe prendere in considerazione la compilazione di un registro AI che indichi dove vengono utilizzate le AI nella sua organizzazione e per quali compiti. Questo aiuterà a fornire una guida ai suoi collaboratori e a renderli consapevoli dei rischi. In alternativa, potrebbe essere necessario prendere in considerazione l'utilizzo di AI on-premise, e fortunatamente esistono LLM e altri modelli che lo consentono (anche se le risorse informatiche richieste per questo sono spesso non banali). E naturalmente: testare, testare, testare.
Testare la sicurezza dell'AI
Riceviamo molte domande dai clienti sulla sicurezza dell'IA. Sebbene sia relativamente nuovo per noi (come per tutti), stiamo sviluppando capacità su questo tema. Possiamo eseguire test di sicurezza dell'AI, in cui possiamo verificare la robustezza e la resilienza dell'LLM contro attacchi come l'estrazione del modello, la prompt injection, la manipolazione dell'AI, la contaminazione del modello, il riutilizzo o l'inferenza di appartenenza.
Infine, se ha domande sulla sicurezza dell'AI, contatti il suo Account Manager o invii un'e-mail a cybersecurity@bureauveritas.com.
Il mondo della cybersecurity sta cambiando. Si abboni alla nostra Cyber Vision Newsletter su LinkedIn per saperne di più sulla natura mutevole della cybersecurity e sul futuro della cyber resilience.
Informazioni sull'autore
Ralph Moonen, Direttore Tecnico di Bureau Veritas Cybersecurity
Ralph Moonen è Direttore Tecnico di Bureau Veritas Cybersecurity.
È uno specialista di sicurezza informatica con oltre 20 anni di esperienza di lavoro con clienti importanti (Fortune 500, governi, finanza, organizzazioni internazionali, ecc.) in contesti nazionali e internazionali.
Insegna al corso di formazione post-laurea in IT-auditing presso l'Università di Tilburg.
Perché scegliere Bureau Veritas Cybersecurity?
Bureau Veritas Cybersecurity è il vostro partner esperto in materia di sicurezza informatica. Aiutiamo le organizzazioni a identificare i rischi, rafforzare le difese e conformarsi agli standard e alle normative in materia di sicurezza informatica. I nostri servizi riguardano persone, processi e tecnologie, dalla formazione sulla consapevolezza e l'ingegneria sociale alla consulenza sulla sicurezza, la conformità e i test di penetrazione.
Operiamo in ambienti IT, OT e IoT, supportando sia i sistemi digitali che i prodotti connessi. Con oltre 300 professionisti della sicurezza informatica in tutto il mondo, uniamo una profonda competenza tecnica a una presenza globale. Bureau Veritas Cybersecurity fa parte del Bureau Veritas Group, leader mondiale nel settore dei test, delle ispezioni e delle certificazioni.