I progressi nell'apprendimento automatico, nell'elaborazione del linguaggio naturale e nella capacità di calcolo hanno aperto la strada all'era dell'AI. Ora, grazie alla rapida evoluzione di questa tecnologia, sta cambiando il nostro modo di lavorare, con il potenziale di rivoluzionare interi settori.
Un report di Gartner Research, Tech CEO Insight: Adoption Rates for AI and GenAI Across Verticals, condivide i punti salienti del sondaggio 2024 Gartner CIO and Tech Executive Survey e afferma: "Il 73% degli intervistati nello stesso sondaggio ha dichiarato che aumenterà i finanziamenti per l'AI nel 2024. (Il 26% ha dichiarato che i finanziamenti rimarranno ai livelli del 2023; solo l'1% diminuirà la spesa) "*
Questi sono i livelli di finanziamento e i tassi di adozione più alti che abbiamo visto finora nel settore.
Allo stesso tempo, la GenAI ha registrato un'impennata di popolarità grazie all'avvento di modelli linguistici di grandi dimensioni (LLM) di facile utilizzo per i consumatori, come ChatGPT, che si sono aggiunti all'ondata di innovazione dell'intelligenza artificiale. Lo storico Global GenAI Report di NTT DATA rivela che il 99% delle organizzazioni sta pianificando ulteriori investimenti in GenAI
Comprendere i rischi dell'Intelligenza Artificiale
Man mano che sempre più organizzazioni adottano soluzioni AI e GenAI, sta diventando chiaro che stiamo solo grattando la superficie dell'immenso valore che queste tecnologie possono offrire.
Tuttavia, la rapida adozione della tecnologia ha portato con sé un aumento significativo delle vulnerabilità di sicurezza e delle minacce abilitate dall'AI.
I criminali informatici sfruttano i controlli di sicurezza deboli per manipolare i modelli di AI e compromettere l'integrità dei dati e l'affidabilità delle soluzioni da questa abilitate.
Secondo un comunicato stampa di Gartner, "gli attacchi malevoli potenziati dall'intelligenza artificiale (AI) sono il principale rischio emergente per le aziende nel terzo trimestre del 2024, secondo Gartner, Inc. Si tratta del terzo trimestre consecutivo in cui questi attacchi sono al primo posto tra i rischi emergenti "**.
Comprendere questi rischi per la sicurezza è essenziale per sbloccare il vero potenziale dell'AI. Abbiamo bisogno di politiche e controlli adeguati per affrontare in modo proattivo i rischi associati ai modelli di AI, proteggere gli enormi volumi di dati generati e mettere in sicurezza l'infrastruttura di supporto.
Sii consapevole di come si manifestano i rischi dell'AI
I criminali informatici sono sempre alla ricerca di vulnerabilità che permettano loro di compromettere i dati e gli algoritmi dei sistemi di intelligenza artificiale. I rischi possono manifestarsi come avvelenamento dei dati (introduzione di dati distorti o corrotti) o attacchi come prompt injection o jailbreak che manipolano gli algoritmi.
I recenti incidenti di jailbreak che hanno coinvolto la startup cinese DeepSeek e l'assistente di codifica GitHub Copilot, tra gli altri, ci ricordano quanto velocemente le cose possano andare storte.
I sistemi di intelligenza artificiale e le applicazioni basate sull'intelligenza artificiale sono vulnerabili ai cyberattacchi come qualsiasi altra tecnologia. Si tratta di un problema sempre più grave man mano che questi sistemi diventano sempre più avanzati e autonomi. Le violazioni potrebbero avere conseguenze catastrofiche sia per le organizzazioni che per la società in generale.
Dobbiamo anche fare attenzione all'utilizzo di agenti AI non autorizzati o non verificati, come gli assistenti AI che prendono appunti e possono partecipare alle telefonate aziendali o le applicazioni che migliorano le foto ad alta risoluzione. Questi agenti aggiungono valore rendendo più efficienti i processi aziendali come assunzioni e acquisti, ma solo se rispettano i controlli di sicurezza e i quadri di governance dei dati. È quindi fondamentale disporre di una policy organizzativa ben definita in merito all'utilizzo dell'AI, alla governance dei dati e alla privacy.
Gestisci i rischi dell'AI in modo proattivo in tutta la tua organizzazione
La sicurezza dei sistemi di intelligenza artificiale nella tua azienda richiede un approccio proattivo che comprenda misure sia tecniche che organizzative.
Ecco come costruire una base solida:
- Hai un chiaro business case su come l'AI sta creando valore nella tua organizzazione e comprendi gli elementi essenziali di cui avrai bisogno per implementarla, sia per le applicazioni più ampie dell'AI che per la GenAI dipendente dal contesto.
- Creare una struttura solida per la governance della sicurezza dell'AI. Effettuare valutazioni continue dei rischi per identificare le vulnerabilità che possono colpire le applicazioni di AI e i LLM, o i componenti dell'infrastruttura tecnologica sottostante.
- Consideriamo quadri e strumenti come l'AI Risk Management Framework dell'US National Institute of Standards and Technology (NIST) e strumenti specifici di modellazione delle minacce come il MITRE Adversarial Threat Landscape for Artificial-Intelligence Systems ( MITRE ATLAS ), una base di conoscenza accessibile a livello globale delle tattiche e delle tecniche avversarie contro i sistemi abilitati all'intelligenza artificiale.
- Sii consapevole delle normative che si applicano alla tua organizzazione e alla tua catena del valore e tieniti al passo con i (rapidi) cambiamenti delle normative locali, regionali e globali. Affina il tuo approccio alla governance, al rischio e alla conformità lavorando con esperti che conoscono a fondo questi quadri normativi.
7 aspetti cruciali della sicurezza dell'intelligenza artificiale
La responsabilità della sicurezza dovrebbe essere una responsabilità collettiva dei leader aziendali, degli sviluppatori e dei regolatori industriali e settoriali. Vediamo alcune delle aree più importanti che meritano la tua attenzione a questo proposito.
1. La sicurezza per il design
Sicurezza, privacy e fiducia sono elementi fondamentali quando si progettano sistemi di intelligenza artificiale. Quando stai acquisendo i dati da inserire nella progettazione, poni ai tuoi responsabili aziendali domande chiave come il motivo per cui hanno bisogno di dati specifici, quando e come li useranno e se ci sono alternative che possono essere utilizzate.
2. Privacy e protezione dei dati
I dati utilizzati dai tuoi sistemi di intelligenza artificiale devono essere accurati, sicuri e a prova di manomissione. I controlli di sicurezza devono riguardare sia gli stessi modelli di IA che i dati utilizzati per addestrarli, con misure quali il controllo degli accessi, la crittografia e l'anonimizzazione dei dati per salvaguardare le informazioni sensibili.
3. Convalida e test del modello
Investi in processi di test approfonditi prima dell'implementazione per correggere eventuali vulnerabilità in una fase iniziale e continua a testare regolarmente. Per rendere i tuoi modelli di intelligenza artificiale più resistenti agli attacchi, utilizza tecniche come adversarial training - l'addestramento di un modello su dati normali e benigni e su dati modificati intenzionalmente per imitare le tattiche degli aggressori.
4. Monitoraggio continuo e rilevamento delle minacce
L'implementazione di strumenti e tecniche di monitoraggio avanzate ti permette di identificare rapidamente attività sospette o anomalie nei tuoi sistemi di intelligenza artificiale. Rilevando e rispondendo alle minacce in tempo reale, puoi prevenire potenziali violazioni prima che causino danni gravi.
5. Pianificazione della risposta agli incidenti
Sviluppare e mantenere un piano di risposta agli incidenti specifico per incidenti legati all'AI. Il piano dovrebbe includere procedure per individuare, contenere e recuperare gli attacchi specifici all'AI.
6. Collaborazione e formazione
Incoraggia i team di sicurezza e gli sviluppatori di AI a integrare la sicurezza nel ciclo di vita dello sviluppo dell'intelligenza artificiale. Educa i tuoi dipendenti sui rischi associati all'AI esull'importanza di aderire alle best practice di cybersecurity. Quando promuovi una cultura di consapevolezza della sicurezza, i tuoi dipendenti diventano la tua prima linea di difesa.
7. Gestione del rischio e conformità
La governance dell'AI è un campo in evoluzione e alcuni governi e organismi di regolamentazione hanno fatto più progressi di altri. A Singapore, ad esempio, la governance relativa all'uso sicuro dell'AI è già in vigore da tempo.
Studia e segui attentamente i framework come quello del NIST citato in precedenza, lo standard ISO/IEC 42001:2023 che fornisce linee guida per la gestione dei sistemi di IA nelle organizzazioni, e la Top 10 for Large Language Model Applications dell'Open Web Application Security Project . Quando confronti i framework, tieni conto dei casi d'uso specifici dell'AI della tua organizzazione e dei tuoi obiettivi aziendali, oltre che delle normative del settore. [No CTA Link is set]
Parliamo del tuo viaggio nell'AI
Con l'adozione dell'IA nella tua azienda, devi adattare la tua strategia di sicurezza per affrontare i rischi unici associati a questa tecnologia. I controlli di sicurezza tradizionali non sono più sufficienti per proteggere i sistemi di intelligenza artificiale da attacchi sofisticati.
* Gartner Research, Tech CEO Insight: Tassi di adozione dell'IA e della GenAI attraverso i settori verticali, Whit Andrews, 11 marzo 2024
** Gartner, Gartner Survey Shows AI Enhanced Malicious Attacks as Top Emerging Risk for Enterprises for Third Consecutive Quarter, 1 Novembre 2024