I quattro cavalieri dell'intelligenza artificiale generativa (e come evitare un incubo)
Pubblicato: 2023-10-12Essere Chief Information Security Officer comporta molte responsabilità. Ogni giorno sono responsabile della protezione dei nostri utenti, del prodotto che realizziamo, dell'azienda e dei dati che sono al centro del nostro lavoro, il tutto costruendo al tempo stesso un sistema di livello mondiale che opera 24 ore su 24 per scovare le minacce e annientarli prima che possano causare danni. Adoro il fatto di poter fare questo lavoro. Esiste un gruppo fondamentale di minacce e rischi intrinseci che assumiamo in questo ruolo, ma è questo che rende le cose entusiasmanti: superare in astuzia i malintenzionati e trovare modi migliori per proteggere i nostri utenti. È spaventoso? Può essere, ma non dovrebbe mai essere un incubo.
Qualcuno di recente mi ha chiesto cosa mi tiene sveglio la notte (ovvero di cosa sono fatti i miei incubi) e mi ha fatto pensare a quali siano le minacce reali e percepite nella nostra attuale era digitale. Come risultato di un’attenta pianificazione e del duro lavoro del mio team di Grammarly, l’elenco delle cose che mi tengono sveglio è molto, molto breve. Ma la svolta, e lo sappiamo tutti, è l’intelligenza artificiale generativa.
L’intelligenza artificiale generativa e la paura dell’ignoto
L’intelligenza artificiale generativa sembra essere ovunque perché in realtà è ovunque. Meno di un anno fa, GPT ha raggiunto un milione di utenti in una frazione (1/15 per l’esattezza) del tempo rispetto al suo confronto più vicino, Instagram.
Ottimo, quindi è ovunque. E adesso? I leader IT di tutto il mondo si trovano ora di fronte a una serie completamente nuova di possibilità davvero spaventose da cui dobbiamo prepararci a difenderci. Questo vettore di minaccia è diverso.
Potresti non conoscere i dettagli essenziali su come diventare conformi a SOC2, ma sono pronto a scommettere che sei consapevole dei pericoli dell'intelligenza artificiale generativa e delle minacce poste dall'addestramento sui tuoi dati. Giusto? Giusto. L’intelligenza artificiale generativa non è solo nei prodotti che utilizziamo, ma è anche nel nostro ciclo di notizie ed è una delle priorità per chiunque sia interessato da remoto a un mondo che utilizza la tecnologia. Ma non dovrebbe essere spaventoso, almeno non nel modo in cui ti viene detto di avere paura.
Non così spaventoso: le minacce sovrastimate dell’intelligenza artificiale generativa
Stiamo assistendo a crescenti preoccupazioni riguardo alle minacce dell’intelligenza artificiale generativa, alcune delle quali sono credibili, ma molte credo siano oggi sovrastimate. Se devo chiamare le vere minacce i Quattro Cavalieri, chiameremo questi tre i Tre Tirapiedi dell'intelligenza artificiale generativa: fuga di dati, esposizione della proprietà intellettuale e formazione non autorizzata. Prima di non essere d’accordo, permettetemi di spiegare perché penso che questi tre punti vi distraggano dalle reali sfide che stiamo affrontando oggi:
- Perdita di dati: senza consentire a terzi di addestrarsi sui tuoi dati riservati, gli attacchi di fuga di dati rimangono teorici contro i ben noti modelli di linguaggio di grandi dimensioni (LLM) disponibili, senza dimostrazione su larga scala di attacchi pratici
- Esposizione alla proprietà intellettuale: escludendo qualsiasi formazione, il rischio di esposizione alla proprietà intellettuale rimane simile alle applicazioni SaaS non generative basate sull'intelligenza artificiale, come i fogli di calcolo online
- Formazione non autorizzata: consentire agli utenti di disattivare l'utilizzo dei propri dati per l'addestramento dell'intelligenza artificiale generativa sta diventando uno standard del settore, mitigando le preoccupazioni relative alla formazione dei dati sensibili che erano prevalenti solo pochi mesi fa
I quattro cavalieri dell'intelligenza artificiale generativa
Su cosa dovresti concentrarti veramente per assicurarti che la tua organizzazione sia preparata a gestire la nuova realtà in cui viviamo? Ti avverto: è qui che diventadavverospaventoso.
Grammarly è la principale società di assistenza alla scrittura basata sull'intelligenza artificiale da oltre 14 anni e il mio lavoro in questi ultimi anni è stato quello di aiutare la nostra azienda a diventare a prova di fantasma riguardo a minacce credibili. Chiamo queste minacce da incubo i quattro cavalieri dell’intelligenza artificiale generativa: vulnerabilità della sicurezza, rischio di terze parti, privacy e copyright e qualità dell’output.
Vulnerabilità della sicurezza
Con così tante persone che saltano sul carro dell’intelligenza artificiale generativa e inventano modelli diversi, ci troviamo ad affrontare nuove vulnerabilità di sicurezza, da quelle prevedibili a quelle spaventosamente facili da non notare.
Gli LLM sono soggetti a una serie emergente di vulnerabilità di sicurezza (consulta la Top 10 di OWASP LLM per un elenco completo) e dobbiamo garantire che ogni perimetro rimanga fortificato. Un fornitore LLM affidabile deve spiegare quali sforzi di garanzia di prima e terza parte, come il red-teaming dell’intelligenza artificiale e gli audit di terze parti, sono stati inseriti nelle loro offerte per mitigare le vulnerabilità della sicurezza LLM. Fai la tua dovuta diligenza. Un perimetro sicuro non significa nulla se lasci le serrature aperte.
Privacy e diritto d'autore
Con l’evoluzione del contesto legale e della privacy relativo all’intelligenza artificiale generativa, quanto sei al sicuro da azioni normative contro il tuo fornitore o te stesso? Abbiamo assistito ad alcune reazioni piuttosto forti nell’UE, basate solo sulla provenienza dei set di dati di addestramento. Non ritrovarti svegliato da un incubo per te e il tuo team legale.
Gli strumenti di intelligenza artificiale generativa si basano su modelli presenti nei dati, ma cosa succede quando quel modello viene rilevato e trasferito a te dal lavoro di qualcun altro? Sei tutelato, come utente, se qualcuno ti accusa di plagio? Senza i giusti guardrail, ciò potrebbe passare da fastidiosi mal di testa a realtà terrificante. Proteggi te stesso e i tuoi clienti fin dall'inizio esaminando gli impegni sul copyright del fornitore.
Rischi dei fornitori terzi di LLM
Molti dei LLM di terze parti sono nuovi e avranno un certo accesso a dati riservati. E, sebbene tutti si stiano integrando con queste tecnologie, non tutte sono mature. I grandi attori come i fornitori di servizi cloud che fanno già parte del nostro profilo di rischio sono in grado di aiutarci a mitigare il rischio in un modo in cui le aziende SaaS più piccole non sono in grado (o non vogliono) di farlo. Se potessi darti un consiglio, direi di fare attenzione a chi inviti alla festa. La tua responsabilità nei confronti dei tuoi clienti inizia molto prima che utilizzino il tuo prodotto.
Qualità dell'output
Gli strumenti di intelligenza artificiale generativa sono altamente reattivi, sicuri e fluenti, ma possono anche sbagliarsi e fuorviare gli utenti (ad esempio un'allucinazione). Assicurati di comprendere come il tuo provider garantisce l'accuratezza dei contenuti generati.
Cosa è peggio? Gli strumenti di intelligenza artificiale generativa possono creare contenuti che potrebbero non essere appropriati per il tuo pubblico, come parole o espressioni dannose per determinati gruppi. In Grammarly, questo è il risultato peggiore che il nostro prodotto possa avere e lavoriamo molto duramente per prendercene cura e proteggerci.
Assicurati di sapere quali barriere e funzionalità ha messo in atto il tuo provider per segnalare contenuti sensibili. Chiedi al tuo provider un'API di moderazione dei contenuti che ti consenta di filtrare i contenuti non appropriati per il tuo pubblico. La fiducia del tuo pubblico dipende da questo.
Non scappare: muoviti con sicurezza verso l'intelligenza artificiale generativa
Costruisci la migliore squadra di sicurezza interna possibile
Investi in un grande team interno di sicurezza AI, simile ai team di sicurezza cloud che tutti abbiamo creato negli ultimi 10 anni quando abbiamo abbracciato il cloud computing. Le competenze interne ti aiuteranno a delineare in che modo ciascuna di queste minacce reali potrebbe riguardare la tua azienda/prodotto/consumatore e di quali strumenti avrai bisogno per proteggerti adeguatamente.
Forma il tuo team di esperti. E poi addestrarli alla squadra rossa. Chiedi loro di eseguire attacchi basati su modelli di intelligenza artificiale (ad esempio jailbreak, breakout tra tenant e divulgazione di dati sensibili, ecc.) ed esercizi pratici di scenari ad alto impatto, in modo da sapere come gestire le minacce in agguato.
Autorizza (e arma) i tuoi dipendenti
Mentre introduci l'intelligenza artificiale generativa nell'azienda, considera i tuoi dipendenti come la tua seconda linea di difesa contro le minacce alla sicurezza delineate. Consenti loro di contribuire a proteggere la tua azienda fornendo formazione generativa sulla sicurezza dell'intelligenza artificiale e indicazioni chiare su una politica di utilizzo accettabile.
La ricerca mostra che il 68% dei dipendenti ammette di nascondere l’uso dell’intelligenza artificiale generativa ai propri datori di lavoro. Fingere il contrario non farà scomparire i Quattro Cavalieri dell’IA generativa. Ti consiglio invece di costruire una strada asfaltata che permetta ai Cavalieri di aggirare la tua compagnia.
Per scoprire come abbiamo costruito questa strada a Grammarly, dai un'occhiata alla mia sessione al Gartner IT Symposium/XPo di quest'anno.Nel mio intervento tratterò un quadro dettagliato per l’adozione sicura dell’IA generativa.Il nostro libro bianco su questo argomento sarà pubblicato il 19 ottobre.
Per saperne di più sull'impegno di Grammarly a favore di un'intelligenza artificiale responsabile, visita il nostroCentro protezione.