Quando il tuo compagno di squadra è una macchina: 8 domande che i CISO dovrebbero porre sull'intelligenza artificiale

Notizia

CasaCasa / Notizia / Quando il tuo compagno di squadra è una macchina: 8 domande che i CISO dovrebbero porre sull'intelligenza artificiale

Jul 07, 2023

Quando il tuo compagno di squadra è una macchina: 8 domande che i CISO dovrebbero porre sull'intelligenza artificiale

L’inevitabilità dell’intelligenza artificiale sta costringendo molti leader della sicurezza informatica a decidere se è amica o nemica. Trattarlo come un compagno di squadra può essere la soluzione definitiva, ma ci sono una serie di domande puntuali per i CISO

L’inevitabilità dell’intelligenza artificiale sta costringendo molti leader della sicurezza informatica a decidere se è amica o nemica. Trattarlo come un compagno di squadra può essere la soluzione definitiva, ma ci sono una serie di domande mirate che i CISO dovrebbero porsi.

L’intelligenza artificiale sta cambiando il modo in cui facciamo praticamente tutto: ovunque ci giriamo, le macchine eseguono compiti che in passato sarebbero stati eseguiti da un essere umano. Queste istanze basate sull’intelligenza artificiale spaziano dai veicoli autonomi ai robot del servizio clienti che devono essere esplorati prima che un essere umano entri in linea. Nella sicurezza informatica, l’intelligenza artificiale è diventata rapidamente sia un amico che un moltiplicatore di forza per gli avversari. Piaccia o no, vedere la macchina come un compagno di squadra è diventata una realtà che i CISO dovranno imparare ad abbracciare, ma dovrebbero porsi una serie di domande prima di assumere un aiutante basato sull'intelligenza artificiale.

Il concetto non è nuovo. Nel 2019, un team internazionale di 65 scienziati collaborativi ha generato 819 domande di ricerca sull'argomento con l'intento di "fornire un programma di ricerca che i ricercatori collaborativi possano utilizzare per studiare gli effetti previsti delle macchine progettate per i compagni di squadra sulla base delle opinioni qualificate dei ricercatori collaborativi". Senza dubbio, alcuni dei punti di ricerca sviluppati dal team di scienziati collaborativi hanno trovato la loro strada nei principi e nelle linee guida dell’IA responsabile del Dipartimento della Difesa degli Stati Uniti, che hanno catturato cinque punti dati che qualsiasi IA deve essere prima di essere accettabile per l’uso: responsabile, equa, tracciabile, affidabile e governabile.

Per immaginare il concetto di intelligenza artificiale come compagno di squadra in azione, basta guardare il piano dell’aeronautica americana per migliorare l’efficacia del suo aereo da combattimento multiruolo F-35 accoppiandolo con droni da battaglia che funzionano come gregari autonomi. Lavorando con droni potenziati con l’intelligenza artificiale, l’aereo può accumulare informazioni a velocità superiori alle capacità umane. Ciò consente "il movimento attraverso il ciclo Osserva, Orienta, Decidi, Agisci (OODA) con velocità e agilità, il che a sua volta consente al destinatario di informazioni in tempo reale di essere più abile", secondo JR Seeger, ufficiale e romanziere in pensione della CIA. .

L’intelligenza artificiale diventerà effettivamente un’estensione dei processi di automazione e potrà scoprire un’ampiezza e una portata di informazioni notevolmente ampliate, aiutando a valutare le complessità a velocità sempre maggiori, afferma Anurag Gurtu, CEO di StrikeReady. "L'intelligenza artificiale funziona meglio quando il CISO cerca di migliorare la propria produttività, aumentare le capacità di un analista esperto, scaricare una parte del carico di lavoro e trattenere i dipendenti", afferma Gurtu.

Anche se spesso può sembrare come se avessimo il piede sul "pedale fino all'acceleratore e senza freni", afferma Gurtu, "l'intelligenza artificiale aiuta anche nella capacità di esercitare il processo a velocità e migliora il compito di rilevamento e può essere regolata per fornire il analista con una probabilità evento di essere preso di mira o attaccato."

In passato, gli alberi decisionali e i modelli basati su regole rendevano il rilevamento delle minacce e delle vulnerabilità un processo piuttosto laborioso, ma "con l'intelligenza artificiale possiamo inserire set di dati disparati e migliorare la 'spiegabilità' dell'analista", afferma Gurtu, aggiungendo che il modello interpretabile locale- le spiegazioni agnostiche (LIME) e SHAP (Shapley Additive exPlanations) aiutano entrambe con il compito di spiegabilità.

"Sempre più entità stanno incorporando l'intelligenza artificiale generativa e devono essere preparate per un aumento delle 'allucinazioni' e man mano che sempre più lo fanno, stanno arrivando massicce allucinazioni", dice Gurtu. Il mezzo per evitare allucinazioni nei risultati dell’intelligenza artificiale generativa è l’uso di un modello linguistico dell’intelligenza artificiale grafica, afferma.

Per illustrare il punto, basta guardare la recente memoria di un avvocato presentata a un tribunale, scritta con l'assistenza di un chatbot basato sull'intelligenza artificiale che ha "allucinato" una giurisprudenza inesistente quando non è riuscita a trovare esempi nel mondo reale. Ciò ha portato il giudice a emettere un ordine permanente secondo cui qualsiasi documento creato utilizzando l’intelligenza artificiale deve essere identificato e verificato da un essere umano. "Utilizzando la metodologia del grafico, l'intelligenza artificiale offre all'utente il potere estremo di comprendere il contesto", afferma Gurtu. "Senza tali, come notato [il risultato sono] enormi allucinazioni."