AI som område har varit i det närmaste extremt hajpat ända sedan OpenAI lanserade ChatGPT i november 2022. I alla delar tävlar man om att vara i framkant. ”Coolt” är ordet som återkommer i konferensernas sessioner och i leverantörernas presentationer. Säkerhet och risker pratas naturligtvis också mycket om – men hur ska vi förhålla oss till säkerhet kring AI? Att det finns risker är alla överens om. Likaså att det finns möjligheter. Frågan är vad som framåt kommer väga tyngst.
Möjligheter i ett säkerhetsperspektiv
Den antagonistiska sidan har använt AI ända sedan start. Vi har bland annat sett ett stort skifte inom phishing där det numer i praktiken är omöjligt att skilja ett riktigt mejl från ett som är AI-genererat. Borta är den tiden då vi kunde känna igen ett phishingmejl på dålig översättning.
Organisationer träffas idag av ett otal hot och försök, varje timma dygnet runt. Den som försöker sig på att ha överblick medelst klassiska verktyg och metoder så som analys av loggar och trafikflöden har uppförsbacke, milt uttryckt.
AI-stödd SIEM
Jag arbetade för några år sedan åt en tjänsteleverantör som då sålde en vSOC-tjänst (MDR-tjänst) där SIEM as a Service och övervakning av densamma var en del av paketeringen. Rent utförartekniskt gick det ut på att SOC-analytiker som var på plats 24/7 analyserade flöden, grafer och trender på en monitor i realtid. Det fanns inget stöd så som machine learning utan övervakningen var visuell.
Redan då fanns naturligtvis SIEM-verktyg som använde kraftfull machine learning (det kallades inte AI riktigt än) för att analysera och hitta avvikelser i stora logg- och trafikflöden. Det är naturligtvis inget konstigt med konstanta försök att ansluta mot stängda brandväggsportar från länder som som Kina, Ryssland och Nordkorea. Det kniviga är att hitta det som sticker ut. Det som händer sällan, men som ändå kan härröra från ett mer eller mindre avancerat försök att ta sig igenom skyddet. Det som ett mänskligt öga omöjligen kan urskilja.
Det här är ett av de områden där AI och machine learning kan och måste stötta oss. De verktyg som attackerare använder idag är anpassade för att attacken ska flyga under radarn genom att mänskliga ögon och vanliga algoritmer ska missa de strukturerade försöken att bryta igenom skydd. Under de senaste två till två och ett halvt åren har exempelvis SIEM-lösningar som använder avancerad AI och machine learning för att identifiera möjliga attacker förfinats avsevärt.
AI-stödd phishingidentifiering
En AI-modell kan många gånger, åtminstone än så länge identifiera AI-genererad text. Ju mer omfattande text, desto lättare att identifiera stor-språkmodellens tillvägagångssätt.
Här finns det verktyg för att identifiera mejl som med olika grad av sannolikhet genererats av AI och tillsammans med övriga vedertagna algoritmer kan flagga misstänkt AI-genererad phishing.
Risker i ett säkerhetsperspektiv
I min roll som CISO och säkerhetsspecialist konstaterar jag att det finns risker i flera dimensioner
FOMO
The Fear Of Missing Out tror jag här och nu är en av de absolut största riskerna med AI. Helt enkelt för att ivern att komma vidare överskuggar allt. Vi måste framåt. Annars tappar vi vår relevans. Vi halkar efter. Vi kan inte. Vi sitter inte i förarsätet. När vi bara vill komma igång och komma framåt åker skygglapparna automatiskt på.
Det här gäller inte bara oss i konsumentledet utan även (och kanske i synnerhet) leverantörsledet. Alla vill vara först, bäst och mest relevant. Och då tenderar man att ta genvägar. Det är inte en slump att AI-leverantörer tränat sina modeller på exempelvis stora mängder piratkopierade böcker.
Säkerhetsriskerna är i det sammanhanget bara en aspekt, en annan är att det är svårt att få ut ett faktiskt affärsvärde i användandet.
Full tillgång till allt
Leverantörer vill av naturliga skäl att AI-modellerna, dess assistenter och agenter ska vara så relevanta som det bara går. Därmed ska de också ha tillgång inte bara till det material de tränats på utan även personlig och organisationsspecifikt relevant information. Microsoft Copilot Pro får sin stora styrka genom att i frågor ha med personlig information från användarens mejl, kalender, uppgiftslista och OneDrive tillsammans med organisationens dokument och information från SharePoint och andra gemensamma ytor.
Även om designen idag ofta bygger på, så som i Microsoft Copilot och RAG, på att den stora merparten av informationsbehandlingen sker inom organisationens Microsoft 365 tenant så kommer själva stor-språkmodellen som gör själva behandlingen att finnas utanför den bubblan.
Så rent krasst – ju mer Microsofts RAG-implementation har tillgång till, desto mer kommer att skickas i promptarna till stor-språkmodellen och därmed hanteras utanför den egna bubblan.
Sårbarheter i AI-arkitektur
Tidigare i juni publicerades nyheten om en sårbarhet i Copilot och RAG kallad EchoLeak, en sårbarhet som dessvärre inte krävde någon interaktion av användaren alls för att en attackerare skulle lyckas stjäla information. Själva sårbarheten har Microsoft agerat på, men just den här sårbarheten är förmodligen bara den första i en kommande mängd bland flertalet leverantörer.
Användares misstag
Rätt använda är AI-modeller kraftfulla verktyg som kan hjälpa till mycket i en alltmer stressad och pressad vardag. Här kan misstag komma att ske – till exempel att skicka upp och be att få klassad information bearbetat, information som aldrig borde ha lämnat organisationen men som nu kan anses röjd beroende på (brist på) skyddsåtgärder.
Hur ta tag i frågan?
Det finns som väl är många åtgärder för att minska riskerna. Några av de viktigaste är:
- Avtal med leverantör(er)
Se till att det finns avtal med alla tjänsteleverantörer som hanterar information å organisationens vägnar. Säkerställ att avtal innefattar hur information ska hanteras i och av tjänsten.
Förstå er information och tillhörande risker - Inventera informationen, förstå och klassificera
Om ni inte är på det klara med informationen och riskerna med den så kommer ni inte lyckas skydda den. Punkt. Så gör hemläxan – inventera och klassa all information för att skapa tydlighet kring vad som gäller. - Gå igenom säkerhets- och integritetsinställningar
De flesta tjänsterna som man tecknar avtal med har olika inställningar för hur information ska hanteras. Gå igenom dessa på ett strukturerat sätt och gör de inställningar som ni bedömer behövs utifrån just er organisations förutsättningar. - Skydda informationen vid källan
Om organisationen använder Microsoft 365 och har licens innefattande Purview – se till att dra nytta av kraften i den produkten. Säkerställ att rätt inställningar är gjorda i Purview kring till exempel klassning och DLP för att minska riskerna att information skickas som inte borde komma på avvägar. - Utbilda
Den här punkten är så viktig att den borde stå först, men å andra sidan kan man inte utbilda om inte ovan punkter är genomförda. Alla måste känna till såväl hur man bäst får ut kraften ur AI som vilka krav som gäller för skydd av information.
Så vad var då svaret på frågan?
Är riskerna då i slutet av dagen större än de möjligheter som AI ger?
Obehandlat – ja, alla dagar i veckan. AI-tjänster kan inte bara aktiveras utan att man gör sin hemläxa; förstår tjänsten, har förberett med adekvata skyddsåtgärder, tecknat rätt avtal med rätt leverantörer och så vidare. Det är viktigt att förstå vilken kraft man kommer att få tillgång till, så att utbilda medarbetare är inte bara riskhantering utan även en garant för att få ut önskad effekt.
Därefter är det bara att se till att ha kul. Experimentera, lär, prova och bli lite bättre hela tiden. Tanken är ju att AI ska ge faktiskt affärsvärde. Med det som grund kommer arbetet att gå strålande.