Artificiell intelligens inte är så smart att det inte går att lura den. IT-säkerhetsexperten Torben Clemmensen manar till försiktighet när det gäller att blint implementera AI-drivna IT-säkerhetslösningar.
Många IT-säkerhetsföretag hävdar att artificiell intelligens är svaret på alla nuvarande och framtida utmaningar, genom inbyggda AI-funktioner som automatiskt upptäcker och stoppar ovanligt beteende och försök till intrång.
Men vi måste vara försiktiga så att vi inte överskattar A-teknikens kapacitet. Det anser Torben Clemmensen, IT-säkerhetsspecialist på SECUINFRA i Norden. Han har sett de nya funktioner och tjänster som IT-säkerhetsleverantörerna lanserar, och även om det definitivt finns intressanta lösningar bland dem så lovar de också – enligt honom – mer än de håller.
– AI kommer att bli en avgörande del av vår framtid på alla tänkbara områden. Men vi befinner oss bara i början, precis som svartvit TV bara var början på den trådlösa 4K-streamingen vi har i dag. Därför måste vi förstå vilka begränsningar den har och inte satsa allt på den, säger Torben Clemmensen och tillägger:
– Artificiell intelligens är nämligen inte intelligent. Det är som att ha en dreglande hund i hörnet som kissar på golvet tills du lär den att göra det någon annanstans. Faktum är att du kan lära AI vad som helst så länge den utsätts för tillräckligt med inlärningsmaterial, vilket också är vad som gör den farlig att lita på.
Här är sex exempel på metoder som används av cyberbrottslingar:
1. Träna AI-system så att de uppfattar skadligt beteende som normalt (förgiftningsattacker)
AI-drivna EDR/XDR-system är beroende av tränings-datauppsättningar för att lära sig vad som är normal och vad som är skadlig aktivitet. Hackare kan medvetet – som en ulv i fårakläder – infoga skadlig aktivitet som verkar vara normal aktivitet i dessa träningsdata. Med tiden vänjer sig AI:n vid att klassificera deras specifika skadliga beteende som normalt.
Exempel: En hackare utför upprepade gånger lågprofilerade spaningsaktiviteter (till exempel nätverksskanning) på ett sätt som liknar administrativa uppgifter. AI:n börjar behandla dessa skanningar som legitima, även om omfattningen eller frekvensen senare ökar.
2. Undvikande attacker: Efterlikna legitimt beteende
Hackare anpassar sitt beteende för att undvika upptäckt med hjälp av tekniker som:
· Living-off-the-Land (LotL): Använder legitima verktyg (till exempel PowerShell, WMI) för att utföra skadliga aktiviteter som liknar normala operationer.
· Polymorfisk malware: Utvecklar skadlig kod som ständigt ändrar sina egenskaper, vilket gör det svårare för statiska detekteringsalgoritmer att identifiera den.
Exempel: Kryptering av data i små grupper kan se ut som en legitim säkerhetskopieringsprocess och lura AI:n att tro att ransomware-aktivitet är ofarlig.
3. Utnyttjande av modelldrift
AI-system uppdateras med jämna mellanrum för att anpassa sig till nya miljöer. Hackare kan utnyttja detta genom att mata systemet med data som gradvis förändrar dess förståelse av normalt beteende. Med tiden blir modellen mindre effektiv eftersom den införlivar hackarens noggrant utformade aktiviteter i sin referensram för ”normalt” beteende.
Exempel: En hackare laddar upprepade gånger upp krypterade filer till molnlagring. Systemet flaggar först för att det är misstänkt, men lär sig med tiden att det är ett normalt beteende.
4. Injektion av brus
Genom att översvämma ett EDR/XDR-system med obetydliga data eller händelser kan hackare överbelasta det, vilket gör att AI:n felklassificerar eller missar skadlig aktivitet.
Exempel: Att generera ofarliga varningar eller avvikelser i en sandlådemiljö kan göra AI:n okänslig för verkliga hot och dölja skadliga signaler i bruset.
5. Kringgå beteendeanalys
AI-drivna system övervakar ofta användar- och systembeteenden för att upptäcka avvikelser. Hackare kan undersöka och lära sig de specifika triggers som utlöser larm (till exempel filåtkomstmönster, CPU-användning) utan att bli upptäckta och sedan arbeta strax under de digitala lasrarna för att förbli osynliga och inte utlösa larmet.
Exempel: En hackare kommer åt känsliga filer i små mängder och efterliknar normala beteenden hos anställda i stället för att utföra omfattande dataextrahering.
6. Dataförgiftning före implementering
Vissa avancerade angripare försöker äventyra AI-träningsprocessen genom att manipulera data innan EDR/XDR-systemet ens har tagits i drift.
Exempel: Om hackare kan lägga in förfalskade data i träningsuppsättningen under utvecklingen (till exempel via komprometterade leveranskedjor eller modeller med öppen källkod) kan systemet lära sig att behandla vissa typer av skadlig kod som ofarliga.
Bild: Gerd Altmann