När AI börjar hacka: Vad Anthropics senaste rapport säger om framtidens cybersäkerhet
I början av april publicerade AI-företaget Anthropic en teknisk rapport som fick många inom säkerhetsbranschen att stanna upp. Inte för att den beskriver ett hypotetiskt framtidsscenario utan för att den dokumenterar något som redan har hänt.
Deras nya AI-modell, Claude Mythos Preview, hade på egen hand hittat ett 27 år gammalt säkerhetshål i operativsystemet OpenBSD. Ett 16 år gammalt hål i FFmpeg, ett av världens mest använda mediabibliotek. Och ett 17 år gammalt hål i FreeBSD som gav en angripare fullständig kontroll över servern, utan att behöva autentisera sig.
Hålen hade funnits där hela tiden. Ingen människa hade hittat dem, eller åtminstone rapporterat dem.
Det är inte en liten detalj. Det är en signal om att spelplanen håller på att förändras.
Vad som egentligen hänt
För att förstå varför det här är viktigt behöver man förstå hur sårbarheter normalt hittas. Det är ett mödosamt arbete som kräver djup teknisk expertis, lång erfarenhet och ofta veckor av fokuserat arbete per sårbarhet. Det är mänskligt, och det är långsamt.
Det Anthropic visar är att AI nu kan göra samma sak fast i stor skala, utan att tröttna, och på bråkdelen av tiden. Mythos Preview hittade inte bara enstaka sårbarheter, den hittade tusentals. Den byggde sedan fungerande exploits, alltså verktyg för att faktiskt utnyttja sårbarheterna, helt självständigt. Det som tidigare krävde en erfaren expert och flera veckor tog nu timmar.
Vi frågade Benjamin, säkerhetsexpert på Seadot, om hans spontana reaktion när han läste rapporten:
“Min första känsla var att Mythos antingen är något extremt kraftfullt eller årets bästa marknadsföringskampanj. Det är ovanligt att företag inte släpper något direkt om det är en affärsfördel, vilket tyder på att riskerna Anthropic ser är stora.”
– Benjamin Säkerhetsexpert, Seadot
Inte tränad för det men det hände ändå
En av de mer oroande detaljerna i rapporten är att Anthropic inte aktivt tränade modellen att bli bra på detta. Förmågorna uppstod som en bieffekt av att modellen helt enkelt blev smartare generellt, bättre på att resonera, bättre på att läsa och förstå kod, bättre på att arbeta självständigt under längre tid.
Det innebär att vi inte kan vänta på att ”den farliga AI-modellen” ska skapas, den skapas redan, som en naturlig konsekvens av att modellerna förbättras längs alla axlar.
David, som arbetar med AI i sin vardag, delar den reflektionen:
“Att det går i så stora steg att man inte riktigt hänger med, och jag hade inte kunnat förutsäga det.”
– David Seadot
Hans syn på nyttan och riskerna är pragmatisk:
“Fördelen är att större aktörer får tillgång tidigt och kan patcha sina system. Nackdelen är att mindre system inte hinner med och blir mer sårbara.”
– David Seadot
Vart är vi på väg?
Anthropic är tydliga i sin rapport: de tror att AI på sikt kommer gynna försvararna mer än angriparna. Att världen i det långa loppet kommer bli säkrare. Men de är lika tydliga med att övergångsperioden, den vi befinner oss i just nu, är det farliga momentet.
Karl, som har följt nyheten via kollegor och nyhetsinslag, sätter ord på exakt den dynamiken:
“AI just nu gör inte värre saker än människor men den gör det mycket snabbare. Och det är nog bara en tidsfråga innan AI blir mycket bättre och kan skapa större risker.”
– KarlSeadot
En bild som fångar läget väl: tänk dig en stad där alla lås är svaga, men det tar lång tid att prova dem. Det fungerar hyfsat. Men om någon plötsligt får ett verktyg som kan testa tusentals lås per minut förändras ekvationen dramatiskt, särskilt om de som äger husen ännu inte vet att verktyget finns.
Det är ungefär där vi befinner oss nu. Och Benjamin lyfter en aspekt som sällan diskuteras:
“Historiskt ligger kriminella ofta steget före, men nu kan det vara så att ’den goda sidan’ tillfälligt har ett övertag med den här typen av verktyg. Frågan är hur länge det varar.” – Benjamin Säkerhetsexpert, Seadot
Vad det innebär för organisationer
Anthropic väljer att inte släppa Mythos Preview till allmänheten. Istället använder de den defensivt för att hitta och laga hål innan angripare gör det. Det är ett ansvarsfullt beslut men det löser inte det underliggande problemet: liknande kapacitet kommer att finnas hos fler aktörer. Det är inte en fråga om, det är en fråga om när.
Det ställer tre konkreta frågor för varje organisation:
Hur snabbt lappar ni säkerhetshål?
Rapporten visar att en AI kan ta ett offentliggjort säkerhetshål och bygga ett fungerande angreppsverktyg på timmar. Det fönster som tidigare gav organisationer veckor att agera håller på att krympa dramatiskt.
Hur ser er beredskap ut?
Inte bara tekniskt, utan organisatoriskt. Vem har mandat att agera snabbt? Finns processerna på plats, eller behöver en incident hända först?
Använder ni AI defensivt?
Samma teknik som kan användas för att hitta hål kan användas för att laga dem. Organisationer som börjar använda AI som ett defensivt verktyg nu bygger ett försprång inför en verklighet där det kommer vara nödvändigt.
Karl sammanfattar rådet till organisationer på ett enkelt sätt:
“Det viktigaste nu är att ha väldigt bra rutiner för uppdateringar och säkerhet, att snabbt åtgärda sårbarheter. Och arbeta strukturerat med informationssäkerhet.”
– Karl Seadot
Råd till dig som privatperson
Det är lätt att tänka att det här berör bara stora organisationer. Men säkerhetshål i operativsystem, webbläsare och vanlig programvara berör alla som är uppkopplade. Och angripare behöver inte längre vara experter för att utnyttja dem.
Benjamin ger ett konkret och enkelt råd:
“Se till att hålla system och appar uppdaterade. Säkerhetsuppdateringar är avgörande för att skydda sig.”
– Benjamin Säkerhetsexpert, Seadot
David lägger till ett tips specifikt för AI-verktyg:
“Stäng av att verktygen lär sig på din information i inställningarna. Det finns i kontoinställningarna, men då lär den inte känna dig lika bra.”
– David Seadot
Det handlar om att agera innan man måste
Det vi ser nu är inte slutet på en utveckling. Det är början. Och som Karl påminner oss om samhällets beroende av IT-system gör att konsekvenserna kan bli stora om vi inte tar det på allvar i tid:
”Samhället är beroende av IT-system – el, vatten och kollektivtrafik fungerar tack vare dem. Om de påverkas kan det få stora konsekvenser.”
– Karl Seadot
På Seadot följer vi det här noga, inte för att skapa oro, utan för att vi tror att de organisationer som förstår förändringen tidigt är de som klarar övergången bäst. Det handlar mindre om att ha rätt teknik, och mer om att ha rätt beredskap, rätt processer och rätt förståelse för hotbilden.
Den förståelsen börjar med att ta det här på allvar, nu.