Från kontextuellt anpassat innehåll till automatisering – artificiell intelligens (AI) har varit en stark cybersäkerhetstrend under flera år. Dock har diskussionerna kring följderna av alltmer sofistikerade teknologier nått nya höjder, inte minst efter lanseringen av flera nya språkmodeller.
Oavsett om det handlar om ChatGPT, Microsofts Jasper AI, eller andra chatbots, så ökar oron över att IT-bedragare ska använda dem för att skapa avancerade attacker. Den nya vågen av AI-modeller har förändrat spelplanen ordentligt, i allt ifrån att kopiera specifika skrivsätt till att skapa av komplex kod. Kommer bedragare att använda dessa verktyg för att utnyttja stora mängder data och intensifiera attacker? Det är några av de frågor som många ställer sig. Men hur mycket sanning ligger i detta? Är farhågorna befogade?
Många organisationer undersöker redan de potentiella säkerhetskonsekvenserna av ChatGPT och liknande verktyg för att få en bättre förståelse för hotbilden.
Tre viktiga begränsningar för AI-drivna cyberattacker
Här är det viktigt att inse att de flesta cyberattackerna fortfarande är relativt generiska och utförs av amatörhackare, så kallade script kiddies, som använder färdiga verktyg. Men tyvärr finns det förstås även många betydligt mer sofistikerade angripare som vet hur man upptäcker sårbarheter och utvecklar skräddarsydda metoder för att utnyttja dem.
Sanningen är lyckligtvis att nuvarande AI-verktyg ännu inte är tillräckligt avancerade för att skapa programvara som är mycket farligare än de påfrestningar som vi redan står inför. Det finns flera begränsningar:
1. AI är inte rustat att hantera oklarheter
Nuvarande AI-verktyg har fortfarande relativt svårt att navigera i situationer där det inte finns något definitivt svar. Vi ser detta i cybersäkerhetsexperternas egna begränsningar när det gäller att använda AI i defensivt syfte. Även om verktygen kan flagga för misstänkta aktiviteter, så behöver de fortfarande mänsklig handpåläggning. I takt med att AI blir alltmer sofistikerad, så börjar det nu visserligen komma nya verktyg som bättre kan förstå tvetydiga situationer. Men dessa är ännu relativt sällsynta, även hos hotaktörerna.
2. AI begränsas av data
AI-modeller, oavsett om de har byggts för bra eller dåliga syften, begränsas av den data de jobbar med. Liksom alla andra modeller, så skulle en skadlig kodspecifik AI-algoritm behöva förses med enorma mängder data för att lära sig hur man undviker upptäckt. Även om sådan data utan tvekan existerar, så finns det ytterligare begränsningar kring exakt hur mycket AI-modeller kan lära sig från dem.
3. Mänskliga hjärnan är fortfarande skarpare
Det också viktigt att förstå att mänskliga hjärnor i nuläget överträffar artificiell intelligens på många områden. Även om AI är otroligt användbart för att påskynda processer, automatisera arbetsuppgifter och identifiera hot, så kräver AI-modeller fortfarande stöd och kunskap från erfarna cyberproffs. Vi behöver fortfarande en kombination av teknik och skickliga cybersäkerhetsexperter – en ekvation som gäller även inom cyberbrottsligheten.
AI-hotet är fortfarande främst teoretiskt
Därmed inte sagt att det inte finns några risker alls. Det största säkerhetsproblemet kring ChatGPT och andra modeller är idag potentialen att demokratisera cyberbrottslighet.
Det finns tydliga bevis på att innovativa cyberbrottslingar lätt kan börja använda sådana plattformar för att skriva trovärdiga nätfiskemejl eller skapa skadlig programvara som undviker upptäckt. Detta skulle dock inte innebära någon större utveckling från den nuvarande svarta marknadens dynamik.
Faktum är att leverantörer av phishing-as-a-service (PhaaS) och ransomware-as-a-service (RaaS) sedan länge har försett mindre erfarna hotaktörer med verktygslådor, vilket gör det möjligt även för dem att utföra attacker. Öppna och fritt tillgängliga modeller som ChatGPT har potential att förvärra detta problem.
Men verkligheten är dock att nuvarande AI-verktyg ännu inte är tillräckligt sofistikerade för att skapa verkligt avancerad programvara som kan undvika upptäckt och orsaka allvarlig skada. Därför kan en hel del av de skrämmande historierna om AI och cybersäkerhet som vi hör idag tas med en nypa salt. Säkerligen så kommer det att förändras i framtiden, men just nu förblir det katastrofala hotet till stor del teoretiskt.
Hantering av AI-drivna cyberattacker
Vi måste komma ihåg att de allra flesta attacker fortfarande utförs med mycket grundläggande metoder. Det innebär att organisationer ofta framgångsrikt kan avvärja cyberhot relativt lätt, inte minst genom att investera i enkla men effektiva säkerhetsåtgärder. Organisationer måste dock ligga steget före och själva anamma moderna teknologier. De kan vara mycket effektiva för att snabbt identifiera och reagera på potentiella hot.
Samtidigt är det viktigt att även fokusera på mänskliga säkerhetsinsatser. Maskininlärnings- och AI-verktygens värde maximeras när de hanteras av utbildade cybersäkerhetspersonal. Det är också viktigt att ständigt förbättra cybersäkerhetsutbildning och medvetenhet hos alla medarbetare. Om alla anställda är medvetna om angriparnas metoder, och vad de kan innebära, så kommer de att vara mer vaksamma och bättre rustade för att minska riskerna för framgångsrika attacker.
Organisationer behöver inte få panik. Genom att investera i effektiva säkerhetsåtgärder, kombinera dessa med expertis från utbildade proffs, och utbilda de anställda kring vanliga cyberhot, kan nätverk och system effektivt skyddas mot de flesta AI-drivna cyberattackerna.
Av Richard Ford, CTO Integrity 360