Annons

Tre begränsningar med AI-drivna cyberattacker som gör att man inte behöver ha panik – ännu…

I DAGENS GÄSTKRÖNIKA diskuterar Integrity360s CTO, Chief Technology Officer, Richard Ford, kring AI och cybersäkerhet. Det finns i detta fortfarande tre kritiska begränsningar i nuvarande AI-modeller som gör att organisationer inte behöver ha panik ännu, menar Ford. Vilka är de?
* AI hanterar inte oklarheter effektivt och kräver mänsklig ingripande.
* AI-modeller är begränsade av den data de tränats med, vilket gör dem relativt svaga att hantera oklarheter och mjuka värden.
* Mänskliga hjärnor är fortfarande skarpare än AI på många fronter.
Så även om AI-drivna cyberattacker definitivt oroande, så ligger den verkliga faran huvudsakligen i framtiden hävdar Richard Ford.
Genom att investera i effektiva säkerhetsåtgärder, kombinera dessa med expertis från utbildade proffs, och utbilda de anställda kring vanliga cyberhot, kan nätverk och system effektivt skyddas mot de flesta AI-drivna cyberattackerna, är hans konklusion.

Från kontextuellt anpassat innehåll till automatisering – artificiell intelligens (AI) har varit en stark cybersäkerhetstrend under flera år. Dock har diskussionerna kring följderna av alltmer sofistikerade teknologier nått nya höjder, inte minst efter lanseringen av flera nya språkmodeller. 

Oavsett om det handlar om ChatGPT, Microsofts Jasper AI, eller andra chatbots, så ökar oron över att IT-bedragare ska använda dem för att skapa avancerade attacker. Den nya vågen av AI-modeller har förändrat spelplanen ordentligt, i allt ifrån att kopiera specifika skrivsätt till att skapa av komplex kod. Kommer bedragare att använda dessa verktyg för att utnyttja stora mängder data och intensifiera attacker? Det är några av de frågor som många ställer sig. Men hur mycket sanning ligger i detta? Är farhågorna befogade?

Många organisationer undersöker redan de potentiella säkerhetskonsekvenserna av ChatGPT och liknande verktyg för att få en bättre förståelse för hotbilden.

Tre viktiga begränsningar för AI-drivna cyberattacker
Här är det viktigt att inse att de flesta cyberattackerna fortfarande är relativt generiska och utförs av amatörhackare, så kallade script kiddies, som använder färdiga verktyg. Men tyvärr finns det förstås även många betydligt mer sofistikerade angripare som vet hur man upptäcker sårbarheter och utvecklar skräddarsydda metoder för att utnyttja dem.

Sanningen är lyckligtvis att nuvarande AI-verktyg ännu inte är tillräckligt avancerade för att skapa programvara som är mycket farligare än de påfrestningar som vi redan står inför. Det finns flera begränsningar: 

1. AI är inte rustat att hantera oklarheter
Nuvarande AI-verktyg har fortfarande relativt svårt att navigera i situationer där det inte finns något definitivt svar. Vi ser detta i cybersäkerhetsexperternas egna begränsningar när det gäller att använda AI i defensivt syfte. Även om verktygen kan flagga för misstänkta aktiviteter, så behöver de fortfarande mänsklig handpåläggning. I takt med att AI blir alltmer sofistikerad, så börjar det nu visserligen komma nya verktyg som bättre kan förstå tvetydiga situationer. Men dessa är ännu relativt sällsynta, även hos hotaktörerna.

2. AI begränsas av data
AI-modeller, oavsett om de har byggts för bra eller dåliga syften, begränsas av den data de jobbar med. Liksom alla andra modeller, så skulle en skadlig kodspecifik AI-algoritm behöva förses med enorma mängder data för att lära sig hur man undviker upptäckt. Även om sådan data utan tvekan existerar, så finns det ytterligare begränsningar kring exakt hur mycket AI-modeller kan lära sig från dem.

3. Mänskliga hjärnan är fortfarande skarpare
Det också viktigt att förstå att mänskliga hjärnor i nuläget överträffar artificiell intelligens på många områden. Även om AI är otroligt användbart för att påskynda processer, automatisera arbetsuppgifter och identifiera hot, så kräver AI-modeller fortfarande stöd och kunskap från erfarna cyberproffs. Vi behöver fortfarande en kombination av teknik och skickliga cybersäkerhetsexperter – en ekvation som gäller även inom cyberbrottsligheten.

AI-hotet är fortfarande främst teoretiskt
Därmed inte sagt att det inte finns några risker alls. Det största säkerhetsproblemet kring ChatGPT och andra modeller är idag potentialen att demokratisera cyberbrottslighet.

Det finns tydliga bevis på att innovativa cyberbrottslingar lätt kan börja använda sådana plattformar för att skriva trovärdiga nätfiskemejl eller skapa skadlig programvara som undviker upptäckt. Detta skulle dock inte innebära någon större utveckling från den nuvarande svarta marknadens dynamik.

Faktum är att leverantörer av phishing-as-a-service (PhaaS) och ransomware-as-a-service (RaaS) sedan länge har försett mindre erfarna hotaktörer med verktygslådor, vilket gör det möjligt även för dem att utföra attacker. Öppna och fritt tillgängliga modeller som ChatGPT har potential att förvärra detta problem. 

Men verkligheten är dock att nuvarande AI-verktyg ännu inte är tillräckligt sofistikerade för att skapa verkligt avancerad programvara som kan undvika upptäckt och orsaka allvarlig skada. Därför kan en hel del av de skrämmande historierna om AI och cybersäkerhet som vi hör idag tas med en nypa salt. Säkerligen så kommer det att förändras i framtiden, men just nu förblir  det katastrofala hotet till stor del teoretiskt.

Hantering av AI-drivna cyberattacker
Vi måste komma ihåg att de allra flesta attacker fortfarande utförs med mycket grundläggande metoder. Det innebär att organisationer ofta framgångsrikt kan avvärja cyberhot relativt lätt, inte minst genom att investera i enkla men effektiva säkerhetsåtgärder. Organisationer måste dock ligga steget före och själva anamma moderna teknologier. De kan vara mycket effektiva för att snabbt identifiera och reagera på potentiella hot.

Samtidigt är det viktigt att även fokusera på mänskliga säkerhetsinsatser. Maskininlärnings- och AI-verktygens värde maximeras när de hanteras av utbildade cybersäkerhetspersonal. Det är också viktigt att ständigt förbättra cybersäkerhetsutbildning och medvetenhet hos alla medarbetare. Om alla anställda är medvetna om angriparnas metoder, och vad de kan innebära, så kommer de att vara mer vaksamma och bättre rustade för att minska riskerna för framgångsrika attacker.

Organisationer behöver inte få panik. Genom att investera i effektiva säkerhetsåtgärder, kombinera dessa med expertis från utbildade proffs, och utbilda de anställda kring vanliga cyberhot, kan nätverk och system effektivt skyddas mot de flesta AI-drivna cyberattackerna.

Av Richard Ford, CTO Integrity 360

Print Friendly, PDF & Email

Success Stories

Industriellt

Success Stories

Intressant på PLM TV News

PLM TV News

PLM TV News

PLM TV News

PLM TV News

PLM TV News

Aktuell ANALYS

Aktuell Analys

Aktuell Analys

3D-printing

Block title