Search

ChatGPT och cybersäkerhet, vilka är konsekvenserna för företagen?

Det är omöjligt att missa detta nya framsteg inom teknikområdet i början av året. ChatGPT har blivit ett trendigt ämne på sociala medier på bara några veckor. Phishing, malware... många cybersäkerhetsexperter delar med sig av sina erfarenheter och föreslår de skadliga användningsområden som cyberkriminella skulle kunna göra med ChatGPT. Hur fungerar den här tekniken? Kan ChatGPT öka hastigheten för cyberattacker? Kan användningen av den få konsekvenser för företag? Här är några förklaringar som vi kan erbjuda.

Vad är ChatGPT?

ChatGPT är ett verktyg för konversation med artificiell intelligens, AI, som utvecklats av företaget OpenAI och är tillgängligt sedan december 2022. Namnet kommer från en kombination av termerna "konversation" och "predictive language transduction model". Denna teknik har förmågan att utbyta i skriftlig form genom att svara på frågor, vilket simulerar mänskliga konversationer på ett övertygande sätt. Baserat på en stor databas (tidningsartiklar, textkorpus, onlinekonversationer, romaner, filmmanus) kan ChatGPT svara på ett relevant och sammanhängande sätt på många ämnen. Verktyget blir allt effektivare tack vare principen om kontinuerlig inlärning. Det kan svara på flera språk och anpassar sig till olika typer av sammanhang. Mjukvarans prestanda förfinas på grundval av språkmodellen GPT-3 som utvecklats av företaget OpenAI och som består av en kombination av två tillvägagångssätt: övervakad inlärning och förstärkningsinlärning.

ChatGPT har dock vissa begränsningar:

  • Verktygets kunskapsbas upphör år 2021 (för tillfället!)
  • Svaren som genereras kan se likadana ut och därför skapa dubbelt innehåll
  • ChatGPT känner till många ämnen men inte på djupet

På grund av dess potential meddelade Microsoft den 23 januari att man ville stärka sitt partnerskap med OpenAI i form av en investering på flera miljarder dollar. Den amerikanska jätten vill integrera denna modell för artificiell intelligens i sina egna produkter och på så sätt minska klyftan till konkurrenter som Google. Liksom all annan teknik väcker ChatGPT dock oro på grund av dess möjliga missbruk för skadliga syften.

Bör vi vara rädda för ett annus horribilis för företagen när vi står inför en sådan teknik? Vi gör en inventering.

ChatGPT är en verktygslåda för cyberkriminella

Användningen av plattformar för att industrialisera skapandet av malware eller phishing-kampanjer är inget nytt fenomen. Under flera år har RaaS-plattformar (Ransomware as a service) och phishing-kit använts av cyberkriminella.

Fram till dess har användningen av dessa plattformar krävt tillgång till cyberkriminella nätverk. Med ChatGPT har alla illasinnade personer nu möjlighet att generera element som kod eller text. Om inte denna AI kan integrera skyddsåtgärder på direkta förfrågningar som "Skriv mig ett ransomware i python".

Det är dock inte omöjligt att få dem att skriva delar av koden som återstår att sätta ihop. En förvirrande enkelhet som antyder både det bästa och det sämsta.

Vad kan vi förvänta oss år 2023? Fyra skadliga användningsområden för ChatGPT

1. Mot en spridning av polymorfisk malware

Dessa datavirus som omintetgör traditionella antivirusdetekteringsfilter är nu reproducerbara med hjälp av ChatGPT enligt en rapport från cybersäkerhetsförlaget CyberArk. Genom att exakt rikta din begäran som "Skriv en funktion 'encrypt_file' som tar emot en krypteringsnyckel och en sökväg till filen och dekrypterar den i ett pythonskript" genererar ChatGPT de delar av koderna som cyberbrottslingar inte bara behöver konsolidera.

2. Cyberkriminella kommer lättare att upptäcka sårbarheter

ChatGPT har en stark analysfunktion. Genom att erbjuda någon en källkod har de möjlighet att upptäcka eventuella sårbarheter. Den här tekniken användes också av en etisk hackare under en bug bounty. Genom att analysera utdrag ur PHP-koden upptäckte ChatGPT möjligheten att komma åt användarnamn via en databas.

Om tekniken i det här fallet användes i ett legitimt syfte är det säkert att cyberkriminella redan har börjat använda den i ett försök att upptäcka nya sårbarheter.

 

3. Är ChatGPT på väg att bli script-kiddies bästa allierade?

Termen script kiddie definierar en nybörjarhacker, utan stora tekniska färdigheter, vars aktivitet är att starta attacker med hjälp av befintliga skript som finns tillgängliga på den mörka webben eller enklare på GitHub-plattformen. Den offensiva användningen av operativsystemet Kali Linux är ett perfekt exempel på detta: script-kiddies uppfinner ingenting, de använder opportunistiskt program som andra har utvecklat. I ChatGPT har dessa cyberkriminella lärlingar tillgång till en ny kompetensnivå. Den att forma nya delar av koden utifrån en enkel instruktion. Användningen av ChatGPT skulle kunna uppmuntra många av dessa hackare att inleda egna attacker.

4. ChatGPT-3 skriver phishing-e-post på begäran.

Genom att rikta frågan till generering av källkod är det möjligt att be ChatGPT att skriva texten till ett phishing-mejl. Leverans, HR eller en betalningspåminnelse, ChatGPT anpassar sig till sammanhanget och integrerar variabler som ska ersättas. Inget kan vara enklare, fråga bara utan att nämna termen phishing.

Framtiden för ChatGPT

Den här AI-plattformen kommer inte att sakta ner, ChatGPT-4 är på gång och har 100 biljoner parametrar. När den här artikeln skrivs har OpenAI-företaget precis meddelat att ChatGPT Plus, ett betalt erbjudande till ett pris av 20 USD, har lanserats. Detta nya erbjudande, som för tillfället endast är tillgängligt i USA, kommer att medföra nya funktioner och göra det möjligt att använda tjänsten trots de toppar av förfrågningar som hittills gjort den otillgänglig.

Incident Response Hotline

Facing cyber incidents right now?

Contact our 24/7/365 world wide service incident response hotline.