Center for Cybersikkerhed vurderer, at der er en stor sandsynlighed for, at hackere misbruger såkaldt generativ AI.
Det skriver centret, som hører under Forsvarets Efterretningstjeneste (FE), i en ny trusselsvurdering.
Eventuelt misbrug af generativ AI ændrer ikke ved den overordnede cybertrussel, lyder det. Den betegnes i forvejen som meget høj.
Generativ AI kan eksempelvis være en sprogmodel som ChatGPT.
Ifølge Center for Cybersikkerhed er det vanskeligt at vurdere det præcise omfang. Men centeret oplever, at der er interesse for at bruge generativ AI blandt it-kriminelle.
Det kan være til de såkaldte phishing e-mails, hvor en hacker eksempelvis kan forsøge at lokke oplysninger fra modtageren eller skabe sig uberettiget adgang til et system.
Ifølge Center for Cybersikkerhed kan en sprogmodel sørge for, at teksten i e-mailen ser rigtig ud.
Her kan teknologien skabe grammatisk korrekte tekster - også på sprog, om hackerne ikke selv kender. Det kan derfor være svært at se, om mailen er legitim.
Der eksisterer også et alternativ til ChatGPT, som hedder FraudGPT. Ifølge Center for Cybersikkerhed er forskellen, at modellen ikke har ChatGPT's begrænsninger, som skal forhindre misbrug.
Men i trusselsvurderingen understreges det, at generativ AI ikke er en type teknologi, der på egen hånd kan planlægge et angreb. Det kræver, at den får et skriftligt eller mundtligt input fra en bruger.
Derefter generer teknologien et output, som hackerne efterfølgende kan bruge eksempelvis i et cyberangreb.
De fleste generative AI-teknologier er desuden opsat med filtre, der skal forhindre dem i at generere ondsindet indhold. Dog kan man med simple kommandoer omgå begrænsningerne.
Det vil sige, at hackerne alligevel kan få et output, som de eventuelt kan misbruge i et cyberangreb, lyder det i trusselsvurderingen.
/ritzau/