Deepfake-teknologien er både imponerende og dypt foruroligende.
Vi snakker altså om en teknologi der videoklipp og kunstig intelligens utnyttes til å lage falske videoer av for eksempel kjente personer som sier ting de aldri har sagt, som i denne virale videoen av Facebooks Mark Zuckerberg fra 2019.
Deepfake-teknologien brukes også av svindlere som utgir seg for å være personer de ikke er, og nå advarer FBI om at teknologien brukes på en ny og skremmende måte.
Svindlerne bruker altså deepfake-teknologi og KI til å etterligne kjente stemmer og lure deg via et anrop på telefonen. Metoden kalles blant annet "venn-i-nød-svindel" og betyr at du kan bli oppringt av noen som høres helt ut som et familiemedlem eller en nær venn – men som i virkeligheten er en svindler.
FBI advarer om at du bør ta forholdsregler mot denne typen svindel.
Deepfake-svindel: Når KI utgir seg for å tilhøre familien
FBI har registrert flere tilfeller der folk har fått telefon fra noen som hørtes ut akkurat som en ektefelle, forelder eller venn som ba om økonomisk hjelp i en nødsituasjon.
For eksempel ble en 82 år gammel mann i Sugar Land, Texas, svindlet for 17 000 dollar da svindlere brukte kunstig intelligens til å klone stemmen til svigersønnen hans, som angivelig hadde vært innblandet i en trafikkulykke, og fikk ham til å overføre penger.
Mannen fikk panikk og overførte pengene, men innså senere at det var en svindler som hadde brukt en KI-generert stemme til å lure ham.
Hvordan KI-svindelen virker
Det hele starter med at svindlerne velger ut et offer og noen offeret har et nært forhold til, som et barn eller en ektefelle. Deretter innhenter svindlerne videoer av denne personen, blant annet fra sosiale medier.
Ved hjelp av deepfake-teknologi og kunstig intelligens kan de kriminelle gjenskape stemmen fra de innsamlede videoene, og så kan de få stemmen til å si hva de vil.
Det neste som skjer er at offeret blir oppringt av noen som høres kjent ut, og blir bedt om å overføre penger eller dele sensitiv informasjon.
Slik beskytter du deg mot svindelen
Du kan gjøre flere ting for å bli svindlet, men FBI anbefaler at du og familien tar én viktig forholdsregel: Lag et hemmelig passord som bare dere kjenner til.
På den måten kan du alltid verifisere hvem du faktisk snakker med.
Det kan være en spesifikk setning eller en tallkombinasjon som det er vanskelig for en svindler å gjette. Hvis du mottar et mistenkelig anrop, kan du be den som ringer om å oppgi passordet for å bekrefte identiteten.
Blir vedkommende svar skyldig, er det sannsynligvis snakk om svindel.
Meld fra til politiet
Vær også skeptisk til følelsesladde samtaler. Svindlere spiller ofte på frykt og panikk.
Hvis noen ringer og hevder at de er i fare, bør du ta en fot i bakken og tenke deg om. Ring tilbake på et kjent nummer for å verifisere historien.
Hvis du opplever forsøk på deepfake-svindel, er det viktig at du varsler politiet og for eksempel banken din hvis du har overført penger.
Deepfake-svindel er et økende problem
Ifølge FBI er deepfake-svindel et økende problem, og teknologien blir stadig mer avansert. Tidligere har svindlere hovedsakelig brukt e-post og tekstmeldinger til nettfiske ("phishing"), men nå går de altså over til stemmegjenkjenning og KI-manipulering.
En studie fra University College London har tidligere rangert deepfake-teknologi som en av de farligste formene for nettkriminalitet, ettersom den er vanskelig å oppdage og kan skape stor forvirring og økonomiske tap.
En nyere studie fra samme institusjon har også vist at de fleste har problemer med å avsløre en stemme som falsk.