Google Lumiere: KI-video – hva er falskt og hva er ekte vare?

Med Google Lumiere kan du lage KI-video som ligner ekte vare. Hvordan unngår du å bli lurt av falske bilder og videoer?

Google Lumiere er en ny språkmodell for KI-video.

Videoen over er laget av Googles nyeste språkmodell, Lumiere, som kan sette sammen en video basert på tekst.

© Google

Kunstig intelligens utvikler seg raskt.

Bilder fremstilt av verktøy som Midjourney og Dall E, er nå av så høy kvalitet at det kan være vanskelig å skille dem fra ekte tegninger og fotografier.

Har du ennå ikke sett hva disse verktøyene er i stand til, kan du lese mer om det i denne artikkelen: Dall E.

Men kunstig intelligens kan kan reprodusere mer enn bilder med ganske stor overbevisning. Søkegiganten Google har nettopp demonstrert hva Lumiere – en avansert KI-videomodell – er i stand til.

Lumiere er en KI-modell som omdanner tekst og bilder til realistiske videoer med en varighet på opptil fem sekunder. Modellen er utviklet av Google i samarbeid med Weizmann Institute of Sciences og Tel Aviv University.

Her ser du eksempler på hva Google Lumiere er i stand til.

Her ser du eksempler på videoklipp som Google Lumiere har laget av tekst og bilder.

Lumiere benytter en ny slags KI-arkitektur kalt "Space-Time U-Net" (STUNet). Det er en arkitektur som gjør det mulig for Lumiere å forstå både rommet (der objektene er plassert) og tiden (hvordan objektene beveger seg) i en video.

Dette resulterer i videoer som er mer realistiske og sammenhengende enn dem som er skapt av andre KI-modeller.

Du kan se flere videoer fra Lumiere via denne koblingen.

Vanskelig å skille fra virkeligheten

Men mens KI-videoer fortsatt er litt vel grovkornede sammenlignet med virkeligheten, har KI-baserte "fotografier" blitt svært realistiske.

Et konkret eksempel: I 2023 benyttet den britiske journalisten Eliot Higgins kunstig intelligens til å lage bilder av Donald Trump som ble arrestert.

Han la ut bildene på Twitter – i dag kjent som X – der de ble sett og delt av millioner av mennesker.

Og selv om Higgins var klar på at dette var KI-genererte bilder, endte de med å skape viralt kaos da de ble delt i det vide og brede, og mange trodde at bildene viste en reell hendelse.

LES OGSÅ: ChatGPT: Prøv prateroboten alle snakker om – på norsk

Bildene ble laget i KI-verktøyet Midjourney, og det tok ikke mange sekundene for den kunstige intelligensen å sette dem sammen. Det viser hvor raskt et bilde kan brukes til å spre feilinformasjon og falske nyheter.

Ekte eller falskt?

Hvis du ser et bilde eller en video som du tror kan være falskt, er det flere ting som kan avsløre om bildet eller videoen er KI-generert.

LES OGSÅ: Oversett tekst med kunstig intelligens

Du bør i utgangspunktet alltid være kritisk når du bombarderes med bilder og videoer – og du kan alltid sjekke følgende: