fbpx
Nyheter

Disse personene eksisterer ikke

De fleste er enige i at man ikke skal tro på alt man ser, hører og leser på internett. Dette må tas til nye nivåer når datateknologien stadig blir flinkere til å lure oss. Hvordan skal man klare å skille innhold som er ekte fra innhold som er generert av en datamaskin?

This Person Does Not Exist genererer et nytt ansikt hver gang man laster inn nettsiden. Den har fått øve på utallige portretter av mennesker, slik at den nå genererer nye, unike ansikt. Ansiktene er realistiske og troverdige, men personene eksisterer ikke. Klarer du å peke ut hvilket av portrettene under som er et ekte menneske?

bilder-sammen-aspect-ratio-9-16
Portrettbilde av to personer

Hvilket av portrettene er et ekte menneske? Fasiten finner du i bunnen av artikkelen. Foto: Thispersondoesnotexist.com og Unsplash.

Maskinlæring klarer å generere manipulert, falskt innhold i store mengder. Teknologien konstruerer et helt nytt bilde som er basert på innhold maskinen har fått øve på. Den er autonom, og krever lite arbeid av et menneske for å utføres. Innholdet kalles for Deep Fakes, og kan være alt fra bilder, videoer, tekst og lyd.

Nettsiden illustrerer både teknologiens tilgjengelighet og potensial. Ansiktene kan for eksempel kopieres og gjøre det enklere å lage falske profiler på sosiale medier. Falske profiler har allerede blitt brukt flere ganger i utlandet til å spre desinformasjon. Ukjente aktører i Iran opprettet falske profiler på sosiale medier for å fremme iranske interesser i USA. Et mer kjent tilfelle er når Russland opprettet falske profiler i et forsøk på å forsterke polariseringen i USA i 2016. Slik desinformasjon sprer mistillit, som kan komme til uttrykk i konspirasjonsteorier eller hensynsløs kanselleringskultur, og skape utfordringer for demokratiet. Hvordan skal man klare å ta gode demokratiske avgjørelser når man ikke lenger kan skille mellom hva som er ekte og generert innhold? Det kan i det minste hjelpe å forstå hvordan teknologien fungerer.

To systemer som kjemper mot hverandre

Deep Fakes blir laget ved hjelp av en metode som kalles Generative Adversarial Networks (GAN). Håkon Hukkelås, stipendiat ved Institutt for datateknologi og informatikk ved NTNU, forsker på GAN og bruker metoden til å anonymisere bildedata. Istedenfor å anonymisere mennesker ved sladding, der hele ansiktet blir uklart, bytter han ansiktene ut med genererte, falske ansikt. Dette gjør at forskning kan bruke data uten at det bryter med personvern, som er nyttig i blant annet medisinsk forskning og utviklingen av autonome kjøretøy.

foto-Kai-Dragland.-aspect-ratio-9-16
Portrettbilde av Kai

Håkon Hukkelås påpeker at GAN har mange gode bruksområder, selv om den er mest kjent for utviklingen av Deep Fakes. Foto: Kai Dragland.

Hukkelås forklarer at GAN klarer å lage Deep Fakes ved at to forskjellige nevrale nettverk kjemper mot hverandre. Kort forklart, lærer nevrale nettverk seg å kjenne igjen mønster i data.

– GAN består av en generator og en diskriminator. Generatoren prøver å lage noe som ser ekte ut, imens diskriminatoren prøver å skille bildene fra de som er genererte eller ekte, forklarer Hukkelås.

Slik lærer GAN seg hva som gjør at et generert bilde blir realistisk og troverdig. Resultatet avhenger både av kvaliteten på treningsdataen og på regneressursene til datamaskinen. Det er spesielt veksten i regneressursene de siste femten årene som har gjort at tilgjengeligheten av Deep Fakes har skutt fart.

Hvordan identifisere Deep Fakes

Hukkelås har et par tips til hvordan man skal identifisere falske bilder og videoer. Nøkkelen er å legge merke til små detaljer og følge med på bevegelsesmønstrene.

– For eksempel dersom noen har endret et ansikt kan man legge merke til at skuldrene virker litt feilplassert, eller at det er forskjellige farger på øynene, utdyper Hukkelås.

Ettersom teknologien blir mer realistisk, blir identifisering en stadig vanskeligere oppgave for et vanlig menneske. Mange forskere jobber dermed med nye teknologiske metoder for å detektere genererte bilder. Facebook arrangerte Deep Fake Detection Challenge, med mål om å utvikle nye måter å identifisere Deep Fake innhold, der den beste metoden hadde en suksessrate på 83 prosent.

Kildekritikk er viktig

Roar Thon er fagdirektør i sikkerhetskultur ved Nasjonal sikkerhetsmyndighet (NSM), og følger nøye med på utviklingen av manipulert innhold. Han påpeker at spredningen av desinformasjon ikke er et problem i Norge, men at NSM likevel forbereder seg på å håndtere utfordringene når de kommer.

foto-Bard-Gudim-aspect-ratio-9-16
Et bilde av Roar Thon

Roar Thon sier at teknologien kan brukes til positive ting, samtidig som den også kan misbrukes, slik det er med all teknologi. Foto: Bård Gudim

Han forteller at en av utfordringene kan være en ny form for direktørsvindel. Direktørsvindel er typisk at en ansatt får en e-post som ser ut som den er fra sjefen med instruksjoner om å utføre en rask utbetaling.

– Vi har sett saker i utlandet der direktørsvindel har blitt kombinert med telefonsamtaler. Da er det et ekte menneske som snakker, men der teknologi har manipulert stemmen til å høres ut som sjefen, forteller Thon.

Ifølge Thon er kildekritikk den beste beskyttelsen mot falskt innhold.

– Hvis jeg oppdaget noe mistenkelig på nettet, er en av de første tingene jeg ville gjort å sjekke andre kilder, er Thons anbefaling avslutningsvis.

(Portrettet til høyre er av et ekte menneske. Portrettet til venstre er generert av en maskin, og personen eksisterer ikke).