Tänk dig att någon kan bygga en digital kopia av dig i en dator, och skapa filmer där du gör eller säger vad som helst. Det låter som science fiction, men är verklighet nu när datorer kan skapa så kallade deepfakes. Hur ska vi kunna lita på det vi ser när allt kan förfalskas?
Om du ser ett videoklipp där USA:s president talar från Vita huset tror du förmodligen att det är på riktigt. Allt finns ju på film och kameran ljuger inte, eller? Men dagens kraftfulla datorer har snabbt blivit bättre på att förfalska en människas ansikte och minspel. Datorn kan nu ta en video på en människa och klistra in en digital kopia av någon annans ansikte. Plötsligt kan du skapa en film där presidenten säger vad som helst, eller där någon annan är president.
Tekniken används till att skapa grundligt gjorda förfalskningar
Den här tekniken kallas deepfake, och innebär förfalskningar som är grundligt gjorda och väldigt genomarbetade. Ordet är en sammanslagning av fake, alltså förfalskning, och begreppet Deep Learning vilket betyder datorsystem som kan lära sig automatiskt och därför själva blir bättre och bättre på det de gör. Och det är inte bara politiker som riskerar att råka illa ut.
På internet cirkulerar redan tusentals videoklipp där kändisar – mestadels kvinnliga – ser ut att figurera i en porrfilm. Kändisens ansikte har återskapats av en dator, och klistrats in i filmen. Tekniken går snabbt framåt och med hjälp av AI går det idag att skapa falska videor av nästan vad som helst.
Även vanliga människor kan drabbas. Datorerna och tekniken blir snabbt bättre och enklare att använda. Det som förut krävde en hel avdelning för specialeffekter i en Hollywood-studio kan nu göras av nästan vem som helst. En någorlunda kraftfull dator är allt som krävs för att analysera ett ansikte och återskapa det. Och hela tiden blir programmen bättre på att lära sig hur ett mänskligt ansikte ser ut och rör sig.
Automatiskt och ständigt bättre deepfakes
Deepfakes är ett ganska nytt fenomen, och det var först 2017 som man började använda begreppet. Att förfalska bilder på kändisar och andra har man däremot gjort så länge det funnits fotografier. På vilket sätt är det annorlunda nu? Fredrik Heintz är docent vid Linköpings universitet som forskar på artificiell intelligens, och enligt honom är den stora skillnaden idag att systemen är automatiska.
– Det är datorerna som gör jobbet, och nästan vem som helst kan hämta hem program till sin dator som byter ut ansikten i filmer. Att det är video det handlar om gör också att resultatet blir mer övertygande, och de sprids lätt på sociala medier. Förutom att det är väldigt lätt att skapa falska filmer och att de ofta ser mycket verkliga ut, är det alltså väldigt enkelt idag att sprida och dela.
Hög underhållningsfaktor – men också stora risker med deepfake
Precis som med all teknik finns både möjligheter och risker, och en stor del av de deepfake-videor som finns är både harmlösa och underhållande. Fantasifulla kreatörer har bland annat ägnat sig åt att byta ut skådespelare i sina favoritfilmer – ett projekt arbetar exempelvis med att sätta in skådespelaren Nicolas Cage i alla långfilmer som någonsin gjorts. Många av oss har säkert också lekt med mobilappar som kan byta ansikte på två personer i bild – det är i grund och botten samma teknik som används.
Men att det också finns stora problem går inte att bortse från. Enligt Fredrik Heintz är en av riskerna att viktiga politiska beslut skulle kunna påverkas genom att folk manipuleras av falska videor. Ett annat bekymmer är att vårt förtroende för media i allmänhet urholkas när vi inte kan vara säkra på att det vi ser är sant.
– Den största risken är att vår tilltro till medier och information minskar. Det är ett väldigt brett problem som drabbar hela samhället. Sen finns det såklart risker för enskilda individer, både kändisar och privatpersoner. De kan placeras i sammanhang som är förnedrande eller skadliga för deras karriärer, säger Fredrik Heintz.
Hedvig Kjellström är professor på Kungliga Tekniska Högskolan, KTH, och hon håller med om riskerna både för enskilda personer och samhället i stort. Hon säger:
– Det blir mycket svårare att bedöma vad som är sant och vad som är falskt när man inte längre kan lita på att den film av till exempel en politiker man ser är autentisk. Det ger också skrämmande nya möjligheter att smutskasta offentliga personer och skapa falska nyheter som sprider sig snabbt i sociala nätverk.
Fejkad kändisporr och falsk politik vanliga exempel på deepfakes
De vanligaste exemplen på där deepfakes missbrukas är alltså politik och porr. Detta har dels att göra med att den typen av material brukar ha en stor efterfrågan, men också för att det tekniskt sett är ganska lätt att skapa sådana videor.
Filmer på politiker finns det många av, så den som letar efter en förlaga att förfalska behöver sällan leta länge. Här behöver eventuellt datorn inte heller ändra hela ansiktet, utan det räcker kanske att ändra på munnen och läpprörelserna samt lägga till nytt ljud. Plötsligt existerar en video där en politiker säger något som kanske går helt emot dennes politik.
Den största risken är att vår tilltro till medier och information minskar.
Hedvig Kjellström
En del fejkvideos använder röstskådespelare som imiterar politikerns röst, men detta är något som en dator i allt högre grad kan göra bättre. Dagens AI-verktyg kan med hjälp av några befintliga inspelningar skapa en övertygande falsk inspelning av vilken röst som helst. Hedvig Kjellström säger:
– Det är nästan lättare att förfalska röst än bild, och det finns mycket bra metoder idag för röstsyntes. De bygger på samma typ av Deep Learning-teknik som används för att förfalska bild och video.
Läckta sexfilmer med kändisar är sedan tidigare ett eftertraktat fenomen inom porrbranschen, och med deepfake-teknik kan sådana filmer lätt skapas trots att de alltså inte existerar i verkligheten. Att privata sexfilmer ofta spelas in på mobilkamera i dålig belysning gör de enklare att fejka. Om videon förväntas vara brusig och ha dålig bild blir det ju svårare att se om den är förfalskad. Precis som för politiker finns det också oftast ett stort antal bilder på artister och skådespelare att hämta, så datorerna kan analysera många bilder och lära sig skapa en väldigt trovärdig kopia.
Vanliga människor kan också drabbas av deepfakes
Men det är inte bara kändisar som drabbas av förfalskningarna, utan även vanliga människor löper risk. För inte så länge sen krävdes det ett ganska stort antal fotografier på en person för att datorn skulle kunna lära sig dess utseende, men numera behövs inte lika många. Enligt Hedvig Kjellström beror det på att datornätverken vid det här laget sett så många andra bilder på personer.
– Datorsystemen har lärt sig hur människor i allmänhet ser ut och pratar. Då räcker det med några få bilder eller filmer på en person för att datorn ska kunna skapa en avbild. Och det kan bli riktigt övertygande och se verkligt ut ner på pixelnivå.
Det går att tänka sig avancerade former av hämndporr, eller förfalskade filmer som används för att påverka vårdnadstvister.
Det här innebär att deepfakes skulle kunna skapas med vem som helst i en sexvideo, utifrån bilder som finns tillgängliga på nätverk som Facebook eller i ett fotoalbum. Redan idag är det ett stort problem med så kallad hämndporr; där en före detta partner laddar upp avklädda bilder och filmer på sitt ex. Det problemet riskerar att bli ännu värre när vem som helst kan hamna i en video. Du kan läsa mer om vilket rättsligt skydd du har mot hämndporr och förtal på nätet här.
– Precis som med bedrägerier i allmänhet så är det inte alla som råkar illa ut, men den här nya tekniken kan självklart drabba privatpersoner. Det går att tänka sig avancerade former av hämndporr, eller förfalskade filmer som används för att påverka vårdnadstvister till exempel, säger Fredrik Heintz.
Hur skyddar man sig?
Den som söker på exempelvis Youtube efter "deepfake" hittar idag ett stort antal videor av varierande kvalitet - de flesta har skapats i rent underhållningssyfte. En del av dessa är ganska lätta att avslöja som fejk, men många är betydligt svårare att genomskåda. Om systemen fortsätter att bli bättre kommer vi få allt svårare att avslöja sådana här falska videor med blotta ögat.
Skyddet stavas främst källkritik. Vi måste bli ännu bättre på att dubbelkolla och verifiera påståenden.
Fredrik Heintz
Men helt hopplöst är läget ändå inte, för precis som att självlärande datorsystem blir bättre på att skapa förfalskade videor finns det också andra system som blir bättre på att avslöja dem, enligt Fredrik Heintz. Han hänvisar bland annat till ett verktyg som utvecklats på universitetet UC Berkeley i Kalifornien som kan användas för att avslöja förfalskade videor. Hedvig Kjellström håller med, den enda metoden som kan fungera i längden är att fortsätta utveckla och förbättra sådana verktyg, så att de håller jämna steg med teknikutvecklingen. Hon säger:
– Det vi kan göra är att utveckla bättre och bättre avmaskningstekniker som kan avslöja falska videor, med samma typ av maskininlärningsmetoder som förfalskningstekniken använder sig av. Det blir fråga om en slags kapprustning.
Fredrik Heintz tror visserligen att vi kommer få bättre datorverktyg för att avslöja falska videor, men att de mest effektiva verktygen vi har är vårt förnuft och vår förmåga till kritiskt tänkande.
– Skyddet stavas främst källkritik. Vi måste bli ännu bättre på att dubbelkolla och verifiera påståenden. Det är såklart en utmaning på flera sätt.
Källkritik handlar främst om att ställa sig själv kritiska frågor kring en video man ser, till exempel vem som har delat den och varför. Är själva budskapet troligt eller rimligt?
Mycket av det som sprids idag kan vara huvudsakligen sant men extremt vinklat och taget ur sitt sammanhang.
Fredrik Heintz
Både Fredrik Heintz och Hedvig Kjellström är slutligen också överens om att media har ett stort ansvar i frågan. Tidningar och andra nyhetsbyråer måste bli bättre på att ifrågasätta material innan det publiceras.
– Medier med en ansvarig utgivare måste givetvis göra sitt jobb att källgranska och säkerställa sanningshalten i ett påstående. Men alla privatpersoner har också ett ansvar att inte blint sprida saker vidare utan att källgranska de också, säger Hedvig Kjellström.
Det håller även Fredrik Heintz med om, han säger:
– Det kan vara en komplex fråga vad som är falskt. Mycket av det som sprids idag kan vara huvudsakligen sant men extremt vinklat och taget ur sitt sammanhang. Det jag skulle önska är att media blev mer nyanserade och bättre på att ta upp komplexa frågor – eftersom de flesta intressanta frågor är komplexa.