Annons

Experter varnar för falska nyhetsvideor i valkampanjer

Med artificiell intelligens kan politiker och andra kändisar fås att säga saker på video som de aldrig sagt. Den så kallade ”deepfake”-tekniken blir allt bättre och riskerar blir ett propagandaverktyg. Videofilmer kan förlora sin tidigare ställning som trovärdig källa.

Under strecket
Publicerad

Med deepfake-teknik kan videos manipuleras och politiker, som förre amerikanske presidenten Barack Obama, kan fås att säga saker de aldrig har sagt.

Foto: AP Bild 1 av 2

Exempel på videoredigering som används för att skapa en falsk version av en känd person.

Foto: Bloomberg/Stanford University Bild 2 av 2

Med deepfake-teknik kan videos manipuleras och politiker, som förre amerikanske presidenten Barack Obama, kan fås att säga saker de aldrig har sagt.

Foto: AP Bild 1 av 2

Exempel på videoredigering som används för att skapa en falsk version av en känd person.

Foto: Bloomberg/Stanford University Bild 2 av 2
Med deepfake-teknik kan videos manipuleras och politiker, som förre amerikanske presidenten Barack Obama, kan fås att säga saker de aldrig har sagt.
Med deepfake-teknik kan videos manipuleras och politiker, som förre amerikanske presidenten Barack Obama, kan fås att säga saker de aldrig har sagt. Foto: AP

NEW YORK Inför det amerikanska kongressvalet i november rullas den ena kampanjvideon mer aggressiv än den andra ut. I urvalet finns exempelvis en valfilm som målar ut motståndaren som en förespråkare av ett samhälle där kvinnor är ägodelar såsom i den populära tv-serien ”Handsmaids tale”. Smutskastning och medvetna feltolkningar är vardagsmat inför politiska val – precis som falska sociala medie-konton och påhittade nyheter i syfte att vrida opinionen.

Hotet från falska nyheter växer nu när tekniken tillåter trovärdiga förvanskningar av hela videofilmer – med så kallad ”deepfake”-teknik går det att producera exempelvis falska kampanjfilmer.

Exempel på videoredigering som används för att skapa en falsk version av en känd person.
Exempel på videoredigering som används för att skapa en falsk version av en känd person. Foto: Bloomberg/Stanford University
Annons
Annons

Efter skjutningen på en skola i Parkland i Florida i februari blossade frågan om vapenlagar upp på den politiska agendan. En bild på en av studenterna som ledde proteströrelsen, Emma Gonzalez, förvanskades och spreds. På den äkta bilden rev hon sönder en affisch med ett prickskytteöga. På den förvanskade bilden river hon sönder USA:s konstitution – ett sätt att försöka visa att Gonzales är ett hot mot det många amerikaner (och en mäktig vapenlobby) menar är den grundlagsskyddande rätten att bära vapen.

Nu är många oroade över att det snart är lika enkelt att fejka hela videofilmer med hjälp av artificiell intelligens. Genom att en persons rörelsemönster läses av om och om igen och lagras kan program lära sig att upprepa mönstret. När rörelsemönstret sedan appliceras på en person kan man skapa hela videofilmer där en person säger vad som helst. Exempelvis har utvecklare lyckats skapa fejkade videofilmer med Donald Trump och Barack Obama. En teknik som om den blir mer lättgänglig har potential att ta falska nyheter till en ny nivå.

Jämfört med vanliga förvanskningar och fejkade nyheter har videon dessutom en särställning när det gäller trovärdighet. I många brottsfall är videoövervakning svårt att argumentera mot och polisvåld mot svarta uppmärksammades först på allvar när kameror fångade händelserna.

Annons
Annons

I presidentvalskampanjen 2016 dök en inspelning upp där Donald Trump hördes säga att han som känd person kan ta vilken kvinna som helst mellan benen. Senare försökte Trump sprida bilden att videon var falsk. Men det utspelet fick inte fäste, trots att Trump brukar kunna få sina kärnväljare att svälja mycket. Videofilmer är helt enkelt svåra att argumentera mot – än så länge.

Danielle Keats Citron, juridikprofessor på University of Maryland, forskar på hur ”deepfake” och falska nyheter kan påverka nationell säkerhet, integritetsfrågor och demokratin. Hon lyfter många potentiella användningsområden för ”deepfake news”, som exempelvis att skapa social oro med videofilmer som påstås visa muslimer som hyllar terrorgruppen IS i en amerikansk stad. Sådana videofilmer kan också effektivt smutskasta politiker som otrogna, knarkförsäljare eller som någon som tar emot mutor, vilket kan utnyttjas inför demokratiska val.

– Vad som bekymrar mig mest är det känslomässiga tilltalet i falska ljudupptagningar och falska videoinspelningar i jämförelse med gamla falska nyheter som alltid funnits, säger Danielle Keats Citron.

Hon menar att dagens trender förstärker varandra: känslorna som en video kan skapa i kombination med möjligheterna att snabbt sprida falska nyheter inom så kallade ”filterbubblor” på sociala medier där användarna bara utsätts för information de gillar eller tror på. Människan tenderar tro på saker som stämmer överens med hennes egen världsbild och på sociala medier är det enkelt att bara ta del av material som inte utmanar den världsbilden.

– Faktagranskning kan hjälpa och jag tror att journalister är nyckeln till att avslöja huruvida någon var vid en viss plats eller sa något på en specifik dag vid en specifik tid. Problemet är hur fort och brett ”deepfake news” hinner spridas innan videon hinner faktagranskas, säger Danielle Keats Citron.

Efter reklamen visas:
Så undviker du fake news
Annons
Annons
Annons
Annons
Annons