Experter om fejktrenden: Samma lÀxa igen

Tekniken Àr rÀddningen nÀr tekniken lurar ögat. Det menar tvÄ svenska experter pÄ deepfake.
–Det hĂ€r ser Ă€kta ut men det behöver det inte vara, sĂ€ger en av dem.

SkÄdespelaren och komikern Bill Hader kan med deepfake-teknik ögonblickligen förvandlas till Arnold Schwarzenegger. Bilden Àr ett montage.

SkÄdespelaren och komikern Bill Hader kan med deepfake-teknik ögonblickligen förvandlas till Arnold Schwarzenegger. Bilden Àr ett montage.

Foto: Youtube/Montage

Vetenskap & teknologi2021-04-03 08:15

KÀndisars ansikten i porr. Politiker som sÀger grovt rasistiska saker. Att kunna manipulera video har blivit lÀttare och mer tillgÀngligt i takt med teknikutvecklingen. SÄ Àven kvaliteten pÄ sÄ kallade deepfakes, att klistra pÄ nÄgons ansikte pÄ ett redan existerande filmklipp.

Tekniken anvÀnds bland annat för att fÄ det att framstÄ som om kvinnliga kÀndisar, dÀribland Bianca Ingrosso, medverkat i porr.

TvÄ svenska experter inom deepfake som TT pratat med menar att utvecklingen nÄtt stadiet dÀr det mÀnskliga ögat inte lÀngre hÀnger med.

– Mycket i ai-vĂ€rlden blir enklare att göra för varje dag, sĂ€ger Jörgen Ahlberg, docent i datorseende vid Linköpings universitet.

Enligt Ahlberg krÀvs det fortfarande en viss detaljkunskap för att göra övertygande fejkfilmer, men i grunden behövs det bara en bra bild för att "dataprogrammet" man skapat sedan ska göra resten.

Program mot program

Ahlberg jÀmför deepfake-lÀget med hur uttrycket "kameran ljuger inte" fick sig en törn i takt med allt mer utbredd och lÀttillgÀnglig bildmanipulering.

– Det Ă€r nog samma lĂ€xa man fĂ„r lĂ€ra sig igen, pĂ„ nĂ€sta nivĂ„, sĂ€ger han.

Men om det mÀnskliga ögat inte lÀngre kan avgöra vad som Àr Àkta och vad som Àr falskt, vad kan dÄ fÄ fram sanningen?

Ahlberg menar att svaret Àr "dataprogram" som slÄr ut andra "dataprogram".

– Det handlar om att ta fram ai-metoder som kan avslöja andra ai-metoder.

Han fĂ„r medhĂ„ll av Kalle Åström, professor i matematik vid Lunds universitet och en av de som jobbat med system som avslöjar falskt videoinnehĂ„ll pĂ„ nĂ€tet.

– Ofta trĂ€nar man de hĂ€r programmen sida vid sida. Du har ett som du optimerar för att göra förfalskningar och ett som du optimerar för att avslöja dem. Det blir som en inbyggd katt och rĂ„tta-lek dĂ€r du trĂ€nar upp den ena biten samtidigt som du trĂ€nar upp den andra, sĂ€ger han.

Inte hundra

En möjlig framtida utveckling Àr att webblÀsare, sociala medier eller hemsidor har inbyggda system som direkt flaggar om nÄgot pÄ plattformen har manipulerats.

Det skulle dock, enligt Åström, inte vara nĂ„got hundraprocentigt skydd.

– Systemen som finns som ska upptĂ€cka falskt innehĂ„ll Ă€r inte hundraprocentiga. Det Ă€r svĂ„rt att göra Ă€ven maskinellt.

Anledningen till det stavas Äterigen teknikutveckling.

– Det Ă€r ju inget som sĂ€ger att metoderna som kanske utvecklas om ett Ă„r blir Ă€nnu bĂ€ttre pĂ„ att lura de hĂ€r som ska identifiera, sĂ€ger Kalle Åström.

Datorseende och algoritmer

Mycket av den sÄ kallade deepfake-tekniken grundar sig pÄ datorseende och algoritmer.

Grovt förenklat gÄr det ut pÄ att datorer eller program i sig inte kan sÀrskilja pÄ exempelvis en bild pÄ en bil eller en blomma. Men med hjÀlp av algoritmer kan de lÀra sig. Med hjÀlp av algoritmer kan en dator eller ett program "se".

Algoritmerna, speciella instruktioner som antingen gjorts av mĂ€nniskor eller av andra algoritmer, lĂ€r datorer att se en bild och avgöra innehĂ„llet. Är det en bil? Är det en blomma? Eller Ă€r det Stefan Löfven?

Det Àr pÄ detta sÀtt datorer, med rÀtt algoritmer, kan avgöra vad som Àr och vad som inte Àr ett ansikte. Och eftersom algoritmerna dÀrmed kan titta pÄ andra parametrar Àn den faktiskt visuella representationen av en bild eller en film kan den till skillnad frÄn mÀnniskor avgöra om nÄgot Àr falskt eller inte.

SĂ„ jobbar vi med nyheter  LĂ€s mer hĂ€r!