I åbningssessionen af ??hans 2020-introduktionskursus om dyb læring inviterede Alexander Amini, en ph.d.-studerende ved Massachusetts Institute of Technology (MIT), en berømt gæst: den tidligere amerikanske præsident Barack Obama.
”Dyb læring revolutionerer så mange felter, fra robotik til medicin og alt imellem,” sagde Obama, der sluttede sig til klassen ved videokonference.
Efter at have talt lidt mere om dyderne ved kunstig intelligens, fremsatte Obama en vigtig åbenbaring: "Faktisk er hele denne tale og video ikke reel og blev skabt ved hjælp af dyb læring og kunstig intelligens."
Aminis Obama-video var faktisk en dyb forfalskning—En AI-doktreret video, hvor en skuespillers ansigtsbevægelser overføres til et mål.
Siden første optræden i 2018 har deepfake teknologi udviklet sig fra hobbyeksperimentering til et effektivt og farligt værktøj.
Deepfakes er blevet brugt mod berømtheder og politikere og er blevet en trussel mod selve sandheden.
Hvordan fungerer Deepfakes?
Deepfake-applikationer fungerer på forskellige måder.
Nogle overfører ansigtsbevægelser af en skuespiller til en målvideo, som den, vi så i begyndelsen af ??denne artikel, eller denne Obama dybfalske oprettet af komiker Jordan Peele for at advare om truslen om falske nyheder:
Andre dybe forfalskninger kortlægger en målpersons ansigt på andre videoer - for eksempel er denne video af Nicolas Cages ansigt kortlagt på karakterer i forskellige film.
Som de fleste moderne AI-baserede applikationer bruger deepfakes dybe neurale netværk (det er her "deep" i deepfake kommer fra), en type AI-algoritme, der er særlig god til at finde mønstre og korrelationer i store datasæt.
Neurale netværk har vist sig at være særligt gode til computersyn, den gren af ??datalogi og AI, der håndterer visuelle data.
Deepfakes bruger en speciel type neuralt netværksstruktur kaldet en "autoencoder." Autokodere er sammensat af to dele: en indkoder, der komprimerer et billede til en lille mængde data; og en dekoder, der dekomprimerer de komprimerede data tilbage til det originale billede.
Mekanismen svarer til billed- og videokodecs som JPEG og MPEG.
Men i modsætning til klassisk encoder / dekoder-software, der fungerer på grupper af pixels, fungerer autokoderen på de funktioner, der findes i billeder, såsom figurer, objekter og strukturer.
En veluddannet autokoder kan gå ud over komprimering og dekompression og udføre andre opgaver - f.eks.
Generere nye billeder eller fjerne støj fra kornede billeder.
Når en træner i billeder af ansigter, lærer en autoencoder funktionerne i ansigtet: øjne, næse, mund, øjenbryn osv.
Deepfake-applikationer bruger to autokodere - en trænet i skuespillerens ansigt og den anden trænet i målsiden.
Applikationen bytter input og output fra de to autokodere for at overføre skuespillerens ansigtsbevægelser til målet.
Hvad gør Deepfakes specielt?
Deepfake-teknologi er ikke den eneste slags, der kan bytte ansigter i videoer.
Faktisk har VFX-branchen (visuelle effekter) gjort dette i årtier.
Men før deepfakes var kapaciteten begrænset til dyblommede filmstudier med adgang til rigelige tekniske ressourcer.
Deepfakes har demokratiseret evnen til at bytte ansigter i videoer.
Teknologien er nu tilgængelig for alle, der har en computer med en anstændig processor og et stærkt grafikkort (såsom Nvidia GeForce GTX 1080) eller kan bruge et par hundrede dollars på at leje cloud computing og GPU-ressourcer.
Når det er sagt, er oprettelse af deepfakes hverken trivielt eller fuldt automatiseret.
Teknologien bliver gradvist bedre, men at skabe en anstændig deepfake kræver stadig meget tid og manuelt arbejde.
Først skal du samle mange fotos af målet og skuespilleren, og disse fotos skal vise hvert ansigt fra forskellige vinkler.
Processen indebærer normalt at få fat i tusinder af rammer fra videoer, der indeholder målet og skuespilleren, og beskære dem for kun at indeholde ansigterne.
Nye dybe falske værktøjer som Faceswap kan gøre en del af benarbejde ved at automatisere rammeudtræk og beskæring, men de kræver stadig manuel tilpasning.
Uddannelse af AI-modellen og oprettelse af deepfake kan tage alt fra flere dage til to uger afhængigt af din hardwarekonfiguration og kvaliteten af ??dine træningsdata.
Farerne ved Deepfakes
Oprettelse af sjove undervisningsvideoer og tilpassede rollebesætninger til dine yndlingsfilm er ikke de eneste anvendelser af deepfakes.
AI-doktrerede videoer har en mørkere side, der er blevet meget mere fremtrædende end dens positive og godartede anvendelser.
Kort efter at det første deepfake-program blev frigivet, blev Reddit oversvømmet med falske pornografiske videoer, der indeholdt berømtheder og politikere.
Sammen med deepfakes har udviklingen af ??andre AI-drevne teknologier gjort det muligt ikke kun at falske ansigtet, men også stemmen til næsten enhver.
Anbefalet af vores redaktører
Stigningen af ??dybe forfalskninger har også forårsaget andre bekymringer.
Her er en rettidig: Hvis nogen kan bruge teknologi til at skabe falsk porno, hvad forhindrer dårlige skuespillere i at sprede falske videoer af politikere med kontroversielle bemærkninger?
Med rapporter om, hvordan algoritmer for sociale medier fremskynder spredningen af ??falske oplysninger, er truslen om en falsk nyhedskrise udløst af dybfalske teknologi blevet en alvorlig bekymring, især da USA forbereder sig på præsidentvalget i 2020.
Amerikanske lovgivere har markeret dybe forfalskninger som en trussel mod den nationale sikkerhed og har afholdt flere høringer om mulig misbrug af teknologien til at påvirke den offentlige mening gennem desinformationskampagner.
Og vi har set en række lovgivningsmæssige foranstaltninger for at forbyde dybe forfalskninger og stille de mennesker, der opretter og distribuerer dem til ansvar.
Kampen mod Deepfakes
Tidligere dybe forfalskninger indeholdt visuelle artefakter, der var synlige for det blotte øje, herunder unaturlige øjenblink og unormale hudfarvevariationer.
Men dybe forfalskninger forbedres konstant.
Forskere har udtænkt nye teknikker til kun at opdage dybe forfalskninger for at se dem blive ineffektive, da teknologien fortsætter med at udvikle sig og give mere naturlige resultater.
Så da præsidentvalget i 2020 nærmer sig, har store teknologivirksomheder og regeringsorganer kæmpet for at imødegå spredningen af ??dybe forfalskninger.
I september lancerede Facebook, Microsoft og flere universiteter en konkurrence om at udvikle værktøjer, der kan opdage deepfakes og andre AI-doktrerede videoer.
"Dette er et konstant udviklende problem, ligesom spam eller andre kontroversielle udfordringer, og vores håb er, at ved at hjælpe branchen og AI-samfundet sammen kan vi gøre hurtigere fremskridt," skrev Facebook CTO Michael Schroepfer i et blogindlæg, der introducerede Deepfake Opdagelsesudfordring.
Den sociale mediegigant har afsat 10 millioner dollars til den brancheindsats.
DARPA, Forsvarsministeriets forskningsarm, har også lanceret et initiativ til at bremse spredningen af ??deepfakes og andre automatiserede desinformationsangreb.
Ud over at opdage doktrerede videoer og billeder vil DARPA lede efter måder at lette tilskrivning og identifikation af de parter, der er involveret i oprettelsen af ??falske medier.
Anden indsats ved universiteter og forskningslaboratorier spænder fra at bruge dyb læring til at opdage modificerede områder i billeder til brug af blockchain til at etablere en grundlæggende sandhed og registrere pålidelige videoer.
Men alt i alt er forskere enige om, at kampen mod deepfakes er blevet en kat-og-mus-jagt.
Som en forsker fortalte mig sidste år, ”Uanset hvad vi gør, kommer folk, der skaber disse manipulationer med noget andet.
Jeg ved ikke, om der nogensinde vil være et tidspunkt, hvor vi vil være i stand til at opdage enhver form for manipulation.
”








