Daxdi now accepts payments with Bitcoin

Mis on Deepfake? | Daxdi

Massachusettsi tehnoloogiainstituudi (MIT) doktorant Alexander Amini kutsus oma 2020.

aasta süvaõppe sissejuhatava kursuse avaistungil kuulsa külalise: USA endise presidendi Barack Obama.

"Sügav õppimine muudab revolutsiooni nii paljudes valdkondades, alates robootikast kuni meditsiinini ja kõigeni selle vahel," ütles Obama, kes liitus klassiga videokonverentsi teel.

Olles veidi rohkem rääkinud tehisintellekti voorustest, tegi Obama olulise paljastuse: "Tegelikult pole kogu see kõne ja video tõeline ning need loodi sügava õppimise ja tehisintellekti abil."

Amini Obama video oli tegelikult a sügav võlts- tehisintellektiga töödeldud video, kus näitleja näoliigutused viiakse sihtmärgi oma.

Alates esmakordsest ilmumisest 2018.

aastal on deepfake tehnoloogia harrastajatest eksperimenteerimisest muutunud tõhusaks ja ohtlikuks tööriistaks.

Kuulsuste ja poliitikute vastu on kasutatud süvavõltsinguid ja need on muutunud ohuks tõe kangale.

Kuidas Deepfakes töötavad?

Deepfake-rakendused töötavad mitmel viisil.

Mõned viivad näitleja näoliigutused sihtvideole, nagu see, mida nägime selle artikli alguses, või see Obama deepfake, mille koomik Jordan Peele lõi võltsuudiste ohu eest hoiatamiseks:

Teised deepfakes kaardistavad sihtisiku näo teistele videotele - näiteks see Nicolas Cage'i video video kaardistati erinevate filmide tegelaste omale.

Nagu enamik tänapäevaseid tehisintellektipõhiseid rakendusi, kasutavad ka deepfakes sügavaid närvivõrke (sealt pärineb deepfake'i “deep”) - seda tehisintellekti algoritmi tüüpi, mis on eriti hea mustrite ja seoste leidmiseks suurtest andmekogumitest.

Närvivõrgud on osutunud eriti heaks arvutinägemuses - arvutiteaduse ja tehisintellekti harus, mis tegeleb visuaalsete andmetega.

Deepfakes kasutab spetsiaalset närvivõrgu struktuuri, mida nimetatakse "autoencoderiks".

Autokooderid koosnevad kahest osast: kooder, mis tihendab pildi väikeseks andmehulgaks; ja dekooder, mis tihendab tihendatud andmed tagasi algseks pildiks.

Mehhanism on sarnane piltide ja videokoodekite nagu JPEG ja MPEG omadega.

Pilt viisakalt kaheminutilistest dokumentidest

Kuid erinevalt klassikalisest kodeerija / dekoodri tarkvarast, mis töötab pikslite rühmadel, töötab autokooder piltidel leiduvate funktsioonide, näiteks kujundite, objektide ja tekstuuride puhul.

Hästi koolitatud autokooder võib ületada tihendamise ja dekompressiooni ning täita muid ülesandeid - näiteks luua uusi pilte või eemaldada teralistelt piltidelt müra.

Näokujude väljaõppimisel õpib autode kooder näojooni: silmad, nina, suu, kulmud jne.

Deepfake-rakendustes kasutatakse kahte autokooderit - ühte treenitakse näitleja näol ja teist sihtmärgi näol.

Rakendus vahetab kahe auto kooderi sisendid ja väljundid, et kanda näitleja näoliigutused sihtmärgini.

Mis teeb Deepfakes eriliseks?

Deepfake-tehnoloogia pole ainus, mis videotes nägusid vahetada saab.

Tegelikult on VFX (visuaalefektid) tööstus seda teinud juba aastakümneid.

Kuid enne sügavaid võltsinguid piirdus võimalus sügavate taskutega filmistuudiotega, millel oli juurdepääs arvukatele tehnilistele ressurssidele.

Deepfakes on demokratiseerinud võime videotes nägusid vahetada.

Nüüd on see tehnoloogia kättesaadav kõigile, kellel on korraliku protsessori ja tugeva graafikakaardiga arvuti (näiteks Nvidia GeForce GTX 1080) või kes võib kulutada paarsada dollarit pilvandmetöötluse ja GPU ressursside rentimiseks.

Nagu öeldud, pole võltsingute loomine triviaalne ega täielikult automatiseeritud.

Tehnoloogia muutub järk-järgult paremaks, kuid korraliku deepfake'i loomine nõuab siiski palju aega ja käsitsi tööd.

Esiteks peate koguma palju fotosid sihtmärgi ja näitleja nägudest ning need fotod peavad näitama kummalgi näol erineva nurga alt.

Protsess hõlmab tavaliselt tuhandete kaadrite haaramist videotest, millel on sihtmärk ja näitleja, ja kärpides need ainult nägusid sisaldama.

Uued deepfake-tööriistad, nagu Faceswap, saavad osa säärtööst teha, automatiseerides raami väljavõtmist ja kärpimist, kuid need nõuavad siiski käsitsi näpistamist.

Tehisintellekti mudeli koolitamine ja deepfake'i loomine võib võtta aega mitu päeva kuni kaks nädalat, olenevalt riistvara konfiguratsioonist ja treeningandmete kvaliteedist.

Deepfakesi ohud

Lõbusate õppevideote ja lemmikfilmide loomine lemmikvõtete jaoks pole ainus süvavõltside kasutus.

Tehisintellektiga ravitud videodel on tumedam külg, mis on muutunud palju silmatorkavamaks kui nende positiivsed ja healoomulised kasutusalad.

Varsti pärast esimese sügava võltsimisprogrammi avaldamist ujutas Reddit võltsitud pornograafilised videod, kus osalesid kuulsused ja poliitikud.

Paralleelselt sügavate võltsingutega on muude tehisintellektil töötavate tehnoloogiate väljatöötamine võimaldanud lisaks näo, vaid ka praktiliselt igaühe hääle võltsimisele.

Soovitasid meie toimetajad

Sügavvõltside tõus on tekitanud ka muid muret.

Siin on õigeaegne: kui keegi saab kasutada võltsporno loomiseks tehnoloogiat, siis mis takistab halbadel näitlejatel levitada võltsvideoid poliitikutest, kes teevad vastuolulisi märkusi?

Aruannetega selle kohta, kuidas sotsiaalmeedia algoritmid kiirendavad valeandmete levikut, on võltsitud uudiste kriisi oht, mille on põhjustanud võltsitud tehnoloogia, muutunud tõsiseks mureks, eriti kui USA valmistub 2020.

aasta presidendivalimisteks.

USA seadusandjad on märkinud, et võltsingud kujutavad endast ohtu riiklikule julgeolekule, ja on korraldanud mitmeid kuulamisi tehnoloogia võimalike väärkasutamiste kohta, et desinformatsioonikampaaniate kaudu avalikku arvamust mõjutada.

Ja oleme näinud paljusid seadusandlikke meetmeid võltsingute keelustamiseks ning nende loomise ja levitamise inimeste vastutusele võtmiseks.

Võitlus võltsingute vastu

Varasemad deepfakes sisaldasid visuaalseid esemeid, mis olid palja silmaga nähtavad, sealhulgas ebaloomulik silmade vilkumine ja ebanormaalsed nahavärvi variatsioonid.

Kuid deepfakes paraneb pidevalt.

Teadlased on välja töötanud süvavõltsimiste avastamiseks uusi tehnikaid ainult selleks, et näha nende ebaefektiivsust, kuna tehnoloogia areneb edasi ja annab looduslikumaid tulemusi.

Nii et kui 2020.

aasta presidendivalimised on lõppenud, on suuremad tehnoloogiaettevõtted ja valitsusasutused võidelnud võltsitud võltside levikule vastu.

Septembris algatasid Facebook, Microsoft ja mitmed ülikoolid võistluse, et töötada välja tööriistad, mis suudaksid tuvastada võltsinguid ja muid tehisintellektiga ravitud videoid.

"See on pidevalt arenev probleem, nagu rämpspost või muud võistluslikud väljakutsed, ja meie lootus on, et aidates tööstusel ja tehisintellektil kogukonnal kokku saada, saame kiiremini edasi liikuda," kirjutas Deepfake'i tutvustanud blogi postituses Facebooki tehnoloogiajuht Michael Schroepfer.

Tuvastamise väljakutse.

Sotsiaalmeedia hiiglane on kogu tööstusharu pingutustele eraldanud 10 miljonit dollarit.

Kaitseministeeriumi uurimisüksus DARPA on samuti käivitanud algatuse sügavate võltsingute ja muude automatiseeritud desinformatsioonirünnakute leviku pidurdamiseks.

Lisaks arstitud videote ja piltide avastamisele otsib DARPA võimalusi võltsmeedia loomisega seotud osapoolte omistamise ja tuvastamise hõlbustamiseks.

Teised jõupingutused ülikoolides ja uurimislaborites ulatuvad sügava õppimise kasutamisest piltidel modifitseeritud alade tuvastamiseks kuni plokiahela kasutamiseni, et teha kindlaks tõde ja registreerida usaldusväärsed videod.

Kuid kokkuvõttes nõustuvad teadlased, et võitlus sügavate võltsingute vastu on muutunud kassi ja hiire jälitamiseks.

Nagu üks teadlane ütles mulle eelmisel aastal: „Mida iganes me ka ei teeks, mõtlevad inimesed, kes need manipulatsioonid loovad, midagi muud välja.

Ma ei tea, kas kunagi tuleb aeg, kus suudame tuvastada igasuguse manipuleerimise.

"

Massachusettsi tehnoloogiainstituudi (MIT) doktorant Alexander Amini kutsus oma 2020.

aasta süvaõppe sissejuhatava kursuse avaistungil kuulsa külalise: USA endise presidendi Barack Obama.

"Sügav õppimine muudab revolutsiooni nii paljudes valdkondades, alates robootikast kuni meditsiinini ja kõigeni selle vahel," ütles Obama, kes liitus klassiga videokonverentsi teel.

Olles veidi rohkem rääkinud tehisintellekti voorustest, tegi Obama olulise paljastuse: "Tegelikult pole kogu see kõne ja video tõeline ning need loodi sügava õppimise ja tehisintellekti abil."

Amini Obama video oli tegelikult a sügav võlts- tehisintellektiga töödeldud video, kus näitleja näoliigutused viiakse sihtmärgi oma.

Alates esmakordsest ilmumisest 2018.

aastal on deepfake tehnoloogia harrastajatest eksperimenteerimisest muutunud tõhusaks ja ohtlikuks tööriistaks.

Kuulsuste ja poliitikute vastu on kasutatud süvavõltsinguid ja need on muutunud ohuks tõe kangale.

Kuidas Deepfakes töötavad?

Deepfake-rakendused töötavad mitmel viisil.

Mõned viivad näitleja näoliigutused sihtvideole, nagu see, mida nägime selle artikli alguses, või see Obama deepfake, mille koomik Jordan Peele lõi võltsuudiste ohu eest hoiatamiseks:

Teised deepfakes kaardistavad sihtisiku näo teistele videotele - näiteks see Nicolas Cage'i video video kaardistati erinevate filmide tegelaste omale.

Nagu enamik tänapäevaseid tehisintellektipõhiseid rakendusi, kasutavad ka deepfakes sügavaid närvivõrke (sealt pärineb deepfake'i “deep”) - seda tehisintellekti algoritmi tüüpi, mis on eriti hea mustrite ja seoste leidmiseks suurtest andmekogumitest.

Närvivõrgud on osutunud eriti heaks arvutinägemuses - arvutiteaduse ja tehisintellekti harus, mis tegeleb visuaalsete andmetega.

Deepfakes kasutab spetsiaalset närvivõrgu struktuuri, mida nimetatakse "autoencoderiks".

Autokooderid koosnevad kahest osast: kooder, mis tihendab pildi väikeseks andmehulgaks; ja dekooder, mis tihendab tihendatud andmed tagasi algseks pildiks.

Mehhanism on sarnane piltide ja videokoodekite nagu JPEG ja MPEG omadega.

Pilt viisakalt kaheminutilistest dokumentidest

Kuid erinevalt klassikalisest kodeerija / dekoodri tarkvarast, mis töötab pikslite rühmadel, töötab autokooder piltidel leiduvate funktsioonide, näiteks kujundite, objektide ja tekstuuride puhul.

Hästi koolitatud autokooder võib ületada tihendamise ja dekompressiooni ning täita muid ülesandeid - näiteks luua uusi pilte või eemaldada teralistelt piltidelt müra.

Näokujude väljaõppimisel õpib autode kooder näojooni: silmad, nina, suu, kulmud jne.

Deepfake-rakendustes kasutatakse kahte autokooderit - ühte treenitakse näitleja näol ja teist sihtmärgi näol.

Rakendus vahetab kahe auto kooderi sisendid ja väljundid, et kanda näitleja näoliigutused sihtmärgini.

Mis teeb Deepfakes eriliseks?

Deepfake-tehnoloogia pole ainus, mis videotes nägusid vahetada saab.

Tegelikult on VFX (visuaalefektid) tööstus seda teinud juba aastakümneid.

Kuid enne sügavaid võltsinguid piirdus võimalus sügavate taskutega filmistuudiotega, millel oli juurdepääs arvukatele tehnilistele ressurssidele.

Deepfakes on demokratiseerinud võime videotes nägusid vahetada.

Nüüd on see tehnoloogia kättesaadav kõigile, kellel on korraliku protsessori ja tugeva graafikakaardiga arvuti (näiteks Nvidia GeForce GTX 1080) või kes võib kulutada paarsada dollarit pilvandmetöötluse ja GPU ressursside rentimiseks.

Nagu öeldud, pole võltsingute loomine triviaalne ega täielikult automatiseeritud.

Tehnoloogia muutub järk-järgult paremaks, kuid korraliku deepfake'i loomine nõuab siiski palju aega ja käsitsi tööd.

Esiteks peate koguma palju fotosid sihtmärgi ja näitleja nägudest ning need fotod peavad näitama kummalgi näol erineva nurga alt.

Protsess hõlmab tavaliselt tuhandete kaadrite haaramist videotest, millel on sihtmärk ja näitleja, ja kärpides need ainult nägusid sisaldama.

Uued deepfake-tööriistad, nagu Faceswap, saavad osa säärtööst teha, automatiseerides raami väljavõtmist ja kärpimist, kuid need nõuavad siiski käsitsi näpistamist.

Tehisintellekti mudeli koolitamine ja deepfake'i loomine võib võtta aega mitu päeva kuni kaks nädalat, olenevalt riistvara konfiguratsioonist ja treeningandmete kvaliteedist.

Deepfakesi ohud

Lõbusate õppevideote ja lemmikfilmide loomine lemmikvõtete jaoks pole ainus süvavõltside kasutus.

Tehisintellektiga ravitud videodel on tumedam külg, mis on muutunud palju silmatorkavamaks kui nende positiivsed ja healoomulised kasutusalad.

Varsti pärast esimese sügava võltsimisprogrammi avaldamist ujutas Reddit võltsitud pornograafilised videod, kus osalesid kuulsused ja poliitikud.

Paralleelselt sügavate võltsingutega on muude tehisintellektil töötavate tehnoloogiate väljatöötamine võimaldanud lisaks näo, vaid ka praktiliselt igaühe hääle võltsimisele.

Soovitasid meie toimetajad

Sügavvõltside tõus on tekitanud ka muid muret.

Siin on õigeaegne: kui keegi saab kasutada võltsporno loomiseks tehnoloogiat, siis mis takistab halbadel näitlejatel levitada võltsvideoid poliitikutest, kes teevad vastuolulisi märkusi?

Aruannetega selle kohta, kuidas sotsiaalmeedia algoritmid kiirendavad valeandmete levikut, on võltsitud uudiste kriisi oht, mille on põhjustanud võltsitud tehnoloogia, muutunud tõsiseks mureks, eriti kui USA valmistub 2020.

aasta presidendivalimisteks.

USA seadusandjad on märkinud, et võltsingud kujutavad endast ohtu riiklikule julgeolekule, ja on korraldanud mitmeid kuulamisi tehnoloogia võimalike väärkasutamiste kohta, et desinformatsioonikampaaniate kaudu avalikku arvamust mõjutada.

Ja oleme näinud paljusid seadusandlikke meetmeid võltsingute keelustamiseks ning nende loomise ja levitamise inimeste vastutusele võtmiseks.

Võitlus võltsingute vastu

Varasemad deepfakes sisaldasid visuaalseid esemeid, mis olid palja silmaga nähtavad, sealhulgas ebaloomulik silmade vilkumine ja ebanormaalsed nahavärvi variatsioonid.

Kuid deepfakes paraneb pidevalt.

Teadlased on välja töötanud süvavõltsimiste avastamiseks uusi tehnikaid ainult selleks, et näha nende ebaefektiivsust, kuna tehnoloogia areneb edasi ja annab looduslikumaid tulemusi.

Nii et kui 2020.

aasta presidendivalimised on lõppenud, on suuremad tehnoloogiaettevõtted ja valitsusasutused võidelnud võltsitud võltside levikule vastu.

Septembris algatasid Facebook, Microsoft ja mitmed ülikoolid võistluse, et töötada välja tööriistad, mis suudaksid tuvastada võltsinguid ja muid tehisintellektiga ravitud videoid.

"See on pidevalt arenev probleem, nagu rämpspost või muud võistluslikud väljakutsed, ja meie lootus on, et aidates tööstusel ja tehisintellektil kogukonnal kokku saada, saame kiiremini edasi liikuda," kirjutas Deepfake'i tutvustanud blogi postituses Facebooki tehnoloogiajuht Michael Schroepfer.

Tuvastamise väljakutse.

Sotsiaalmeedia hiiglane on kogu tööstusharu pingutustele eraldanud 10 miljonit dollarit.

Kaitseministeeriumi uurimisüksus DARPA on samuti käivitanud algatuse sügavate võltsingute ja muude automatiseeritud desinformatsioonirünnakute leviku pidurdamiseks.

Lisaks arstitud videote ja piltide avastamisele otsib DARPA võimalusi võltsmeedia loomisega seotud osapoolte omistamise ja tuvastamise hõlbustamiseks.

Teised jõupingutused ülikoolides ja uurimislaborites ulatuvad sügava õppimise kasutamisest piltidel modifitseeritud alade tuvastamiseks kuni plokiahela kasutamiseni, et teha kindlaks tõde ja registreerida usaldusväärsed videod.

Kuid kokkuvõttes nõustuvad teadlased, et võitlus sügavate võltsingute vastu on muutunud kassi ja hiire jälitamiseks.

Nagu üks teadlane ütles mulle eelmisel aastal: „Mida iganes me ka ei teeks, mõtlevad inimesed, kes need manipulatsioonid loovad, midagi muud välja.

Ma ei tea, kas kunagi tuleb aeg, kus suudame tuvastada igasuguse manipuleerimise.

"

Daxdi

Daxdi.com Cookies

Daxdi.com me kasutame küpsiseid (nii meie kui ka kolmanda osapoole tehnilisi ja profiiliküpsiseid), et pakkuda teile paremat veebikogemust ja saata teile isikupärastatud veebipõhiseid kommertssõnumeid vastavalt teie eelistustele. Kui valite meie veebisaidil oleva sisu jätkamise või sellele juurdepääsu ilma valikuid kohandamata, nõustute küpsiste kasutamisega.

Lisateavet küpsiste poliitika ja küpsiste hülgamise kohta leiate

juurdepääsu siia.

Eelistused

Jätkata