Daxdi now accepts payments with Bitcoin

Deepfake Nedir? | Daxdi

Massachusetts Teknoloji Enstitüsü'nde (MIT) doktora ö?rencisi olan Alexander Amini, derin ö?renme üzerine 2020 giri? dersinin aç?l?? oturumunda ünlü bir konu?u davet etti: eski ABD Ba?kan? Barack Obama.

S?n?fa video konferansla kat?lan Obama, “Derin ö?renme, robotikten t?bba kadar pek çok alanda devrim yarat?yor” dedi.

Yapay zekan?n erdemleri hakk?nda biraz daha konu?tuktan sonra, Obama önemli bir aç?klama yapt?: "Asl?nda bu konu?ma ve videonun tamam? gerçek de?il ve derin ö?renme ve yapay zeka kullan?larak olu?turuldu."

Amini'nin Obama videosu asl?nda bir derin sahte—Bir aktörün yüz hareketlerinin bir hedefinkine aktar?ld??? yapay zeka ile de?i?tirilmi? bir video.

?lk kez 2018'de ortaya ç?kt???ndan beri, deepfake teknolojisi hobi amaçl? deneylerden etkili ve tehlikeli bir araca dönü?tü.

Deepfake'ler ünlülere ve politikac?lara kar?? kullan?ld? ve gerçe?in dokusuna bir tehdit haline geldi.

Deepfake'ler Nas?l Çal???r?

Deepfake uygulamalar? çe?itli ?ekillerde çal???r.

Baz?lar?, bir aktörün yüz hareketlerini, bu makalenin ba??nda gördü?ümüz gibi bir hedef videoya ya da komedyen Jordan Peele taraf?ndan sahte haber tehdidi konusunda uyarmak için yarat?lan bu Obama derin taklidine aktar?yor:

Di?er deepfake'ler, hedef bir ki?inin yüzünü di?er videolara e?ler; örne?in, Nicolas Cage'in yüzünün farkl? filmlerdeki karakterlerin yüzüyle e?le?tirildi?i bu video.

Ço?u ça?da? yapay zeka tabanl? uygulama gibi, deepfake'ler de derin sinir a?lar?n? (deepfake'in "derin" inin geldi?i yerdir), özellikle büyük veri kümelerinde kal?plar? ve korelasyonlar? bulmada iyi olan bir yapay zeka algoritmas? türü kullan?r.

Sinir a?lar?n?n özellikle bilgisayar bilimi dal? olan bilgisayar görü?ünde ve görsel verileri i?leyen yapay zeka alan?nda iyi oldu?u kan?tlanm??t?r.

Deepfakes, "otomatik kodlay?c?" ad? verilen özel bir sinir a?? yap?s? kullan?r.

Otomatik kodlay?c?lar iki bölümden olu?ur: bir görüntüyü küçük miktarda veriye s?k??t?ran bir kodlay?c?; ve s?k??t?r?lm?? verileri tekrar orijinal görüntüye açan bir kod çözücü.

Mekanizma, JPEG ve MPEG gibi görüntü ve video codec bile?enlerine benzer.

Two Minute Papers'?n izniyle

Ancak piksel gruplar? üzerinde çal??an klasik kodlay?c? / kod çözücü yaz?l?m?n?n aksine, otomatik kodlay?c? ?ekiller, nesneler ve dokular gibi görüntülerde bulunan özellikler üzerinde çal???r.

?yi e?itilmi? bir otomatik kodlay?c?, s?k??t?rma ve açma i?leminin ötesine geçebilir ve di?er görevleri gerçekle?tirebilir - örne?in, yeni görüntüler olu?turma veya grenli görüntülerden gürültüyü kald?rma.

Yüz görüntüleri üzerine e?itildi?inde, bir otomatik kodlay?c? yüzün özelliklerini ö?renir: gözler, burun, a??z, ka?lar vb.

Deepfake uygulamalar? iki otomatik kodlay?c? kullan?r; biri aktörün yüzüne göre e?itilmi?, di?eri ise hedefin yüzüne göre e?itilmi?tir.

Uygulama, aktörün yüz hareketlerini hedefe aktarmak için iki otomatik kodlay?c?n?n giri? ve ç?k??lar?n? de?i?tirir.

Deepfake'i Özel Yapan Nedir?

Deepfake teknolojisi, videolardaki yüzleri de?i?tirebilen tek tür de?il.

Asl?nda, VFX (görsel efektler) endüstrisi bunu onlarca y?ld?r yap?yor.

Ancak deepfake'lerden önce, yetenek, bol miktarda teknik kayna?a eri?imi olan derin cepli film stüdyolar?yla s?n?rl?yd?.

Deepfake'ler, videolardaki yüzleri de?i?tirme yetene?ini demokratikle?tirdi.

Bu teknoloji art?k iyi bir i?lemciye ve güçlü grafik kart?na (Nvidia GeForce GTX 1080 gibi) sahip bir bilgisayar? olan veya bulut bilgi i?lem ve GPU kaynaklar?n? kiralamak için birkaç yüz dolar harcayabilen herkes taraf?ndan kullan?labilir.

Bununla birlikte, derin sahte olu?turmak ne önemsizdir ne de tamamen otomatiktir.

Teknoloji giderek daha iyi hale geliyor, ancak düzgün bir deepfake olu?turmak hala çok zaman ve manuel çal??ma gerektiriyor.

Öncelikle hedefin ve oyuncunun yüzlerinin birçok foto?raf?n? toplamal?s?n?z ve bu foto?raflar her yüzü farkl? aç?lardan göstermelidir.

Süreç genellikle hedef ve aktörü öne ç?karan videolardan binlerce karenin al?nmas?n? ve yaln?zca yüzleri içerecek ?ekilde k?rp?lmas?n? içerir.

Faceswap gibi yeni derin sahte araçlar, çerçeve ç?karma ve k?rpmay? otomatikle?tirerek ayak i?inin bir k?sm?n? yapabilir, ancak yine de manuel ince ayar gerektirirler.

Yapay zeka modelini e?itmek ve derin sahte olu?turmak, donan?m yap?land?rman?za ve e?itim verilerinizin kalitesine ba?l? olarak birkaç günden iki haftaya kadar sürebilir.

Deepfake'in Tehlikeleri

En sevdi?iniz filmler için e?lenceli e?itici videolar ve özel yap?mlar olu?turmak, deepfake'lerin tek kullan?m? de?ildir.

Yapay zeka ile düzeltilmi? videolar?n, olumlu ve iyi huylu kullan?mlar?ndan çok daha belirgin hale gelen karanl?k bir taraf? var.

?lk deepfake program?n?n yay?nlanmas?ndan k?sa bir süre sonra Reddit, ünlülerin ve politikac?lar?n yer ald??? sahte pornografi videolar?yla doldu.

Deepfake'lerle paralel olarak, di?er yapay zeka destekli teknolojilerin geli?tirilmesi, sadece yüzünü de?il, ayn? zamanda neredeyse herkesin sesini de taklit etmeyi mümkün k?ld?.

Editörlerimiz Taraf?ndan Önerildi

Deepfake'lerin yükseli?i ba?ka endi?elere de neden oldu.

??te tam zaman?nda: Sahte porno olu?turmak için teknolojiyi kullanan biri varsa, kötü oyuncular?n politikac?lar?n tart??mal? sözler söyleyen sahte videolar?n? yaymas?n? engelleyen nedir?

Sosyal medya algoritmalar?n?n yanl?? bilgilerin yay?lmas?n? nas?l h?zland?rd???na dair haberlerle birlikte, deepfake teknolojisinin tetikledi?i sahte haber krizi tehdidi, özellikle ABD 2020 ba?kanl?k seçimlerine haz?rlan?rken ciddi bir endi?e haline geldi.

ABD'li milletvekilleri, derin sahtekarl?klar? ulusal güvenli?e yönelik bir tehdit olarak i?aretlediler ve dezenformasyon kampanyalar? yoluyla kamuoyunu etkilemek için teknolojinin olas? suistimallerine ili?kin birkaç oturum düzenlediler.

Ve deepfake'leri yasaklayan ve onlar? yaratan ve da??tan insanlar? hesap sormak için bir dizi yasal önlem gördük.

Deepfake'lere Kar?? Mücadele

Daha önceki derin sahteler, do?al olmayan göz k?rpma ve anormal ten rengi varyasyonlar? dahil ç?plak gözle görülebilen görsel eserler içeriyordu.

Ancak deepfake'ler sürekli olarak geli?iyor.

Ara?t?rmac?lar, derin sahteleri tespit etmek için, yaln?zca teknoloji geli?meye ve daha do?al sonuçlar vermeye devam ettikçe etkisiz hale geldiklerini görmek için yeni teknikler geli?tiriyorlar.

Bu nedenle, 2020 ba?kanl?k seçimleri yakla??rken, büyük teknoloji ?irketleri ve devlet kurumlar?, derin sahtekarl?klar?n yay?lmas?na kar?? koymak için yar???yor.

Eylül ay?nda Facebook, Microsoft ve birkaç üniversite, derin sahteleri ve di?er yapay zeka ile ilgili videolar? tespit edebilen araçlar geli?tirmek için bir yar??ma ba?latt?.

Facebook CTO'su Michael Schroepfer, Deepfake'i tan?tan bir blog gönderisinde, "Bu, spam veya di?er rakip zorluklara çok benzer ?ekilde sürekli geli?en bir sorundur ve umudumuz, endüstri ve AI toplulu?unun bir araya gelmesine yard?mc? olarak daha h?zl? ilerleme kaydedebilmemizdir." Alg?lama Sorunu.

Sosyal medya devi, sektör çap?ndaki çabaya 10 milyon dolar ay?rd?.

Savunma Bakanl???'n?n ara?t?rma kolu olan DARPA, derin sahtekarl?klar?n ve di?er otomatik dezenformasyon sald?r?lar?n?n yay?lmas?n? engellemek için bir giri?im ba?latt?.

DARPA, üzerinde oynanm?? videolar? ve görüntüleri tespit etmenin yan? s?ra, sahte medyan?n olu?turulmas?na dahil olan taraflar?n ili?kilendirilmesini ve tan?mlanmas?n? kolayla?t?rman?n yollar?n? arayacakt?r.

Üniversitelerdeki ve ara?t?rma laboratuvarlar?ndaki di?er çabalar, görüntülerdeki de?i?tirilmi? alanlar? tespit etmek için derin ö?renmeden, bir temel gerçe?i olu?turmak ve güvenilir videolar? kaydetmek için blok zinciri kullanmaya kadar uzan?yor.

Ancak sonuçta, ara?t?rmac?lar, derin sahtekarl??a kar?? mücadelenin bir kedi-fare kovalamacas?na dönü?tü?ü konusunda hemfikir.

Geçen y?l bir ara?t?rmac?n?n söyledi?i gibi, “Ne yaparsak yapal?m, bu manipülasyonlar? yaratan insanlar ba?ka bir ?ey buluyorlar.

Her türlü manipülasyonu tespit edebilece?imiz bir zaman olacak m? bilmiyorum.

"

Massachusetts Teknoloji Enstitüsü'nde (MIT) doktora ö?rencisi olan Alexander Amini, derin ö?renme üzerine 2020 giri? dersinin aç?l?? oturumunda ünlü bir konu?u davet etti: eski ABD Ba?kan? Barack Obama.

S?n?fa video konferansla kat?lan Obama, “Derin ö?renme, robotikten t?bba kadar pek çok alanda devrim yarat?yor” dedi.

Yapay zekan?n erdemleri hakk?nda biraz daha konu?tuktan sonra, Obama önemli bir aç?klama yapt?: "Asl?nda bu konu?ma ve videonun tamam? gerçek de?il ve derin ö?renme ve yapay zeka kullan?larak olu?turuldu."

Amini'nin Obama videosu asl?nda bir derin sahte—Bir aktörün yüz hareketlerinin bir hedefinkine aktar?ld??? yapay zeka ile de?i?tirilmi? bir video.

?lk kez 2018'de ortaya ç?kt???ndan beri, deepfake teknolojisi hobi amaçl? deneylerden etkili ve tehlikeli bir araca dönü?tü.

Deepfake'ler ünlülere ve politikac?lara kar?? kullan?ld? ve gerçe?in dokusuna bir tehdit haline geldi.

Deepfake'ler Nas?l Çal???r?

Deepfake uygulamalar? çe?itli ?ekillerde çal???r.

Baz?lar?, bir aktörün yüz hareketlerini, bu makalenin ba??nda gördü?ümüz gibi bir hedef videoya ya da komedyen Jordan Peele taraf?ndan sahte haber tehdidi konusunda uyarmak için yarat?lan bu Obama derin taklidine aktar?yor:

Di?er deepfake'ler, hedef bir ki?inin yüzünü di?er videolara e?ler; örne?in, Nicolas Cage'in yüzünün farkl? filmlerdeki karakterlerin yüzüyle e?le?tirildi?i bu video.

Ço?u ça?da? yapay zeka tabanl? uygulama gibi, deepfake'ler de derin sinir a?lar?n? (deepfake'in "derin" inin geldi?i yerdir), özellikle büyük veri kümelerinde kal?plar? ve korelasyonlar? bulmada iyi olan bir yapay zeka algoritmas? türü kullan?r.

Sinir a?lar?n?n özellikle bilgisayar bilimi dal? olan bilgisayar görü?ünde ve görsel verileri i?leyen yapay zeka alan?nda iyi oldu?u kan?tlanm??t?r.

Deepfakes, "otomatik kodlay?c?" ad? verilen özel bir sinir a?? yap?s? kullan?r.

Otomatik kodlay?c?lar iki bölümden olu?ur: bir görüntüyü küçük miktarda veriye s?k??t?ran bir kodlay?c?; ve s?k??t?r?lm?? verileri tekrar orijinal görüntüye açan bir kod çözücü.

Mekanizma, JPEG ve MPEG gibi görüntü ve video codec bile?enlerine benzer.

Two Minute Papers'?n izniyle

Ancak piksel gruplar? üzerinde çal??an klasik kodlay?c? / kod çözücü yaz?l?m?n?n aksine, otomatik kodlay?c? ?ekiller, nesneler ve dokular gibi görüntülerde bulunan özellikler üzerinde çal???r.

?yi e?itilmi? bir otomatik kodlay?c?, s?k??t?rma ve açma i?leminin ötesine geçebilir ve di?er görevleri gerçekle?tirebilir - örne?in, yeni görüntüler olu?turma veya grenli görüntülerden gürültüyü kald?rma.

Yüz görüntüleri üzerine e?itildi?inde, bir otomatik kodlay?c? yüzün özelliklerini ö?renir: gözler, burun, a??z, ka?lar vb.

Deepfake uygulamalar? iki otomatik kodlay?c? kullan?r; biri aktörün yüzüne göre e?itilmi?, di?eri ise hedefin yüzüne göre e?itilmi?tir.

Uygulama, aktörün yüz hareketlerini hedefe aktarmak için iki otomatik kodlay?c?n?n giri? ve ç?k??lar?n? de?i?tirir.

Deepfake'i Özel Yapan Nedir?

Deepfake teknolojisi, videolardaki yüzleri de?i?tirebilen tek tür de?il.

Asl?nda, VFX (görsel efektler) endüstrisi bunu onlarca y?ld?r yap?yor.

Ancak deepfake'lerden önce, yetenek, bol miktarda teknik kayna?a eri?imi olan derin cepli film stüdyolar?yla s?n?rl?yd?.

Deepfake'ler, videolardaki yüzleri de?i?tirme yetene?ini demokratikle?tirdi.

Bu teknoloji art?k iyi bir i?lemciye ve güçlü grafik kart?na (Nvidia GeForce GTX 1080 gibi) sahip bir bilgisayar? olan veya bulut bilgi i?lem ve GPU kaynaklar?n? kiralamak için birkaç yüz dolar harcayabilen herkes taraf?ndan kullan?labilir.

Bununla birlikte, derin sahte olu?turmak ne önemsizdir ne de tamamen otomatiktir.

Teknoloji giderek daha iyi hale geliyor, ancak düzgün bir deepfake olu?turmak hala çok zaman ve manuel çal??ma gerektiriyor.

Öncelikle hedefin ve oyuncunun yüzlerinin birçok foto?raf?n? toplamal?s?n?z ve bu foto?raflar her yüzü farkl? aç?lardan göstermelidir.

Süreç genellikle hedef ve aktörü öne ç?karan videolardan binlerce karenin al?nmas?n? ve yaln?zca yüzleri içerecek ?ekilde k?rp?lmas?n? içerir.

Faceswap gibi yeni derin sahte araçlar, çerçeve ç?karma ve k?rpmay? otomatikle?tirerek ayak i?inin bir k?sm?n? yapabilir, ancak yine de manuel ince ayar gerektirirler.

Yapay zeka modelini e?itmek ve derin sahte olu?turmak, donan?m yap?land?rman?za ve e?itim verilerinizin kalitesine ba?l? olarak birkaç günden iki haftaya kadar sürebilir.

Deepfake'in Tehlikeleri

En sevdi?iniz filmler için e?lenceli e?itici videolar ve özel yap?mlar olu?turmak, deepfake'lerin tek kullan?m? de?ildir.

Yapay zeka ile düzeltilmi? videolar?n, olumlu ve iyi huylu kullan?mlar?ndan çok daha belirgin hale gelen karanl?k bir taraf? var.

?lk deepfake program?n?n yay?nlanmas?ndan k?sa bir süre sonra Reddit, ünlülerin ve politikac?lar?n yer ald??? sahte pornografi videolar?yla doldu.

Deepfake'lerle paralel olarak, di?er yapay zeka destekli teknolojilerin geli?tirilmesi, sadece yüzünü de?il, ayn? zamanda neredeyse herkesin sesini de taklit etmeyi mümkün k?ld?.

Editörlerimiz Taraf?ndan Önerildi

Deepfake'lerin yükseli?i ba?ka endi?elere de neden oldu.

??te tam zaman?nda: Sahte porno olu?turmak için teknolojiyi kullanan biri varsa, kötü oyuncular?n politikac?lar?n tart??mal? sözler söyleyen sahte videolar?n? yaymas?n? engelleyen nedir?

Sosyal medya algoritmalar?n?n yanl?? bilgilerin yay?lmas?n? nas?l h?zland?rd???na dair haberlerle birlikte, deepfake teknolojisinin tetikledi?i sahte haber krizi tehdidi, özellikle ABD 2020 ba?kanl?k seçimlerine haz?rlan?rken ciddi bir endi?e haline geldi.

ABD'li milletvekilleri, derin sahtekarl?klar? ulusal güvenli?e yönelik bir tehdit olarak i?aretlediler ve dezenformasyon kampanyalar? yoluyla kamuoyunu etkilemek için teknolojinin olas? suistimallerine ili?kin birkaç oturum düzenlediler.

Ve deepfake'leri yasaklayan ve onlar? yaratan ve da??tan insanlar? hesap sormak için bir dizi yasal önlem gördük.

Deepfake'lere Kar?? Mücadele

Daha önceki derin sahteler, do?al olmayan göz k?rpma ve anormal ten rengi varyasyonlar? dahil ç?plak gözle görülebilen görsel eserler içeriyordu.

Ancak deepfake'ler sürekli olarak geli?iyor.

Ara?t?rmac?lar, derin sahteleri tespit etmek için, yaln?zca teknoloji geli?meye ve daha do?al sonuçlar vermeye devam ettikçe etkisiz hale geldiklerini görmek için yeni teknikler geli?tiriyorlar.

Bu nedenle, 2020 ba?kanl?k seçimleri yakla??rken, büyük teknoloji ?irketleri ve devlet kurumlar?, derin sahtekarl?klar?n yay?lmas?na kar?? koymak için yar???yor.

Eylül ay?nda Facebook, Microsoft ve birkaç üniversite, derin sahteleri ve di?er yapay zeka ile ilgili videolar? tespit edebilen araçlar geli?tirmek için bir yar??ma ba?latt?.

Facebook CTO'su Michael Schroepfer, Deepfake'i tan?tan bir blog gönderisinde, "Bu, spam veya di?er rakip zorluklara çok benzer ?ekilde sürekli geli?en bir sorundur ve umudumuz, endüstri ve AI toplulu?unun bir araya gelmesine yard?mc? olarak daha h?zl? ilerleme kaydedebilmemizdir." Alg?lama Sorunu.

Sosyal medya devi, sektör çap?ndaki çabaya 10 milyon dolar ay?rd?.

Savunma Bakanl???'n?n ara?t?rma kolu olan DARPA, derin sahtekarl?klar?n ve di?er otomatik dezenformasyon sald?r?lar?n?n yay?lmas?n? engellemek için bir giri?im ba?latt?.

DARPA, üzerinde oynanm?? videolar? ve görüntüleri tespit etmenin yan? s?ra, sahte medyan?n olu?turulmas?na dahil olan taraflar?n ili?kilendirilmesini ve tan?mlanmas?n? kolayla?t?rman?n yollar?n? arayacakt?r.

Üniversitelerdeki ve ara?t?rma laboratuvarlar?ndaki di?er çabalar, görüntülerdeki de?i?tirilmi? alanlar? tespit etmek için derin ö?renmeden, bir temel gerçe?i olu?turmak ve güvenilir videolar? kaydetmek için blok zinciri kullanmaya kadar uzan?yor.

Ancak sonuçta, ara?t?rmac?lar, derin sahtekarl??a kar?? mücadelenin bir kedi-fare kovalamacas?na dönü?tü?ü konusunda hemfikir.

Geçen y?l bir ara?t?rmac?n?n söyledi?i gibi, “Ne yaparsak yapal?m, bu manipülasyonlar? yaratan insanlar ba?ka bir ?ey buluyorlar.

Her türlü manipülasyonu tespit edebilece?imiz bir zaman olacak m? bilmiyorum.

"

Daxdi

Daxdi.com Cookies

Daxdi.com size daha iyi bir çevrimiçi deneyim sunmak ve tercihlerinize göre kişiselleştirilmiş çevrimiçi ticari mesajlar göndermek için çerezleri (teknik ve profil çerezleri, hem kendi hem de üçüncü taraf) kullanırız. Seçimlerinizi özelleştirmeden web sitemizdeki herhangi bir içeriğe devam etmeyi veya erişmeye devam etmeyi seçerseniz, çerezlerin kullanımını kabul edersiniz.

Çerez politikamız ve tanımlama bilgilerinin nasıl reddi hakkında daha fazla bilgi için

buradan erişebilirsiniz.

Tercihler

Devam