Daxdi now accepts payments with Bitcoin

Vad är en Deepfake? | Daxdi

Under inledningen av sin introduktionskurs om djupinlärning 2020 bjöd Alexander Amini, doktorand vid Massachusetts Institute of Technology (MIT), en berömd gäst: tidigare USA: s president Barack Obama.

"Djupt lärande revolutionerar så många områden, från robotik till medicin och allt däremellan", sa Obama, som gick med i klassen genom videokonferens.

Efter att ha talat lite mer om dygderna med artificiell intelligens gjorde Obama en viktig uppenbarelse: "Faktum är att hela detta tal och video inte är verkliga och skapades med djup inlärning och artificiell intelligens."

Aminis Obama-video var faktiskt en djupfake—En AI-doktrerad video där en skådespelares ansiktsrörelser överförs till ett mål.

Sedan första uppträdandet 2018 har deepfake-teknologin utvecklats från hobbyist-experiment till ett effektivt och farligt verktyg.

Deepfakes har använts mot kändisar och politiker och har blivit ett hot mot själva sanningen.

Hur fungerar Deepfakes?

Deepfake-applikationer fungerar på olika sätt.

Vissa överför en skådespelares ansiktsrörelser till en målvideo, som den vi såg i början av den här artikeln, eller den här Obama-förfalskningen skapad av komikern Jordan Peele för att varna för hotet om falska nyheter:

Andra djupa förfalskningar kartlägger en målpersons ansikte på andra videor - till exempel den här videon av Nicolas Cages ansikte kartläggs på karaktärer i olika filmer.

Liksom de flesta samtida AI-baserade applikationer använder deepfakes djupa neurala nätverk (det är där "deep" i deepfake kommer ifrån), en typ av AI-algoritm som är särskilt bra för att hitta mönster och korrelationer i stora datamängder.

Neurala nätverk har visat sig vara särskilt bra på datorsyn, den gren av datavetenskap och AI som hanterar visuell data.

Deepfakes använder en speciell typ av neural-nätverk struktur kallas en "autoencoder." Autokodare består av två delar: en kodare, som komprimerar en bild till en liten mängd data; och en avkodare, som dekomprimerar komprimerad data tillbaka till originalbilden.

Mekanismen liknar de för bild- och videokodecer som JPEG och MPEG.

Bild med tillstånd av två minuter

Men till skillnad från klassisk programvara för kodare / avkodare, som fungerar på grupper av pixlar, fungerar autokodaren på de funktioner som finns i bilder, såsom former, objekt och texturer.

En välutbildad autokodare kan gå utöver komprimering och dekompression och utföra andra uppgifter - säg generera nya bilder eller ta bort brus från korniga bilder.

När man tränar på bilder av ansikten lär sig en autokodare ansiktsfunktionerna: ögonen, näsan, munnen, ögonbrynen och så vidare.

Deepfake-applikationer använder två autokodare - en tränad i skådespelarens ansikte och den andra tränad på målets ansikte.

Applikationen byter in- och utgångar från de två autokodrarna för att överföra skådespelarens ansiktsrörelser till målet.

Vad gör Deepfakes speciellt?

Deepfake-teknik är inte den enda typen som kan byta ansikten i videor.

Faktum är att VFX-industrin (visuella effekter) har gjort detta i årtionden.

Men före djupfakes var kapaciteten begränsad till filmstudior med djupa fickor med tillgång till rikliga tekniska resurser.

Deepfakes har demokratiserat möjligheten att byta ansikten i videor.

Tekniken är nu tillgänglig för alla som har en dator med en anständig processor och ett starkt grafikkort (som Nvidia GeForce GTX 1080) eller kan spendera några hundra dollar för att hyra molntjänster och GPU-resurser.

Med detta sagt är det varken trivialt eller helt automatiserat att skapa deepfakes.

Tekniken blir gradvis bättre, men att skapa en anständig deepfake kräver fortfarande mycket tid och manuellt arbete.

Först måste du samla många bilder av målets och skådespelarens ansikten, och dessa bilder måste visa varje ansikte från olika vinklar.

Processen innebär vanligtvis att ta tag i tusentals bilder från videor som innehåller målet och skådespelaren och beskära dem för att endast innehålla ansikten.

Nya deepfake-verktyg som Faceswap kan göra en del av benarbetet genom att automatisera ramutsugningen och beskärningen, men de kräver fortfarande manuell justering.

Att träna AI-modellen och skapa deepfake kan ta allt från flera dagar till två veckor, beroende på din hårdvarukonfiguration och kvaliteten på din träningsdata.

Farorna med Deepfakes

Att skapa roliga pedagogiska videor och anpassade castningar för dina favoritfilmer är inte det enda som används av deepfakes.

AI-doktrerade videor har en mörkare sida som har blivit mycket mer framträdande än dess positiva och godartade användningsområden.

Strax efter att det första deepfake-programmet släpptes blev Reddit översvämmad med falska pornografiska videor som innehöll kändisar och politiker.

Tillsammans med djupa förfalskningar har utvecklingen av andra AI-drivna teknologier gjort det möjligt att inte bara förfalska ansiktet utan också rösten från nästan vem som helst.

Rekommenderas av våra redaktörer

Ökningen av deepfakes har också orsakat andra bekymmer.

Här är en rätt tid: Om någon kan använda teknik för att skapa falsk porr, vad hindrar dåliga skådespelare från att sprida falska videor av politiker som gör kontroversiella kommentarer?

Med rapporter om hur sociala mediealgoritmer påskyndar spridningen av falsk information har hotet om en falsk nyhetskris utlöst av djupfake-teknik blivit ett allvarligt problem, särskilt när USA förbereder sig för presidentvalet 2020.

Amerikanska lagstiftare har flaggat djupa förfalskningar som ett hot mot nationell säkerhet och har hållit flera utfrågningar om möjlig missbruk av tekniken för att påverka allmänheten genom desinformationskampanjer.

Och vi har sett en rad lagstiftningsåtgärder för att förbjuda djupa förfalskningar och hålla de människor som skapar och distribuerar dem till ansvar.

Kampen mot Deepfakes

Tidigare deepfakes innehöll visuella artefakter som var synliga för blotta ögat, inklusive onaturliga ögonblinkningar och onormala hudfärgsvariationer.

Men deepfakes förbättras ständigt.

Forskare har tagit fram nya tekniker för att upptäcka djupa förfalskningar bara för att se dem bli ineffektiva eftersom tekniken fortsätter att utvecklas och ger mer naturliga resultat.

Så när presidentvalet 2020 stängs har stora teknologiföretag och regeringsorgan kämpat för att motverka spridningen av djupa förfalskningar.

I september inledde Facebook, Microsoft och flera universitet en tävling för att utveckla verktyg som kan upptäcka deepfakes och andra AI-doktrerade videor.

"Detta är ett ständigt utvecklat problem, ungefär som skräppost eller andra kontroversiella utmaningar, och vårt hopp är att genom att hjälpa branschen och AI-samhället att gå ihop kan vi göra snabbare framsteg", skrev Facebook CTO Michael Schroepfer i ett blogginlägg som introducerade Deepfake Detektionsutmaning.

Den sociala mediejätten har tilldelat 10 miljoner dollar till den branschövergripande insatsen.

DARPA, forskningsdepartementet vid Försvarsdepartementet, har också lanserat ett initiativ för att begränsa spridningen av djupa förfalskningar och andra automatiserade desinformationsattacker.

Förutom att upptäcka doktrerade videor och bilder kommer DARPA att leta efter sätt att underlätta tillskrivning och identifiering av de parter som är involverade i skapandet av falska medier.

Andra ansträngningar vid universitet och forskningslaboratorier sträcker sig från att använda djupinlärning för att upptäcka modifierade områden i bilder till att använda blockchain för att skapa en grundläggande sanning och registrera pålitliga videor.

Men allt som allt är forskarna överens om att kampen mot deepfakes har blivit en jakt-och-mus-jakt.

Som en forskare sa till mig förra året: ”Vad vi än gör, människor som skapar dessa manipulationer kommer med något annat.

Jag vet inte om det någonsin kommer att finnas en tid där vi kommer att kunna upptäcka alla slags manipulationer.

Under inledningen av sin introduktionskurs om djupinlärning 2020 bjöd Alexander Amini, doktorand vid Massachusetts Institute of Technology (MIT), en berömd gäst: tidigare USA: s president Barack Obama.

"Djupt lärande revolutionerar så många områden, från robotik till medicin och allt däremellan", sa Obama, som gick med i klassen genom videokonferens.

Efter att ha talat lite mer om dygderna med artificiell intelligens gjorde Obama en viktig uppenbarelse: "Faktum är att hela detta tal och video inte är verkliga och skapades med djup inlärning och artificiell intelligens."

Aminis Obama-video var faktiskt en djupfake—En AI-doktrerad video där en skådespelares ansiktsrörelser överförs till ett mål.

Sedan första uppträdandet 2018 har deepfake-teknologin utvecklats från hobbyist-experiment till ett effektivt och farligt verktyg.

Deepfakes har använts mot kändisar och politiker och har blivit ett hot mot själva sanningen.

Hur fungerar Deepfakes?

Deepfake-applikationer fungerar på olika sätt.

Vissa överför en skådespelares ansiktsrörelser till en målvideo, som den vi såg i början av den här artikeln, eller den här Obama-förfalskningen skapad av komikern Jordan Peele för att varna för hotet om falska nyheter:

Andra djupa förfalskningar kartlägger en målpersons ansikte på andra videor - till exempel den här videon av Nicolas Cages ansikte kartläggs på karaktärer i olika filmer.

Liksom de flesta samtida AI-baserade applikationer använder deepfakes djupa neurala nätverk (det är där "deep" i deepfake kommer ifrån), en typ av AI-algoritm som är särskilt bra för att hitta mönster och korrelationer i stora datamängder.

Neurala nätverk har visat sig vara särskilt bra på datorsyn, den gren av datavetenskap och AI som hanterar visuell data.

Deepfakes använder en speciell typ av neural-nätverk struktur kallas en "autoencoder." Autokodare består av två delar: en kodare, som komprimerar en bild till en liten mängd data; och en avkodare, som dekomprimerar komprimerad data tillbaka till originalbilden.

Mekanismen liknar de för bild- och videokodecer som JPEG och MPEG.

Bild med tillstånd av två minuter

Men till skillnad från klassisk programvara för kodare / avkodare, som fungerar på grupper av pixlar, fungerar autokodaren på de funktioner som finns i bilder, såsom former, objekt och texturer.

En välutbildad autokodare kan gå utöver komprimering och dekompression och utföra andra uppgifter - säg generera nya bilder eller ta bort brus från korniga bilder.

När man tränar på bilder av ansikten lär sig en autokodare ansiktsfunktionerna: ögonen, näsan, munnen, ögonbrynen och så vidare.

Deepfake-applikationer använder två autokodare - en tränad i skådespelarens ansikte och den andra tränad på målets ansikte.

Applikationen byter in- och utgångar från de två autokodrarna för att överföra skådespelarens ansiktsrörelser till målet.

Vad gör Deepfakes speciellt?

Deepfake-teknik är inte den enda typen som kan byta ansikten i videor.

Faktum är att VFX-industrin (visuella effekter) har gjort detta i årtionden.

Men före djupfakes var kapaciteten begränsad till filmstudior med djupa fickor med tillgång till rikliga tekniska resurser.

Deepfakes har demokratiserat möjligheten att byta ansikten i videor.

Tekniken är nu tillgänglig för alla som har en dator med en anständig processor och ett starkt grafikkort (som Nvidia GeForce GTX 1080) eller kan spendera några hundra dollar för att hyra molntjänster och GPU-resurser.

Med detta sagt är det varken trivialt eller helt automatiserat att skapa deepfakes.

Tekniken blir gradvis bättre, men att skapa en anständig deepfake kräver fortfarande mycket tid och manuellt arbete.

Först måste du samla många bilder av målets och skådespelarens ansikten, och dessa bilder måste visa varje ansikte från olika vinklar.

Processen innebär vanligtvis att ta tag i tusentals bilder från videor som innehåller målet och skådespelaren och beskära dem för att endast innehålla ansikten.

Nya deepfake-verktyg som Faceswap kan göra en del av benarbetet genom att automatisera ramutsugningen och beskärningen, men de kräver fortfarande manuell justering.

Att träna AI-modellen och skapa deepfake kan ta allt från flera dagar till två veckor, beroende på din hårdvarukonfiguration och kvaliteten på din träningsdata.

Farorna med Deepfakes

Att skapa roliga pedagogiska videor och anpassade castningar för dina favoritfilmer är inte det enda som används av deepfakes.

AI-doktrerade videor har en mörkare sida som har blivit mycket mer framträdande än dess positiva och godartade användningsområden.

Strax efter att det första deepfake-programmet släpptes blev Reddit översvämmad med falska pornografiska videor som innehöll kändisar och politiker.

Tillsammans med djupa förfalskningar har utvecklingen av andra AI-drivna teknologier gjort det möjligt att inte bara förfalska ansiktet utan också rösten från nästan vem som helst.

Rekommenderas av våra redaktörer

Ökningen av deepfakes har också orsakat andra bekymmer.

Här är en rätt tid: Om någon kan använda teknik för att skapa falsk porr, vad hindrar dåliga skådespelare från att sprida falska videor av politiker som gör kontroversiella kommentarer?

Med rapporter om hur sociala mediealgoritmer påskyndar spridningen av falsk information har hotet om en falsk nyhetskris utlöst av djupfake-teknik blivit ett allvarligt problem, särskilt när USA förbereder sig för presidentvalet 2020.

Amerikanska lagstiftare har flaggat djupa förfalskningar som ett hot mot nationell säkerhet och har hållit flera utfrågningar om möjlig missbruk av tekniken för att påverka allmänheten genom desinformationskampanjer.

Och vi har sett en rad lagstiftningsåtgärder för att förbjuda djupa förfalskningar och hålla de människor som skapar och distribuerar dem till ansvar.

Kampen mot Deepfakes

Tidigare deepfakes innehöll visuella artefakter som var synliga för blotta ögat, inklusive onaturliga ögonblinkningar och onormala hudfärgsvariationer.

Men deepfakes förbättras ständigt.

Forskare har tagit fram nya tekniker för att upptäcka djupa förfalskningar bara för att se dem bli ineffektiva eftersom tekniken fortsätter att utvecklas och ger mer naturliga resultat.

Så när presidentvalet 2020 stängs har stora teknologiföretag och regeringsorgan kämpat för att motverka spridningen av djupa förfalskningar.

I september inledde Facebook, Microsoft och flera universitet en tävling för att utveckla verktyg som kan upptäcka deepfakes och andra AI-doktrerade videor.

"Detta är ett ständigt utvecklat problem, ungefär som skräppost eller andra kontroversiella utmaningar, och vårt hopp är att genom att hjälpa branschen och AI-samhället att gå ihop kan vi göra snabbare framsteg", skrev Facebook CTO Michael Schroepfer i ett blogginlägg som introducerade Deepfake Detektionsutmaning.

Den sociala mediejätten har tilldelat 10 miljoner dollar till den branschövergripande insatsen.

DARPA, forskningsdepartementet vid Försvarsdepartementet, har också lanserat ett initiativ för att begränsa spridningen av djupa förfalskningar och andra automatiserade desinformationsattacker.

Förutom att upptäcka doktrerade videor och bilder kommer DARPA att leta efter sätt att underlätta tillskrivning och identifiering av de parter som är involverade i skapandet av falska medier.

Andra ansträngningar vid universitet och forskningslaboratorier sträcker sig från att använda djupinlärning för att upptäcka modifierade områden i bilder till att använda blockchain för att skapa en grundläggande sanning och registrera pålitliga videor.

Men allt som allt är forskarna överens om att kampen mot deepfakes har blivit en jakt-och-mus-jakt.

Som en forskare sa till mig förra året: ”Vad vi än gör, människor som skapar dessa manipulationer kommer med något annat.

Jag vet inte om det någonsin kommer att finnas en tid där vi kommer att kunna upptäcka alla slags manipulationer.

Daxdi

pakapuka.com Cookies

På pakapuka.com använder vi cookies (tekniska och profilkakor, både våra egna och tredje part) för att ge dig en bättre online-upplevelse och för att skicka dig personliga kommersiella meddelanden online enligt dina önskemål. Om du väljer fortsätt eller kommer åt något innehåll på vår webbplats utan att anpassa dina val godkänner du användningen av cookies.

För mer information om vår policy för cookies och hur du avvisar cookies

tillgång här.

Inställningar

Fortsätta