Ettevõte, mis on spetsialiseerunud häälpettuste avastamisele, annab esilekerkiva ohu pärast häiret.
Tehisintellekti toega tarkvara abil hakkavad küberkurjategijad kloonima inimeste hääli kelmuste läbiviimiseks, ütles Pindropi tegevjuht Vijay Balasubramaniyan.
"Oleme näinud vaid käputäie juhtumeid, kuid varastatud rahasumma võib ulatuda 17 miljoni dollarini," ütles ta PCMagile.
RSAs toimunud ettekande ajal ütles Balasubramaniyan, et Pindrop on viimase aasta jooksul uurinud ka kümmekonda sarnast juhtumit, mis on seotud petturitega, kes kasutavad tehisintellekti toega tarkvara, et kellegi häält pettuste toimepanemiseks "võltsida".
"Oleme hakanud nägema, et deepfake heli ilmub välja, et suunata konkreetseid esinejaid, eriti kui olete ettevõtte tegevjuht ja teil on seal palju YouTube'i sisu," ütles ta.
"Mida need petturid hakkavad tegema, on see teie heli sünteesimiseks."
Vijay Balasubramaniyan, Pindropi tegevjuht Skeem põhineb klassikalisel rünnakul, mida nimetatakse ettevõtte e-posti kompromissiks, kus pettur kasutab võltsitud e-kirju, et teeskleda ettevõtte vanemohvitseri.
Eesmärk on petta madalama taseme töötajat, et ta saadaks petturi pangakontole suure rahataotluse.
Kellegi hääle süvendamine võib skeemi viia järgmisele tasandile.
Juba telefoni teel oma tegevjuhi hääle kuulmine võib veenda teid korraldusi täitma ja suurt rahataotlust täitma, kuigi see ei pruugi olla seaduslik, ütles Balasubramaniyan.
"Kõik, mida vajate, on viis minutit kellegi heli ja saate luua üsna realistliku klooni," lisas ta.
"Kui teil on viis tundi või rohkem nende heli, saate luua midagi, mida inimesed ei taju."
Ühes uuritud juhtumis ütles Balasubramaniyan, et ohvri tegevjuhil oli tegelikult vähe avalikku sisu, mis tema häält paljastaks.
Siiski tegi tegevjuht oma ettevõttes igakuiseid kohtumisi, mis registreeriti ja hiljem rikkumisega kokku puututi.
"Siis hakkasid nad (petturid) seda helisisu tema hääle sünteesimiseks kasutama," lisas Balasubramaniyan.
Hea uudis on see, et süvistamise oht on teiste identiteedivargustega seotud telefonikõnedega seotud petuskeemide suhtes endiselt väike.
See tähendab, et häälte autentseks kloonimiseks on tehnoloogia juba olemas (kuid õnneks pole see laialt levinud).
Oma esitluse ajal demonstreeris Balasubramaniyan oma ettevõtte loodud sisemist süsteemi avaliku elu tegelaste häälte sünteesimiseks.
Ta näitas seda välja, sügades president Donald Trumpi häält, öeldes, et USA peaks Põhja-Koreale andma "verise nina".
Selle tehnoloogia abil otsitakse Trumpi varasemaid helisalvestisi Internetist, et simuleerida tema häält, mis võtab vähem kui minut.
"Võite luua mis tahes liiki helisisu ja luua seda nõudmisel," lisas Balasubramaniyan.
(Eelmisel aastal näitasid tehisintellekti teadlased sarnast kontseptsiooni, mis autentselt kloonitud podcastide saatejuhi Joe Rogani häält.)
Ilmselgelt on oht häiriv.
Lisaks petuskeemide toimepanemisele võivad helivõltsingud levitada ka valeinformatsiooni, mis võib avalikkust tekitada.
Õnneks töötavad Pindrop ja teised arvutiteadlased lahenduste abil süvavõltside avastamiseks.
Pindropi puhul on ettevõte loonud tehisintellekti toega algoritmi, mis suudab eristada inimkõnet sügavalt võltsitud heliradadest.
Ta teeb seda, kontrollides, kuidas öeldud sõnu tegelikult hääldatakse ja kas need sobivad inimese kõnemustritega.
"Me hakkame deformatsioone otsima," lisas ta.
"Kas tema ütlemistempo (sõnad) on isegi inimlikult võimalik?"
Sellegipoolest võib heli süvavee ähvardav oht sundida kasutajaid olema ettevaatlikum oma hääle Interneti-üleslaadimisel.
Balasubramaniyan ennustas, et ühel päeval võib olla häälekloonimise vastaste turvateenuste turg, nagu ka andmeturbe jaoks.
"Teil on ettevõtteid, kes loovad nende rünnakute avastamiseks mehhanismid," ütles ta.
"Need süsteemid peavad hakkama teie helisisu kaitsma, kui kunagi ilmub mõni teie versioon, mis pole teie."
Ettevõte, mis on spetsialiseerunud häälpettuste avastamisele, annab esilekerkiva ohu pärast häiret.
Tehisintellekti toega tarkvara abil hakkavad küberkurjategijad kloonima inimeste hääli kelmuste läbiviimiseks, ütles Pindropi tegevjuht Vijay Balasubramaniyan.
"Oleme näinud vaid käputäie juhtumeid, kuid varastatud rahasumma võib ulatuda 17 miljoni dollarini," ütles ta PCMagile.
RSAs toimunud ettekande ajal ütles Balasubramaniyan, et Pindrop on viimase aasta jooksul uurinud ka kümmekonda sarnast juhtumit, mis on seotud petturitega, kes kasutavad tehisintellekti toega tarkvara, et kellegi häält pettuste toimepanemiseks "võltsida".
"Oleme hakanud nägema, et deepfake heli ilmub välja, et suunata konkreetseid esinejaid, eriti kui olete ettevõtte tegevjuht ja teil on seal palju YouTube'i sisu," ütles ta.
"Mida need petturid hakkavad tegema, on see teie heli sünteesimiseks."
Vijay Balasubramaniyan, Pindropi tegevjuht Skeem põhineb klassikalisel rünnakul, mida nimetatakse ettevõtte e-posti kompromissiks, kus pettur kasutab võltsitud e-kirju, et teeskleda ettevõtte vanemohvitseri.
Eesmärk on petta madalama taseme töötajat, et ta saadaks petturi pangakontole suure rahataotluse.
Kellegi hääle süvendamine võib skeemi viia järgmisele tasandile.
Juba telefoni teel oma tegevjuhi hääle kuulmine võib veenda teid korraldusi täitma ja suurt rahataotlust täitma, kuigi see ei pruugi olla seaduslik, ütles Balasubramaniyan.
"Kõik, mida vajate, on viis minutit kellegi heli ja saate luua üsna realistliku klooni," lisas ta.
"Kui teil on viis tundi või rohkem nende heli, saate luua midagi, mida inimesed ei taju."
Ühes uuritud juhtumis ütles Balasubramaniyan, et ohvri tegevjuhil oli tegelikult vähe avalikku sisu, mis tema häält paljastaks.
Siiski tegi tegevjuht oma ettevõttes igakuiseid kohtumisi, mis registreeriti ja hiljem rikkumisega kokku puututi.
"Siis hakkasid nad (petturid) seda helisisu tema hääle sünteesimiseks kasutama," lisas Balasubramaniyan.
Hea uudis on see, et süvistamise oht on teiste identiteedivargustega seotud telefonikõnedega seotud petuskeemide suhtes endiselt väike.
See tähendab, et häälte autentseks kloonimiseks on tehnoloogia juba olemas (kuid õnneks pole see laialt levinud).
Oma esitluse ajal demonstreeris Balasubramaniyan oma ettevõtte loodud sisemist süsteemi avaliku elu tegelaste häälte sünteesimiseks.
Ta näitas seda välja, sügades president Donald Trumpi häält, öeldes, et USA peaks Põhja-Koreale andma "verise nina".
Selle tehnoloogia abil otsitakse Trumpi varasemaid helisalvestisi Internetist, et simuleerida tema häält, mis võtab vähem kui minut.
"Võite luua mis tahes liiki helisisu ja luua seda nõudmisel," lisas Balasubramaniyan.
(Eelmisel aastal näitasid tehisintellekti teadlased sarnast kontseptsiooni, mis autentselt kloonitud podcastide saatejuhi Joe Rogani häält.)
Ilmselgelt on oht häiriv.
Lisaks petuskeemide toimepanemisele võivad helivõltsingud levitada ka valeinformatsiooni, mis võib avalikkust tekitada.
Õnneks töötavad Pindrop ja teised arvutiteadlased lahenduste abil süvavõltside avastamiseks.
Pindropi puhul on ettevõte loonud tehisintellekti toega algoritmi, mis suudab eristada inimkõnet sügavalt võltsitud heliradadest.
Ta teeb seda, kontrollides, kuidas öeldud sõnu tegelikult hääldatakse ja kas need sobivad inimese kõnemustritega.
"Me hakkame deformatsioone otsima," lisas ta.
"Kas tema ütlemistempo (sõnad) on isegi inimlikult võimalik?"
Sellegipoolest võib heli süvavee ähvardav oht sundida kasutajaid olema ettevaatlikum oma hääle Interneti-üleslaadimisel.
Balasubramaniyan ennustas, et ühel päeval võib olla häälekloonimise vastaste turvateenuste turg, nagu ka andmeturbe jaoks.
"Teil on ettevõtteid, kes loovad nende rünnakute avastamiseks mehhanismid," ütles ta.
"Need süsteemid peavad hakkama teie helisisu kaitsma, kui kunagi ilmub mõni teie versioon, mis pole teie."