Ett företag som specialiserat sig på att upptäcka röstbedrägerier larmar över ett växande hot.
Med hjälp av AI-driven programvara börjar cyberbrottslingar klona människors röster för att begå bedrägerier, enligt Vijay Balasubramaniyan, VD för Pindrop.
"Vi har bara sett en handfull fall, men mängden pengar som stulits kan nå upp till 17 miljoner dollar", berättade han för Daxdi.
Under en presentation på RSA sa Balasubramaniyan att Pindrop under det senaste året också har undersökt ungefär ett dussin liknande fall där bedrägerier använder AI-driven programvara för att "fördjupa" någons röst för att begå sina bedrägerier.
"Vi börjar se djupa falska ljud som ett sätt att rikta in sig på vissa högtalare, särskilt om du är vd för ett företag och du har mycket YouTube-innehåll där ute", sa han.
"Vad dessa bedragare börjar göra är att använda det för att börja syntetisera ditt ljud."
Vijay Balasubramaniyan, VD för Pindrop Systemet bygger på en klassisk attack som kallas affärs-e-postkompromiss, där bedragaren kommer att använda falska e-postmeddelanden för att låtsas vara en senior officer i ett företag.
Målet är att lura en anställd på lägre nivå för att skicka en stor pengaförfrågan till bedragarens bankkonto.
Att fördjupa någons röst kan ta schemat till nästa nivå.
Att bara höra din VDs röst på en telefon kan övertyga dig att följa order och följa en stor pengaförfrågan, även om det kanske inte är legitimt, sa Balasubramaniyan.
"Allt du behöver är fem minuters ljud och du kan skapa en ganska realistisk klon," tillade han.
"Om du har fem timmar eller mer av deras ljud kan du skapa något som inte märks av människor."
I ett av de undersökta fallen sade Balasubramaniyan att offerets VD faktiskt hade lite offentligt innehåll som avslöjade sin röst.
VD gjorde dock månatliga möten med alla händer i sitt företag, som spelades in och senare exponerades i brott.
"Sedan började de (bedragarna) använda detta ljudinnehåll för att syntetisera hans röst," tillade Balasubramaniyan.
Den goda nyheten är att det djupt förfalskade hotet fortfarande är litet i förhållande till andra telefonsamtal-relaterade bedrägerier som involverar identitetsstöld.
Med detta sagt är tekniken för att autentiskt klona röster redan här (men lyckligtvis inte utbredd).
Under sin presentation gjorde Balasubramaniyan ett internt system som hans företag skapade för att syntetisera röster från offentliga personer.
Han visade upp det, fördjupade president Donald Trumps röst att säga att USA borde ge Nordkorea en "blodig näsa".
Tekniken fungerar genom att söka efter Trumps tidigare ljudinspelningar på internet för att simulera hans röst, vilket tar mindre än en minut.
"Du kan generera alla typer av ljudinnehåll och skapa det på begäran", tillade Balasubramaniyan.
(Förra året visade AI-forskare ett liknande koncept som autentiskt klonade podcast-värd Joe Rogans röst.)
Det är uppenbart att hotet är störande.
Förutom bedrägerier riskerar ljuddjupfakes också att sprida felinformation som kan lura allmänheten.
Lyckligtvis arbetar Pindrop och andra datavetenskapare med lösningar för att upptäcka djupa förfalskningar.
I Pindrops fall har företaget skapat en AI-driven algoritm som kan urskilja mänskligt tal från djupa falska ljudspår.
Det gör det genom att kontrollera hur de talade orden faktiskt uttalas och om de matchar mänskliga talmönster.
"Vi börjar leta efter missbildningar", tillade han.
"Är den takt som han säger (orden) även mänskligt möjlig?"
Icke desto mindre kan det hotande hotet med djupfackning av ljud tvinga användare att vara mer försiktiga när det gäller att ladda upp sin röst till internet.
Balasubramaniyan förutspådde att det en dag kan finnas en marknad för anti-röstkloning säkerhetstjänster, som det finns för datasäkerhet.
"Du kommer att ha företag som skapar mekanismer för att upptäcka dessa attacker", sa han.
"Det här systemet måste börja skydda ditt ljudinnehåll om någon version av dig dyker upp som inte är du."
Ett företag som specialiserat sig på att upptäcka röstbedrägerier larmar över ett växande hot.
Med hjälp av AI-driven programvara börjar cyberbrottslingar klona människors röster för att begå bedrägerier, enligt Vijay Balasubramaniyan, VD för Pindrop.
"Vi har bara sett en handfull fall, men mängden pengar som stulits kan nå upp till 17 miljoner dollar", berättade han för Daxdi.
Under en presentation på RSA sa Balasubramaniyan att Pindrop under det senaste året också har undersökt ungefär ett dussin liknande fall där bedrägerier använder AI-driven programvara för att "fördjupa" någons röst för att begå sina bedrägerier.
"Vi börjar se djupa falska ljud som ett sätt att rikta in sig på vissa högtalare, särskilt om du är vd för ett företag och du har mycket YouTube-innehåll där ute", sa han.
"Vad dessa bedragare börjar göra är att använda det för att börja syntetisera ditt ljud."
Vijay Balasubramaniyan, VD för Pindrop Systemet bygger på en klassisk attack som kallas affärs-e-postkompromiss, där bedragaren kommer att använda falska e-postmeddelanden för att låtsas vara en senior officer i ett företag.
Målet är att lura en anställd på lägre nivå för att skicka en stor pengaförfrågan till bedragarens bankkonto.
Att fördjupa någons röst kan ta schemat till nästa nivå.
Att bara höra din VDs röst på en telefon kan övertyga dig att följa order och följa en stor pengaförfrågan, även om det kanske inte är legitimt, sa Balasubramaniyan.
"Allt du behöver är fem minuters ljud och du kan skapa en ganska realistisk klon," tillade han.
"Om du har fem timmar eller mer av deras ljud kan du skapa något som inte märks av människor."
I ett av de undersökta fallen sade Balasubramaniyan att offerets VD faktiskt hade lite offentligt innehåll som avslöjade sin röst.
VD gjorde dock månatliga möten med alla händer i sitt företag, som spelades in och senare exponerades i brott.
"Sedan började de (bedragarna) använda detta ljudinnehåll för att syntetisera hans röst," tillade Balasubramaniyan.
Den goda nyheten är att det djupt förfalskade hotet fortfarande är litet i förhållande till andra telefonsamtal-relaterade bedrägerier som involverar identitetsstöld.
Med detta sagt är tekniken för att autentiskt klona röster redan här (men lyckligtvis inte utbredd).
Under sin presentation gjorde Balasubramaniyan ett internt system som hans företag skapade för att syntetisera röster från offentliga personer.
Han visade upp det, fördjupade president Donald Trumps röst att säga att USA borde ge Nordkorea en "blodig näsa".
Tekniken fungerar genom att söka efter Trumps tidigare ljudinspelningar på internet för att simulera hans röst, vilket tar mindre än en minut.
"Du kan generera alla typer av ljudinnehåll och skapa det på begäran", tillade Balasubramaniyan.
(Förra året visade AI-forskare ett liknande koncept som autentiskt klonade podcast-värd Joe Rogans röst.)
Det är uppenbart att hotet är störande.
Förutom bedrägerier riskerar ljuddjupfakes också att sprida felinformation som kan lura allmänheten.
Lyckligtvis arbetar Pindrop och andra datavetenskapare med lösningar för att upptäcka djupa förfalskningar.
I Pindrops fall har företaget skapat en AI-driven algoritm som kan urskilja mänskligt tal från djupa falska ljudspår.
Det gör det genom att kontrollera hur de talade orden faktiskt uttalas och om de matchar mänskliga talmönster.
"Vi börjar leta efter missbildningar", tillade han.
"Är den takt som han säger (orden) även mänskligt möjlig?"
Icke desto mindre kan det hotande hotet med djupfackning av ljud tvinga användare att vara mer försiktiga när det gäller att ladda upp sin röst till internet.
Balasubramaniyan förutspådde att det en dag kan finnas en marknad för anti-röstkloning säkerhetstjänster, som det finns för datasäkerhet.
"Du kommer att ha företag som skapar mekanismer för att upptäcka dessa attacker", sa han.
"Det här systemet måste börja skydda ditt ljudinnehåll om någon version av dig dyker upp som inte är du."