Een bedrijf dat gespecialiseerd is in het opsporen van spraakfraude, luidt alarm over een opkomende dreiging.
Met behulp van AI-aangedreven software beginnen cybercriminelen de stemmen van mensen te klonen om oplichting te plegen, aldus Vijay Balasubramaniyan, CEO van Pindrop.
"We hebben slechts een handvol gevallen gezien, maar de hoeveelheid gestolen geld kan oplopen tot $ 17 miljoen", vertelde hij aan Daxdi.
Tijdens een presentatie bij RSA zei Balasubramaniyan dat Pindrop het afgelopen jaar ook ongeveer een dozijn soortgelijke gevallen heeft onderzocht waarbij fraudeurs betrokken waren die AI-software gebruikten om iemands stem te 'deepfaken' om hun oplichting te plegen.
"We beginnen te zien dat deepfake-audio opduikt als een manier om specifieke sprekers te bereiken, vooral als je de CEO van een bedrijf bent en je veel YouTube-inhoud hebt," zei hij.
"Wat deze fraudeurs beginnen te doen, is dat gebruiken om uw audio te synthetiseren."
Vijay Balasubramaniyan, CEO van Pindrop Het plan is gebaseerd op een klassieke aanval die bekend staat als het compromitteren van zakelijke e-mail, waarbij de fraudeur nep-e-mails gebruikt om zich voor te doen als een senior officer bij een bedrijf.
Het doel is om een ??medewerker op een lager niveau voor de gek te houden door een groot verzoek om geld naar de bankrekening van de fraudeur te sturen.
Iemands stem deepfaken kan het schema naar een hoger niveau tillen.
Alleen al het horen van de stem van uw CEO aan de telefoon kan u overtuigen om bevelen op te volgen en te voldoen aan een groot verzoek om geld, ook al is het misschien niet legitiem, zei Balasubramaniyan.
"Alles wat je nodig hebt is vijf minuten aan iemands audio en je kunt een redelijk realistische kloon maken", voegde hij eraan toe.
"Als je vijf uur of meer van hun audio hebt, kun je iets creëren dat niet waarneembaar is voor mensen."
In een van de onderzochte gevallen zei Balasubramaniyan dat de CEO van het slachtoffer eigenlijk weinig openbare inhoud had die zijn stem onthulde.
De CEO hield echter maandelijkse bijeenkomsten met alle handen in zijn bedrijf, die werden opgenomen en later in een inbreuk aan het licht kwamen.
"Toen begonnen zij (de oplichters) deze audio-inhoud te gebruiken om zijn stem te synthetiseren," voegde Balasubramaniyan eraan toe.
Het goede nieuws is dat de dreiging van deepfaking nog steeds klein is in vergelijking met andere telefoontjesgerelateerde oplichting met identiteitsdiefstal.
Dat gezegd hebbende, de technologie om stemmen authentiek te klonen is er al (maar gelukkig niet wijdverspreid).
Tijdens zijn presentatie demonstreerde Balasubramaniyan een intern systeem dat zijn bedrijf had gemaakt om stemmen van publieke figuren te synthetiseren.
Hij liet het zien en nam de stem van president Donald Trump diep in de ogen om te zeggen dat de VS Noord-Korea een "bloederige neus" zou moeten geven.
De technologie werkt door op internet naar eerdere audio-opnames van Trump te zoeken om zijn stem te simuleren, wat minder dan een minuut duurt.
"U kunt elk soort audiocontent genereren en deze op aanvraag maken", voegde Balasubramaniyan eraan toe.
(Vorig jaar toonden AI-onderzoekers een soortgelijk concept dat authentiek gekloonde podcast-host Joe Rogan's stem.)
Het is duidelijk dat de dreiging verontrustend is.
Naast het plegen van oplichting, riskeren deepfakes met audio ook het verspreiden van verkeerde informatie die het publiek kan bedriegen.
Gelukkig werken Pindrop en andere computerwetenschappers aan oplossingen om deepfakes te detecteren.
In het geval van Pindrop heeft het bedrijf een AI-aangedreven algoritme ontwikkeld dat menselijke spraak kan onderscheiden van diepgaande audiotracks.
Het doet dit door te controleren hoe de gesproken woorden daadwerkelijk worden uitgesproken en of ze overeenkomen met menselijke spraakpatronen.
"We gaan op zoek naar de misvormingen", voegde hij eraan toe.
"Is het tempo waarin hij (de woorden) zegt zelfs menselijk mogelijk?"
Desalniettemin kan de dreigende dreiging van deepfaking van audio gebruikers dwingen om voorzichtiger te zijn als het gaat om het uploaden van hun stem naar internet.
Balasubramaniyan voorspelde dat er ooit een markt zou kunnen komen voor beveiligingsdiensten tegen het klonen van spraak, net als voor gegevensbeveiliging.
"Je krijgt bedrijven die mechanismen creëren om deze aanvallen te detecteren", zei hij.
"Dit systeem moet beginnen met het beschermen van je audiocontent als er ooit een versie van jou verschijnt die jij niet bent."
Een bedrijf dat gespecialiseerd is in het opsporen van spraakfraude, luidt alarm over een opkomende dreiging.
Met behulp van AI-aangedreven software beginnen cybercriminelen de stemmen van mensen te klonen om oplichting te plegen, aldus Vijay Balasubramaniyan, CEO van Pindrop.
"We hebben slechts een handvol gevallen gezien, maar de hoeveelheid gestolen geld kan oplopen tot $ 17 miljoen", vertelde hij aan Daxdi.
Tijdens een presentatie bij RSA zei Balasubramaniyan dat Pindrop het afgelopen jaar ook ongeveer een dozijn soortgelijke gevallen heeft onderzocht waarbij fraudeurs betrokken waren die AI-software gebruikten om iemands stem te 'deepfaken' om hun oplichting te plegen.
"We beginnen te zien dat deepfake-audio opduikt als een manier om specifieke sprekers te bereiken, vooral als je de CEO van een bedrijf bent en je veel YouTube-inhoud hebt," zei hij.
"Wat deze fraudeurs beginnen te doen, is dat gebruiken om uw audio te synthetiseren."
Vijay Balasubramaniyan, CEO van Pindrop Het plan is gebaseerd op een klassieke aanval die bekend staat als het compromitteren van zakelijke e-mail, waarbij de fraudeur nep-e-mails gebruikt om zich voor te doen als een senior officer bij een bedrijf.
Het doel is om een ??medewerker op een lager niveau voor de gek te houden door een groot verzoek om geld naar de bankrekening van de fraudeur te sturen.
Iemands stem deepfaken kan het schema naar een hoger niveau tillen.
Alleen al het horen van de stem van uw CEO aan de telefoon kan u overtuigen om bevelen op te volgen en te voldoen aan een groot verzoek om geld, ook al is het misschien niet legitiem, zei Balasubramaniyan.
"Alles wat je nodig hebt is vijf minuten aan iemands audio en je kunt een redelijk realistische kloon maken", voegde hij eraan toe.
"Als je vijf uur of meer van hun audio hebt, kun je iets creëren dat niet waarneembaar is voor mensen."
In een van de onderzochte gevallen zei Balasubramaniyan dat de CEO van het slachtoffer eigenlijk weinig openbare inhoud had die zijn stem onthulde.
De CEO hield echter maandelijkse bijeenkomsten met alle handen in zijn bedrijf, die werden opgenomen en later in een inbreuk aan het licht kwamen.
"Toen begonnen zij (de oplichters) deze audio-inhoud te gebruiken om zijn stem te synthetiseren," voegde Balasubramaniyan eraan toe.
Het goede nieuws is dat de dreiging van deepfaking nog steeds klein is in vergelijking met andere telefoontjesgerelateerde oplichting met identiteitsdiefstal.
Dat gezegd hebbende, de technologie om stemmen authentiek te klonen is er al (maar gelukkig niet wijdverspreid).
Tijdens zijn presentatie demonstreerde Balasubramaniyan een intern systeem dat zijn bedrijf had gemaakt om stemmen van publieke figuren te synthetiseren.
Hij liet het zien en nam de stem van president Donald Trump diep in de ogen om te zeggen dat de VS Noord-Korea een "bloederige neus" zou moeten geven.
De technologie werkt door op internet naar eerdere audio-opnames van Trump te zoeken om zijn stem te simuleren, wat minder dan een minuut duurt.
"U kunt elk soort audiocontent genereren en deze op aanvraag maken", voegde Balasubramaniyan eraan toe.
(Vorig jaar toonden AI-onderzoekers een soortgelijk concept dat authentiek gekloonde podcast-host Joe Rogan's stem.)
Het is duidelijk dat de dreiging verontrustend is.
Naast het plegen van oplichting, riskeren deepfakes met audio ook het verspreiden van verkeerde informatie die het publiek kan bedriegen.
Gelukkig werken Pindrop en andere computerwetenschappers aan oplossingen om deepfakes te detecteren.
In het geval van Pindrop heeft het bedrijf een AI-aangedreven algoritme ontwikkeld dat menselijke spraak kan onderscheiden van diepgaande audiotracks.
Het doet dit door te controleren hoe de gesproken woorden daadwerkelijk worden uitgesproken en of ze overeenkomen met menselijke spraakpatronen.
"We gaan op zoek naar de misvormingen", voegde hij eraan toe.
"Is het tempo waarin hij (de woorden) zegt zelfs menselijk mogelijk?"
Desalniettemin kan de dreigende dreiging van deepfaking van audio gebruikers dwingen om voorzichtiger te zijn als het gaat om het uploaden van hun stem naar internet.
Balasubramaniyan voorspelde dat er ooit een markt zou kunnen komen voor beveiligingsdiensten tegen het klonen van spraak, net als voor gegevensbeveiliging.
"Je krijgt bedrijven die mechanismen creëren om deze aanvallen te detecteren", zei hij.
"Dit systeem moet beginnen met het beschermen van je audiocontent als er ooit een versie van jou verschijnt die jij niet bent."