Daxdi now accepts payments with Bitcoin

Er AI-aktiveret stemmekloning det næste store sikkerhedssvindel?

Et firma, der har specialiseret sig i at afsløre stemmesvindel, slår alarm over en nye trussel.

Ved hjælp af AI-drevet software begynder cyberkriminelle at klone folks stemmer for at begå svindel, ifølge Vijay Balasubramaniyan, administrerende direktør for Pindrop.

”Vi har kun set en håndfuld sager, men det stjålne beløb kan nå op til $ 17 millioner,” sagde han til Daxdi.

Under en præsentation på RSA sagde Balasubramaniyan, at Pindrop i løbet af det forløbne år også har undersøgt omkring et dusin lignende sager, der involverer svindlere, der bruger AI-drevet software til at "deepfake" andres stemme til at begå deres svindel.

”Vi begynder at se dybe falske lydbånd som en måde at målrette mod bestemte højttalere, især hvis du er administrerende direktør for en virksomhed, og du har en masse YouTube-indhold derude,” sagde han.

"Hvad disse svindlere begynder at gøre er at bruge det til at begynde at syntetisere din lyd."

Vijay Balasubramaniyan, administrerende direktør for Pindrop

Ordningen bygger på et klassisk angreb kendt som business-e-mail-kompromis, hvor svindleren vil bruge falske e-mails til at foregive at være en senior officer i et firma.

Målet er at narre en lavere medarbejder til at sende en stor pengeanmodning til svindlerens bankkonto.

Deepfaking nogens stemme kan tage ordningen til det næste niveau.

Bare at høre din CEOs stemme på en telefon kan overbevise dig om at følge ordrer og efterkomme en stor pengeanmodning, selvom det måske ikke er legitimt, sagde Balasubramaniyan.

"Alt hvad du behøver er fem minutters lyd, og du kan oprette en ret realistisk klon," tilføjede han.

"Hvis du har fem timer eller mere af deres lyd, kan du oprette noget, der ikke er synligt for mennesker."

I en af ??de undersøgte sager sagde Balasubramaniyan, at offerets administrerende direktør faktisk havde lidt offentligt indhold, der afslørede sin stemme.

Imidlertid afholdt administrerende direktør månedlige møder med alle hænder i sit firma, som blev registreret og senere blev udsat for et brud.

"Så begyndte de (svindlerne) at bruge dette lydindhold til at syntetisere hans stemme," tilføjede Balasubramaniyan.

Den gode nyhed er, at den dybe falske trussel stadig er lille i forhold til andre telefonopkaldsrelaterede svindel, der involverer identitetstyveri.

Når det er sagt, er teknologien til autentisk kloning af stemmer allerede her (men heldigvis ikke udbredt).

Under sin præsentation dæmpede Balasubramaniyan et internt system, som hans firma oprettede for at syntetisere stemmer fra offentlige personer.

Han viste det, dybt forfalskende præsident Donald Trumps stemme om at sige, at USA skulle give Nordkorea en "blodig næse."

Teknologien fungerer ved at søge efter Trumps tidligere lydoptagelser på internettet for at simulere hans stemme, hvilket tager mindre end et minut.

"Du kan generere enhver form for lydindhold og oprette dette efter behov," tilføjede Balasubramaniyan.

(Sidste år viste AI-forskere et lignende koncept, der autentisk klonede podcast-vært Joe Rogans stemme.)

Det er klart, at truslen er foruroligende.

Ud over at begå svindel risikerer lyd dyb forfalskninger også at sprede misinformation, der kan narre offentligheden.

Heldigvis arbejder Pindrop og andre computerforskere på løsninger til at opdage dybe forfalskninger.

I Pindrops tilfælde har virksomheden oprettet en AI-drevet algoritme, der kan skelne menneskelig tale fra dybe falske lydspor.

Det gør det ved at kontrollere, hvordan de talte ord faktisk udtages, og om de stemmer overens med menneskelige talemønstre.

”Vi begynder at lede efter deformiteterne,” tilføjede han.

"Er det tempo, som han siger (ordene), også menneskeligt muligt?"

Ikke desto mindre kan den truende trussel om dyb falsning af lyd tvinge brugere til at være mere forsigtige, når det kommer til at uploade deres stemme til internettet.

Balasubramaniyan forudsagde, at der en dag kan være et marked for anti-stemmekloning sikkerhedstjenester, ligesom der er for datasikkerhed.

"Du vil have virksomheder, der opretter mekanismer til at opdage disse angreb," sagde han.

"Dette system skal begynde at beskytte dit lydindhold, hvis der nogensinde vises en version af dig, som ikke er dig."

Et firma, der har specialiseret sig i at afsløre stemmesvindel, slår alarm over en nye trussel.

Ved hjælp af AI-drevet software begynder cyberkriminelle at klone folks stemmer for at begå svindel, ifølge Vijay Balasubramaniyan, administrerende direktør for Pindrop.

”Vi har kun set en håndfuld sager, men det stjålne beløb kan nå op til $ 17 millioner,” sagde han til Daxdi.

Under en præsentation på RSA sagde Balasubramaniyan, at Pindrop i løbet af det forløbne år også har undersøgt omkring et dusin lignende sager, der involverer svindlere, der bruger AI-drevet software til at "deepfake" andres stemme til at begå deres svindel.

”Vi begynder at se dybe falske lydbånd som en måde at målrette mod bestemte højttalere, især hvis du er administrerende direktør for en virksomhed, og du har en masse YouTube-indhold derude,” sagde han.

"Hvad disse svindlere begynder at gøre er at bruge det til at begynde at syntetisere din lyd."

Vijay Balasubramaniyan, administrerende direktør for Pindrop

Ordningen bygger på et klassisk angreb kendt som business-e-mail-kompromis, hvor svindleren vil bruge falske e-mails til at foregive at være en senior officer i et firma.

Målet er at narre en lavere medarbejder til at sende en stor pengeanmodning til svindlerens bankkonto.

Deepfaking nogens stemme kan tage ordningen til det næste niveau.

Bare at høre din CEOs stemme på en telefon kan overbevise dig om at følge ordrer og efterkomme en stor pengeanmodning, selvom det måske ikke er legitimt, sagde Balasubramaniyan.

"Alt hvad du behøver er fem minutters lyd, og du kan oprette en ret realistisk klon," tilføjede han.

"Hvis du har fem timer eller mere af deres lyd, kan du oprette noget, der ikke er synligt for mennesker."

I en af ??de undersøgte sager sagde Balasubramaniyan, at offerets administrerende direktør faktisk havde lidt offentligt indhold, der afslørede sin stemme.

Imidlertid afholdt administrerende direktør månedlige møder med alle hænder i sit firma, som blev registreret og senere blev udsat for et brud.

"Så begyndte de (svindlerne) at bruge dette lydindhold til at syntetisere hans stemme," tilføjede Balasubramaniyan.

Den gode nyhed er, at den dybe falske trussel stadig er lille i forhold til andre telefonopkaldsrelaterede svindel, der involverer identitetstyveri.

Når det er sagt, er teknologien til autentisk kloning af stemmer allerede her (men heldigvis ikke udbredt).

Under sin præsentation dæmpede Balasubramaniyan et internt system, som hans firma oprettede for at syntetisere stemmer fra offentlige personer.

Han viste det, dybt forfalskende præsident Donald Trumps stemme om at sige, at USA skulle give Nordkorea en "blodig næse."

Teknologien fungerer ved at søge efter Trumps tidligere lydoptagelser på internettet for at simulere hans stemme, hvilket tager mindre end et minut.

"Du kan generere enhver form for lydindhold og oprette dette efter behov," tilføjede Balasubramaniyan.

(Sidste år viste AI-forskere et lignende koncept, der autentisk klonede podcast-vært Joe Rogans stemme.)

Det er klart, at truslen er foruroligende.

Ud over at begå svindel risikerer lyd dyb forfalskninger også at sprede misinformation, der kan narre offentligheden.

Heldigvis arbejder Pindrop og andre computerforskere på løsninger til at opdage dybe forfalskninger.

I Pindrops tilfælde har virksomheden oprettet en AI-drevet algoritme, der kan skelne menneskelig tale fra dybe falske lydspor.

Det gør det ved at kontrollere, hvordan de talte ord faktisk udtages, og om de stemmer overens med menneskelige talemønstre.

”Vi begynder at lede efter deformiteterne,” tilføjede han.

"Er det tempo, som han siger (ordene), også menneskeligt muligt?"

Ikke desto mindre kan den truende trussel om dyb falsning af lyd tvinge brugere til at være mere forsigtige, når det kommer til at uploade deres stemme til internettet.

Balasubramaniyan forudsagde, at der en dag kan være et marked for anti-stemmekloning sikkerhedstjenester, ligesom der er for datasikkerhed.

"Du vil have virksomheder, der opretter mekanismer til at opdage disse angreb," sagde han.

"Dette system skal begynde at beskytte dit lydindhold, hvis der nogensinde vises en version af dig, som ikke er dig."

PakaPuka

pakapuka.com Cookies

På pakapuka.com bruger vi cookies (tekniske og profil cookies, både vores egen og tredjepart) for at give dig en bedre online oplevelse og til at sende dig personlige online kommercielle beskeder i henhold til dine præferencer. Hvis du vælger fortsæt eller få adgang til indhold på vores hjemmeside uden at tilpasse dine valg, accepterer du brugen af cookies.

Du kan få flere oplysninger om vores cookiepolitik, og hvordan du afviser cookies

adgang her.

Indstillinger

Fortsætte