Voice spoofing – Kan een crimineel een deepfake maken van je stem?

De meeste mensen hebben er wel van gehoord; je ontvangt een tekstbericht via WhatsApp van vrienden of familie met de vraag om financiële hulp. Meestal is dit bericht nep en afkomstig van criminelen. Maar wat als het geen tekstbericht is maar een gesproken bericht van iemand wiens stem je herkent? Een familielid, vriend(in) of misschien je baas die je vraagt om snel een geldbedrag over te boeken. Ook dan is het belangrijk om zeer alert te zijn. We nemen je mee in de wereld van ‘Voice Spoofing’.

Wat is Voice Spoofing?

Een energiemaatschappij in de UK maakte volgens de The Wall Street Journal op een zogenaamd telefonisch verzoek van de CEO een flinke som geld over naar criminelen. Voice Spoofing is daarmee een feit. Letterlijk vertaald betekent spoofing ‘nabootsen’ of ‘namaken’. Voice spoofing staat daarmee voor het door criminelen klonen van een stem. Een deepfake met een korte en eenvoudige dialoog – zoals de opdracht om geld over te boeken – kan met een beperkte hoeveelheid aan stemdata al worden gemaakt. Ondanks dat een stem een biometrisch gegeven is, is het voor criminelen niet ingewikkeld om aan data te komen. Denk maar aan de miljarden ingesproken video’s die inmiddels online staan op o.a. Youtube. 

De stem als biometrisch gegeven

Voor veel organisaties is het gebruik van voice een belangrijke technologie als het gaat om human computer interaction. Bijvoorbeeld voor klantverificatie. Een stem is – net als een vingerafdruk of gezichtsafbeelding – een biometrisch gegeven. De guidelines van de European Data Protection Board (EDPB) voor virtuele assistenten stelt daarom zeer hoge eisen aan het verzamelen, opslaan en verwerken van data gebaseerd op spraak. Het is goed om te weten dat identificatie via voice volgens onderzoek vele malen veiliger is dan via het gebruik van bijvoorbeeld een username en password. Veiliger zelfs dan andere biometrische gegevens.

De opkomst van voice activated payment

Voice activated payment is populair onder consumenten. Vertrouwen is hierbij een belangrijke voorwaarde en gelukkig blijkt dit heel veilig. Volgens eerdere inschattingen waren er eind 2020 al zo’n 45 miljoen gebruikers die betalingen proberen te doen met hun stem. De ontwikkelingen op het gebied van machine learning en artificial intelligence zorgen ervoor dat er steeds meer mogelijk is op dit vlak. Praten is makkelijker dan typen en voice-assistenten zitten naast smart speakers tegenwoordig in vrijwel iedere smartphone en auto. Niet voor niets introduceerde Van Lanschot dit jaar biometrische voice verificatie voor haar klanten. De juiste verificatie van klanten is de basis van deze technologie, deepfake moet onmiddellijk herkent worden.

Het klonen van een stem in 5 minuten

De technologie is relatief veilig, maar de menselijke factor blijft kwetsbaar. Kunnen je oren je bedriegen? Vroeger was voor het klonen van een stem meer dan honderd uur aan gesproken tekst nodig. Met zo’n dataset was het mogelijk een stem te trainen en een nieuw voice-model te ontwikkelen. Om deze vervolgens te laten zeggen wat je wilt. Een simpele toepassing kun je tegenwoordig echter al in enkele minuten maken. Het model heeft daarmee maar een beperkte reikwijdte. Onverwachte of ongebruikelijke vragen zal deze voice-assistent niet kunnen beantwoorden. Criminelen nemen in de regel niet veel tijd om een model helemaal door te trainen. Dit is de zwakke plek van Voice Spoofing.

Wat kun je doen tegen Voice Spoofing?

Neemt iemand contact met je op met de vraag om geld over te boeken, check dit dan door zelf contact op te nemen met deze persoon. Twijfel je eraan of je de échte persoon aan de telefoon hebt, stel dan een onverwachte vraag. Een gekloonde stem is hierop in de regel niet getraind. Verder is het van belang om je voice foodprint te beperken. Hoe minder gesproken data je online zet, hoe beter je beschermd bent. Tot slot is er nieuwe technnologie in ontwikkeling: Voice Liveness Detection (VoiD) om hackers tijdig te ontdekken.

Train je medewerkers

Voice brengt – net als iedere andere technologische ontwikkeling – criminelen op nieuwe ideeën. Daarmee is het van belang om te vertrouwen op je intuïtie en alert te blijven. Tegelijkertijd is het een nieuw fenomeen wat op dit moment nog niet breed in de mark zichtbaar is. Maar het is voor organisaties wel belangrijk om zich hierop voor te bereiden want de eerste gevallen zijn bekend. Bijvoorbeeld door medewerkers op het ontdekken van Voice Spoofing te trainen. Better safe than sorry…!

 

Smartvoices – Part of Y.Digital

Building the speakable web

Translate »