
Al geruime tijd kunnen we met behulp van AI-technologie bestaand beeld en geluid digitaal manipuleren. De technologie wordt alsmaar beter, waardoor de manipulaties amper van echt te onderscheiden zijn. Een ontwikkeling waar mensen met vervelende of illegale bedoelingen helaas ook steeds meer gebruik van maken.
Het gebruik van deepfake-video’s om nepnieuws te verspreiden, mensen te kwetsen of op te lichten
is al wat langer bekend. Het kopiëren van stemmen, voice cloning, met het doel mensen op te lichten
zien we nu ook steeds vaker voorkomen.
Software en apps om stemmen te kopiëren zijn makkelijk beschikbaar en te gebruiken, waardoor
iedereen zo’n digitale manipulatie kan maken. Criminelen zetten deze steeds vaker in om mensen op
te lichten en geld afhandig te maken. Het enige wat ze hiervoor nodig hebben is een kort fragment
van iemands stem, een paar seconden is genoeg. Deze vinden ze op social media of nemen ze op
tijdens een telefoongesprek.
De allerbelangrijkste tip: maak nooit zomaar geld over, zelfs niet aan een goede bekende. Belt een
bekende en vraagt diegene je om direct geld naar ze over te maken? Wees dan alert. Hang op, bel
diegene terug op het nummer dat je van ze hebt opgeslagen en vraag door. Blijkt deze persoon jou
niet gebeld te hebben, schakel dan de politie in.
Geef als eerste een reactie