Cryptofraude via deepfakes: hoe AI nieuwe oplichtingspraktijken mogelijk maakt.

Cryptocurrencyfraude ontwikkelt zich razendsnel. Traditionele phishingmails worden steeds minder effectief, terwijl daders steeds vaker gebruikmaken van kunstmatige intelligentie en deepfake-technologie. Misleidend realistische video's, stemmen en live telefoongesprekken worden ingezet om vertrouwen te wekken en slachtoffers over te halen financiële transacties uit te voeren. Deze vorm van cryptofraude vertegenwoordigt een nieuwe escalatie in digitale economische criminaliteit.

Deepfakes als nieuw instrument bij beleggingsfraude

Deepfakes zijn door AI gegenereerde content die op realistische wijze echte mensen nabootst. Stemmen, gezichtsuitdrukkingen en zelfs live reacties kunnen bijna perfect worden gerepliceerd. Deze technologie wordt steeds vaker gebruikt voor frauduleuze beleggingsaanbiedingen. Slachtoffers zien zogenaamd bekende persoonlijkheden, vertegenwoordigers van bedrijven of overheidsfunctionarissen die zogenaamd veilige crypto-investeringen aanprijzen of waarschuwen voor dringende veiligheidsproblemen.

De combinatie van visuele en auditieve misleiding is bijzonder gevaarlijk. Wat eerst overduidelijk een poging tot fraude was, lijkt nu geloofwaardig en professioneel.

Enorme schade veroorzaakt door cryptofraude met behulp van AI.

Internationale rapporten illustreren de omvang van deze trend. Alleen al in 2024 bedroegen de bekende verliezen door cryptovalutafraude wereldwijd enkele miljarden Amerikaanse dollars. Een aanzienlijk deel hiervan is toe te schrijven aan fraudeschema's die gebruikmaken van deepfakes. Rechtshandhavingsinstanties melden de ontdekking van tientallen fraudenetwerken, met name in Azië, die specifiek gebruikmaken van AI-gebaseerde misleiding.

Ook in westerse landen wordt een sterke stijging van het aantal gevallen gemeld. Het gebruik van AI leidt tot een hoger succespercentage per fraudegeval, omdat slachtoffers intensiever worden gemanipuleerd en langer betrokken blijven.

Schijnbaar authentieke autoriteit en gerichte manipulatie

Een belangrijk kenmerk van moderne deepfake-fraude is de opzettelijke simulatie van autoriteit. Daders doen zich voor als bekende zakenmensen, beursmakelaars of overheidsfunctionarissen. In sommige gevallen gebruiken ze zelfs videogesprekken die meerdere dagen duren om slachtoffers onder psychologische druk te zetten. Deze vorm van zogenaamde digitale gijzeling combineert technologische misleiding met sociale dwang.

Door middel van vervalste achtergronden, officieel ogende documenten en overtuigende taal wordt een situatie gecreëerd waarin zelfs sceptische mensen beslissingen nemen die ze onder normale omstandigheden niet zouden nemen.

Deepfake-ondersteuningsgesprekken en toegang op afstand

Een bijzonder wijdverbreide oplichtingstruc betreft deepfake-oproepen van zogenaamde supportmedewerkers van cryptobeursen. De door AI gegenereerde stemmen klinken authentiek en gebruiken technisch jargon. Slachtoffers worden gewaarschuwd voor vermeende beveiligingsincidenten en aangespoord om direct actie te ondernemen.

Later vragen de daders vaak om toegang op afstand tot computers of smartphones. Onder het mom van een technische controle krijgen ze directe toegang tot digitale portemonnees, bankapps en beveiligingscodes. Binnen enkele minuten kunnen aanzienlijke bezittingen worden gestolen.

Doelgroep: oudere gebruikers en een groot aantal niet-gerapporteerde gevallen

Statistieken tonen aan dat met name oudere gebruikers steeds vaker het slachtoffer worden. Velen zijn minder bekend met AI-stemklonen of nep-videogesprekken en vertrouwen op ogenschijnlijk officiële instructies. Het aantal niet-gemelde gevallen is hoog, omdat slachtoffers zich vaak schamen of de fraude pas laat herkennen.

De werkelijke schade is daarom waarschijnlijk aanzienlijk hoger dan de bekende cijfers.

Juridische classificatie van deepfake-cryptofraude

Vanuit juridisch oogpunt vormen deze situaties doorgaans beleggingsfraude, soms in combinatie met identiteitsdiefstal, computervraude en georganiseerde misdaad. De technische complexiteit bemoeilijkt onderzoeken, maar sluit juridische stappen niet uit. Betalingsstromen, communicatiegeschiedenis en technische toegangsgegevens kunnen aanknopingspunten bieden voor een onderzoek.

Waarom traditionele voorzichtigheid niet langer volstaat

Deze ontwikkelingen tonen duidelijk aan dat visuele of auditieve verificatie alleen niet langer voldoende bescherming biedt. Deepfake-technologie omzeilt traditionele waarschuwingssignalen. De fraude berust niet langer op massale fraude, maar op gerichte, intensieve manipulatie van individuen, met aanzienlijke financiële verliezen tot gevolg.

Classificatie en juridische ondersteuning

De toenemende professionalisering van cryptofraude met behulp van AI vereist een even professionele juridische aanpak. RU Law is gespecialiseerd in de juridische afhandeling van cryptofraude en helpt slachtoffers bij het beoordelen van de feiten en het afdwingen van hun vorderingen.

Veelgestelde vragen over cryptofraude