Het toenemende gebruik van AI-gestuurde tools om deepfake-inhoud te maken zorgt opnieuw voor zorgen over de openbare veiligheid.
Nu de technologie steeds geavanceerder en makkelijker toegankelijk wordt, ontstaan er ook vragen over de betrouwbaarheid van visuele identiteitscontroles bij gecentraliseerde exchanges.
Overheden gaan deepfakes tegengaan
Misleidende video’s verspreiden zich snel op sociale mediaplatforms, waardoor de zorgen over een nieuwe golf van desinformatie en nepinhoud toenemen. Het toenemende misbruik van deze technologie ondermijnt steeds vaker de openbare veiligheid en persoonlijke integriteit.
Het probleem neemt steeds serieuzere vormen aan, met overheden wereldwijd die wetten invoeren om het gebruik van deepfakes illegaal te maken.
Deze week waren Maleisië en Indonesië de eerste landen die de toegang tot Grok, de kunstmatige intelligentie-chatbot van Elon Musk’s xAI, beperkten. Volgens de autoriteiten gebeurde dit na zorgen over misbruik van Grok voor het maken van seksueel expliciete en niet-consensuele beelden.
De procureur-generaal van Californië, Rob Bonta, kondigde een vergelijkbare maatregel aan. Op woensdag bevestigde hij dat zijn kantoor meerdere meldingen onderzoekt van niet-consensuele, seksueel getinte beelden van echte personen.
“Dit materiaal, dat vrouwen en kinderen naakt en in seksueel expliciete situaties afbeeldt, wordt gebruikt om mensen online te intimideren. Ik roep xAI op om direct maatregelen te nemen zodat dit niet verder verspreid wordt,” zei Bonta in een verklaring.
In tegenstelling tot oudere deepfake-video’s kunnen nieuwe AI-tools nu reageren op aanwijzingen. Ze bootsen natuurlijke gezichtsbewegingen en gesynchroniseerde spraak overtuigend na.
Hierdoor zijn eenvoudige controles, zoals knipperen, glimlachen of hoofdbewegingen mogelijk niet langer voldoende om iemands identiteit betrouwbaar vast te stellen.
Deze ontwikkelingen hebben directe gevolgen voor gecentraliseerde exchanges die tijdens het aanmeldproces gebruikmaken van visuele verificatie.
Gecentraliseerde exchanges onder druk
De financiële gevolgen van deepfake-fraude zijn niet langer slechts theoretisch.
Sectorwaarnemers en technologie-onderzoekers waarschuwen dat AI-gegenereerde beelden en video’s steeds vaker voorkomen bij situaties zoals verzekeringsclaims en rechtszaken.
Crypto-platforms, die wereldwijd opereren en vaak vertrouwen op automatische aanmeldprocedures, kunnen een aantrekkelijk doelwit worden voor dit soort praktijken als beveiligingsmaatregelen niet meegroeien met de technologie.
Nu het makkelijker wordt om AI-inhoud te maken, is uitsluitend vertrouwen op visuele verificatie misschien niet meer genoeg.
De uitdaging voor crypto-platforms is om zich snel genoeg aan te passen, voordat de technologie sneller gaat dan de beveiligingsmaatregelen die gebruikers en systemen veilig moeten houden.
