Økt bruk av AI-drevne verktøy til å lage deepfake-innhold har vekket nye bekymringer for offentlig sikkerhet.
Etter hvert som teknologien blir mer avansert og allment tilgjengelig, reises det også spørsmål om påliteligheten til systemene for visuell identitetsverifisering brukt av sentraliserte børser.
Regjeringer tar grep mot deepfakes
Villedende videoer sprer seg raskt på sosiale medieplattformer og forsterker bekymringene rundt en ny bølge av desinformasjon og fabrikert innhold. Den økende misbruken av denne teknologien undergraver i stadig større grad offentlig sikkerhet og personlig integritet.
Problemet har nådd nye høyder, og myndigheter over hele verden har vedtatt lover som gjør bruk av deepfakes ulovlig.
Denne uken ble Malaysia og Indonesia de første landene som innførte restriksjoner på Grok, chatboten for kunstig intelligens utviklet av Elon Musks xAI. Myndighetene uttalte at avgjørelsen kom etter bekymringer for misbruk til å generere seksuelt eksplisitte og ikke-samtykkede bilder.
Californias justisminister Rob Bonta kunngjorde et lignende tiltak. Onsdag bekreftet han at hans kontor etterforsker flere rapporter om ikke-samtykkede, seksualiserte bilder av ekte personer.
«Dette materialet, som viser kvinner og barn i nakne og seksuelt eksplisitte situasjoner, har blitt brukt til å trakassere folk på internett. Jeg ber xAI iverksette umiddelbare tiltak for å sørge for at dette ikke sprer seg videre,» uttalte Bonta i en pressemelding.
I motsetning til tidligere deepfakes kan nyere verktøy svare dynamisk på forespørsler. De imiterer overbevisende naturlige ansiktsbevegelser og synkronisert tale.
Derfor kan enkle kontroller som blinking, smil eller hodebevegelser ikke lenger pålitelig bekrefte en brukers identitet.
Disse fremskrittene har direkte konsekvenser for sentraliserte børser som er avhengige av visuell verifisering i onboarding-prosessen.
Sentraliserte børser under press
Den økonomiske effekten av deepfake-basert svindel er ikke lenger teoretisk.
Bransjeobservatører og teknologiforskere har advart om at AI-genererte bilder og videoer stadig oftere dukker opp i sammenhenger som forsikringskrav og rettstvister.
Kryptoplattformer, som opererer globalt og ofte er avhengige av automatisert onboarding, kan bli et attraktivt mål for slik aktivitet dersom beskyttelsestiltak ikke utvikles i takt med teknologien.
Etter hvert som AI-generert innhold blir mer tilgjengelig, er ikke tillit basert kun på visuell verifisering nødvendigvis tilstrekkelig.
Utfordringen for kryptoplattformer blir å tilpasse seg raskt, før teknologien overgår beskyttelsestiltakene som skal sørge for sikre brukere og systemer.
