La crescente diffusione dell’intelligenza artificiale (IA) sta aprendo nuove opportunità, ma allo stesso tempo introduce minacce sempre più sofisticate, specialmente nel campo delle truffe finanziarie.
Una delle tecnologie più pericolose emerse di recente è quella dei deepfake, ovvero contenuti video o audio manipolati con l’IA per imitare in modo estremamente realistico l’aspetto e la voce di individui reali. Questi strumenti sono ora utilizzati per aggirare i controlli di verifica dell’identità (KYC, Know Your Customer) sui principali exchange di criptovalute, aprendo la strada a nuove forme di frode.
L’evoluzione delle truffe AI e il ruolo dei deepfake
Negli ultimi due anni, l’uso di video deepfake ha visto una crescita esponenziale, impattando vari settori, inclusi i social media e le transazioni finanziarie. I truffatori utilizzano queste tecniche per impersonare celebrità o dirigenti aziendali in video falsi, convincendo le vittime a entrare in truffe di phishing o a investire in progetti fraudolenti.
Secondo alcuni casi riportati, sono stati rubati milioni di dollari attraverso video deepfake utilizzati in videoconferenze per ingannare i dipendenti di grandi aziende. Questo fenomeno si è presto esteso al settore delle criptovalute, grazie alla natura pseudo-anonima di molte transazioni digitali, che facilita la monetizzazione dei proventi illeciti.
Per tutelarsi contro tali truffe, gli exchange di criptovalute hanno adottato protocolli di sicurezza come il KYC. Questo richiede agli utenti di fornire documenti identificativi e, talvolta, di registrare video per verificare la loro identità tramite controlli biometrici, quali il riconoscimento facciale. Tuttavia, i deepfake stanno diventando talmente sofisticati da riuscire a eludere anche queste misure, rappresentando una seria minaccia per la sicurezza finanziaria.
Deepfake AI scammers stole $26 million by impersonating company’s CFO in a video call pic.twitter.com/6k0TqvxIcr
— Dexerto (@Dexerto) February 6, 2024
ProKYC: un nuovo strumento di frode
Un esempio lampante di questa nuova minaccia è ProKYC, uno strumento deepfake basato su IA, sviluppato specificamente per bypassare i controlli KYC degli exchange di criptovalute. Disponibile a pagamento, ProKYC offre ai truffatori la possibilità di generare documenti di identità falsi e video apparentemente reali per superare le verifiche di identità su piattaforme come Bybit, Stripe e Revolut. Questo software include funzionalità avanzate come emulazioni virtuali, animazioni facciali e generazione di impronte digitali, rendendo molto difficile, per i sistemi di sicurezza tradizionali, individuare l’inganno.
🚨 New threat research!
🕵️♂️ Cato CTRL has discovered a threat actor, ProKYC, selling a deepfake tool in the cybercriminal underground to enable new account fraud against cryptocurrency exchanges.
🔗 Blog: https://t.co/STI3xjCUVd#NetworkSecurity #deepfake #SASE pic.twitter.com/sAKrR2MaYb
— Cato Networks (@CatoNetworks) October 10, 2024
La crescente popolarità di ProKYC e strumenti simili rischia di incrementare il fenomeno delle frodi di identità nel mondo delle criptovalute, rendendo possibile la creazione di account multipli su diverse piattaforme e la messa in atto di frodi sofisticate come il New Account Fraud (NAF), una tecnica che permette di registrare nuovi account utilizzando identità fittizie.
La sicurezza dei dati degli utenti diventa ancora più fragile in un contesto in cui si moltiplicano anche i data breach, come quello che ha recentemente colpito la società Fidelity, con la violazione di oltre 77.000 profili contenenti informazioni sensibili come numeri di previdenza sociale e patenti di guida.
La risposta delle piattaforme e le misure di contrasto
Di fronte a questa nuova ondata di minacce, gli exchange crypto stanno cercando di potenziare le loro misure di sicurezza. Tuttavia, creare controlli biometrici sempre più stringenti può generare un numero crescente di “falsi positivi”, che possono rendere l’esperienza utente estremamente frustrante. Le piattaforme si trovano così a dover bilanciare tra un livello di sicurezza elevato e la necessità di garantire un’interazione fluida e priva di frustrazioni per i clienti legittimi.
Leggi anche: I migliori Bitcoin wallet del 2024 – I più sicuri e facili da usare
Alcuni esperti di sicurezza, come quelli di Cato Networks, suggeriscono l’adozione di metodi di rilevamento alternativi, che prevedono l’intervento umano per identificare eventuali incoerenze nei movimenti facciali o nella qualità delle immagini dei video deepfake. Sebbene questa soluzione richieda più risorse, potrebbe rappresentare una barriera più robusta contro le truffe basate sull’IA.
Inoltre, le autorità regolamentari stanno iniziando a prendere seriamente in considerazione il problema. Negli Stati Uniti, le pene per frodi legate all’identità sono piuttosto severe, con sanzioni che possono arrivare fino a 15 anni di carcere, a seconda della gravità del reato.
Tuttavia, il sistema giudiziario da solo potrebbe non essere sufficiente a contrastare l’esplosione di queste tecnologie fraudolente, se non accompagnato da un rafforzamento dei sistemi di sicurezza su scala globale.
Conclusioni
La combinazione di IA e deepfake rappresenta una delle sfide più complesse che gli exchange di criptovalute e le istituzioni finanziarie devono affrontare.
Strumenti come ProKYC stanno dimostrando quanto sia urgente l’adozione di misure di sicurezza più sofisticate, in grado di fronteggiare queste nuove minacce.
Tuttavia, il problema non è solo tecnologico, ma anche di carattere normativo e gestionale. Solo un approccio integrato che coinvolga innovazione tecnologica, regolamentazione adeguata e consapevolezza da parte degli utenti potrà arginare l’ondata di truffe IA che minaccia il settore delle criptovalute.