L’agenzia dell’Unione Europea per la cooperazione con le forze dell’ordine ha lanciato un severo avvertimento sul crescente utilizzo delle tecnologie AI, come ChatGPT di OpenAI, da parte dei criminali, sostenendo che i modelli linguistici basati sull’intelligenza artificiale possono alimentare frodi, crimini informatici e disinformazione.

In un recente rapporto, l’Europol ha inoltre affermato che i delinquenti stanno già utilizzando tali strumenti per svolgere attività illegali.

L’impatto che questo tipo di modelli potrebbe avere sul lavoro delle forze dell’ordine è già prevedibile“, ha aggiunto l’Europol nel suo rapporto.

ChatGPT è un chatbot di intelligenza artificiale costruito sulla base delle famiglie di modelli linguistici GPT-3.5 e GPT-4 di OpenAI. Dal suo lancio nel novembre 2022, ha conquistato Internet e l’opinione pubblica, diventando l’app con la crescita più rapida della storia.

I malintenzionati sono tipicamente rapidi nello sfruttare le nuove tecnologie e si sono subito visti proporre strumenti criminali concreti, fornendo i primi esempi pratici a poche settimane dal rilascio pubblico di ChatGPT“.

Le tre principali aree di criminalità per l’uso improprio di ChatGPT

Europol ha rilevato che l’uso illecito di ChatGPT è più evidente in tre aree di criminalità.

In primo luogo, la capacità del chatbot di creare testi altamente realistici lo rende un utile strumento per le frodi e il phishing. Allo stesso modo, la sua abilità nell’impersonare lo stile di individui o gruppi specifici di persone lo rende ancora più pericoloso nelle mani dei criminali.

L’agenzia di controllo dell’UE ha anche espresso il timore che ChatGPT possa essere utilizzato per diffondere disinformazione, poiché lo strumento è ben addestrato a produrre testi autentici molto velocemente e su larga scala.

Oltre a generare un linguaggio simile a quello umano, ChatGPT è in grado di produrre codici in una serie di linguaggi di programmazione diversi“, ha dichiarato l’agenzia, sottolineando che i criminali con scarse conoscenze tecniche potrebbero rivolgersi al cahtbot per produrre codici potenzialmente dannosi.

I criminali possono aggirare i filtri sui contenuti inappropriati

Sebbene ChatGPT sia in grado di rifiutarsi di rispondere a richieste potenzialmente dannose rispetto ad altri chatbot alimentati dall’intelligenza artificiale, esistono comunque delle scappatoie che consentono agli utenti di aggirare il suo sistema di filtraggio dei contenuti.

Per esempio, alcuni sono riusciti a ingannare il chatbot e a fargli rivelare le istruzioni per creare una bomba a piombini o il crack dalla cocaina.

Se un potenziale criminale non sa nulla di una particolare area criminale, ChatGPT può accelerare il processo di ricerca in modo significativo, offrendo informazioni chiave che possono essere approfondite in fasi successive“, ha avvertito l’agenzia, aggiungendo: “Pertanto, ChatGPT può essere utilizzato anche da chi non ha alcuna conoscenza preliminare per apprendere un vasto numero di potenziali aree di criminalità, che vanno da come introdursi in una casa, al terrorismo, al crimine informatico e all’abuso sessuale su minori“.

L’Europol ha riconosciuto che, mentre tutte le informazioni di cui i criminali hanno bisogno per compiere reati specifici potrebbero essere già disponibili pubblicamente, i chatbot dotati di intelligenza artificiale rendono molto più facile trovare tutti i dettagli necessari, fornendo persino una guida step by step.

L’agenzia ha poi concluso che, man mano che si rendono disponibili nuovi modelli AI, le forze dell’ordine devono “rimanere all’avanguardia su questi sviluppi per anticipare e prevenire gli abusi“.