Un think tank sull’intelligenza artificiale si unisce alle Nazioni Unite nel lanciare l’allarme su GPT-4, la versione perfezionata del linguaggio di AI che sta dietro ChatGPT, definendolo parziale, ingannevole e rischioso per la privacy e la sicurezza pubblica.

Ieri, il Center for AI and Digital Policy (CAIDP) ha presentato una denuncia formale alla Federal Trade Commission degli Stati Uniti, accusando OpenAI – la startap ha dato i natali al popolarissimo chatbot ChatGPT – di aver violato la sezione cinque del FTC Act, che si occupa di pratiche ingannevoli e sleali.

La FTC ha la chiara responsabilità di indagare e proibire le pratiche commerciali sleali e ingannevoli“, ha dichiarato in un comunicato il fondatore e presidente del centro, Marc Rotenberg. “Crediamo che la FTC debba esaminare attentamente OpenAI e GPT-4“.

Non a caso, il mese scorso la FTC ha aggiornato la legge per includere un riferimento diretto anche agli sviluppatori di programmi di intelligenza artificiale come OpenAI, esortandoli a non sopravvalutare le loro capacità, a dichiarare eventuali prestazioni ingannevoli e a evitare di promettere una superiorità rispetto ai prodotti non AI senza prove adeguate.

Il CAIDP è stato istituito nel 2020 nell’ambito del Michael Dukakis Institute for Leadership and Innovation ed è ora un’organizzazione no-profit con sede a Washington.

La FTC ha anche avvertito gli sviluppatori di analizzare i potenziali rischi e impatti della tecnologia prima del lancio.

È necessario conoscere i rischi e gli impatti ragionevolmente prevedibili del proprio prodotto di AI prima di immetterlo sul mercato“, ha scritto l’agenzia. “Se qualcosa va storto – magari fallisce o produce risultati distorti – non si può semplicemente dare la colpa a un terzo sviluppatore della tecnologia. E non potete dire di non essere responsabili perché quella tecnologia è una ‘scatola nera’ che non riuscite a capire o non sapete come testare“.

Dal 2017, la FTC ha lanciato l’allarme sugli usi non etici di tecnologie emergenti come l’intelligenza artificiale e la blockchain, che sono diventate sempre più popolari e mainstream.

La popolarità quasi improvvisa di GPT-4, l’ultima evoluzione di ChatGPT, ha messo in discussione il rapido dominio di OpenAI nel settore, spingendo il Center for AI and Digital Policy a chiedere alla FTC di indagare sulla startup californiana per determinare se l’azienda ha rispettato le regole del FTC Act.

Il deposito della denuncia presso la FTC arriva pochi giorni dopo che diversi membri di alto profilo del settore tecnologico, tra cui l’amministratore delegato di Telsa e Twitter Elon Musk, hanno firmato una lettera aperta per chiedere una pausa di sei mesi nello sviluppo di sistemi più potenti dell’appena lanciato GPT-4 di OpenAI, citando i potenziali rischi per la società e l’umanità.

Chiediamo a tutti i laboratori di AI di sospendere immediatamente, per almeno 6 mesi, l’addestramento di sistemi di intelligenza artificiale più potenti di GPT-4. Questa pausa dovrebbe essere pubblica e verificabile e includere tutti gli attori chiave“, si legge nella lettera. “Se tale pausa non può essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria“.

Il CAIDP non è l’unico a chiedere indagini sul rapido sviluppo dell’AI e sulla necessità di regole: giovedì, l’Organizzazione delle Nazioni Unite per l’Educazione, la Scienza e la Cultura (UNESCO) ha pubblicato una dichiarazione in cui si chiede un “Quadro etico globale“.

Nel novembre 2021, i 193 Stati membri della Conferenza generale dell’UNESCO hanno votato per stabilire uno standard globale per l’etica dell’intelligenza artificiale, con l’obiettivo di salvaguardare e far progredire i diritti e la dignità umana, offrendo al contempo una guida etica di base per promuovere l’adesione allo stato di diritto nel mondo digitale.

Il mondo ha bisogno di regole etiche più forti per l’intelligenza artificiale: questa è la sfida del nostro tempo“, ha dichiarato il Direttore generale dell’UNESCO Audrey Azoulay.