In una lettera aperta pubblicata dall’istituto no-profit Future of Life Institute e firmata da oltre 1.000 persone, tra cui Elon Musk, un gruppo di esperti di intelligenza artificiale e alcuni dirigenti del settore hanno chiesto una pausa di sei mesi nello sviluppo di sistemi più potenti dell’appena lanciato GPT-4 di OpenAI, citando i potenziali rischi per la società e l’umanità.
Secondo i firmatari, la pausa dovrebbe durare almeno fino a quando non saranno sviluppati, implementati e verificati da esperti indipendenti protocolli di sicurezza condivisi per tali progetti.
“I potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando si ha la certezza che i loro effetti saranno positivi e i loro rischi gestibili“, si legge nella lettera.
La missiva illustra anche i potenziali rischi per la società derivanti dai sistemi IA competitivi con l’uomo, sotto forma di sconvolgimenti economici e politici, invitando gli sviluppatori a collaborare con i responsabili politici in materia di governance e regolamentazione.
Tra i cofirmatari figurano anche l’amministratore delegato di Stability AI Emad Mostaque, i ricercatori di DeepMind, società di proprietà di Alphabet, e i grandi nomi dell’IA Yoshua Bengio e Stuart Russell.
Secondo il registro di trasparenza dell’Unione Europea, il Future of Life Institute è finanziato principalmente dalla Musk Foundation, dal gruppo londinese Founders Pledge e dalla Silicon Valley Community Foundation.
Le preoccupazioni arrivano dopo che lunedì l’agenzia dell’Unione Europea per la cooperazione con le forze dell’ordine – Europol – ha lanciato un severo avvertimento sul crescente utilizzo delle tecnologie AI, come ChatGPT di OpenAI, da parte dei criminali, sostenendo che i modelli linguistici basati sull’intelligenza artificiale possono alimentare frodi, crimini informatici e disinformazione.
Nel frattempo, il governo britannico ha presentato una serie di proposte per un quadro normativo “adattabile” sull’IA, delineate in un documento politico pubblicato mercoledì, che prevede di suddividere la responsabilità di governare l’intelligenza artificiale tra le autorità di regolamentazione per i diritti umani, la salute e la sicurezza e la concorrenza, piuttosto che creare un nuovo organismo appositamente dedicato alla tecnologia.
Musk, la cui casa automobilistica Tesla (TSLA) sta utilizzando l’intelligenza artificiale per migliorare il suo sistema di pilota automatico, ha espresso apertamente le sue preoccupazioni in merito all’AI.
Da quando è stato rilasciato lo scorso anno, ChatGPT di OpenAI, sostenuto da Microsoft, ha spinto i rivali ad accelerare lo sviluppo di modelli linguistici simili e le aziende a integrare i sistemi di AI generativa nei loro prodotti.
“La lettera non è perfetta, ma lo spirito è giusto: dobbiamo rallentare fino a quando non capiremo meglio le ramificazioni“, ha affermato Gary Marcus, un professore della New York University che ha firmato la lettera. “I grandi operatori stanno diventando sempre più riservati su ciò che fanno, il che rende difficile per la società difendersi da qualsiasi danno possa materializzarsi“.