Due settimane fa Meta Platforms Inc. (META), la società madre di Facebook e Instagram, aveva annunciato il lancio di un’IA generativa per WhatsApp e Messenger, ma le prime indiscrezioni sul progetto sono già trapelate sul sito web imageboard 4chan.
Da quando il chatbot ChatGPT è stato lanciato sul Web lo scorso novembre, i colossi della tecnologia si stanno dando battaglia a suon di sperimentazioni ultra sofisticate e investimenti multimiliardari per accaparrarsi il dominio del settore dell’intelligenza artificiale (AI).
Il software di IA generativa di OpenAI è stato un successo immediato e la startup si è assicurata un investimento di 10 miliardi di dollari da parte di Microsoft. L’ultima a salire sul treno è stata Meta Platforms Inc., che appena due settimane fa ha annunciato il rilascio di un modello linguistico di intelligenza artificiale noto come LLaMA.
LLaMA di Meta trapela online con un leak
A differenza di ChatGPT, il nuovo modello di linguaggio AI di Meta non è un chatbot, ma un pacchetto open-source che secondo la multinazionale guidata da Mark Zuckerberg si pone l’obiettivo di “democratizzare l’accesso” all’AI.
Quando due settimane fa il suo amministratore delegato annunciò che la società stava lavorando alla creazione di un “gruppo di prodotti di alto livello” incentrato sull’IA generativa, la società pubblicò un post sul blog affermando:
“Anche con tutti i recenti progressi nei modelli linguistici di grandi dimensioni, l’accesso completo alla ricerca rimane limitato a causa delle risorse necessarie per addestrare ed eseguire tali modelli“.
Tuttavia, per quanto Meta non volesse rendere la risorsa pubblica (almeno per il momento), il 3 marzo un pacchetto torrent con il codice di LLaMA è stato pubblicato online sul sito web imageboard 4chan.
Dopo che la notizia è stata diffusa in diverse comunità di AI, in molti ora temono che il modello di linguaggio LLaMA possa cadere in mano a persone che potrebbero usarlo per scopi illeciti.
Il rischio, come ha spiegato in un tweet l’esperto di cybersicurezza Jeffrey Ladish è che molti possano utilizzare questa risorsa per spam personalizzati e tentativi di phishing avanzati, sottolineando che l’open-sourcing di questi modelli linguistici non è una buona idea.
Well Meta's 65 billion parameter language model just got leaked to the public internet, that was fast.
Get ready for loads of personalized spam and phishing attempts. Open sourcing these models was a terrible idea
— Jeffrey Ladish (@JeffLadish) March 4, 2023
Mentre alcuni esperti temono il peggio, altri sviluppatori ritengono invece che il leak possa portare allo sviluppo di misure di sicurezza aggiuntive per i sistemi IA. Inoltre, è importante notare che altri modelli di linguaggio più complessi sono stati diffusi in rete senza conseguenze.
Diversi ricercatori in ambito IA hanno già scaricato il pacchetto LLaMA non distribuito da Meta e hanno confermato la sua legittimità. Tuttavia, al momento LLaMA è un sistema grezzo che richiede competenze tecniche specifiche e macchine potenti per renderlo pienamente funzionante. Insomma, non è il tipo di tool che un hacker inesperto può sfruttare.
Sebbene la multinazionale guidata da Mark Zuckerberg non abbia confermato la legittimità della versione leakata, l’amministratore delegato di Meta AI, Joelle Pineau, ha osservato che alcune persone stanno cercando di aggirare il processo di autorizzazione.
LLaMA di Meta è un’IA pericolosa?
Negli ultimi tempi si è discusso molto sul potenziale dell’IA e alcuni, tra cui il nuovo capo di Twitter Elon Musk, ritengono che la mancanza di tutele possa essere pericolosa. Pertanto, la fuga di notizie sul nuovo modello linguistico di Meta ha suscitato reazioni contrastanti.
— Elon Musk (@elonmusk) February 28, 2023
A differenza di ChatGPT, LLaMA richiede specifiche competenze tecniche per essere configurato e utilizzato, per cui può essere gestito solo da persone che hanno familiarità con server ed ecosistemi complessi.
Inoltre, secondo Meta, si tratterebbe di modello linguistico più potente di GPT-3 di OpenAI, con circa 13 miliardi di parametri in più.
Si teme inoltre che questa fuga di notizie possa minare il rapporto di fiducia tra i giganti tecnologici e gli accademici con cui condividono le loro informazioni di ricerca, rendendo più difficile il rilascio di nuovi software AI da parte delle aziende tecnologiche.
Leggi anche: OpenAI lancia l’API commerciale per ChatGPT e Whisper