Nel 2015, il CEO di Twitter Elon Musk ha co-fondato e finanziato la startup californiana OpenAI per creare un nuovo modello linguistico basato sull’intelligenza artificiale, oggi conosciuto con il nome di ChaGPT.

All’epoca OpenAI era un’organizzazione no-profit, mentre nel 2019 ha cambiato il suo modello di business in uno ibrido con un tetto massimo di profitti, vantando oggi una valutazione privata di quasi 30 miliardi di dollari e Microsoft come investitore principale.

In un tweet di mercoledì, l’amministratore delegato di Tesla ha apertamente attaccato la startup, cercando di capire perché un’organizzazione no-profit che ha contribuito a fondare con una donazione di 100 milioni di dollari si sia trasformata in una “società a scopo di lucro con una capitalizzazione di mercato di 30 miliardi di dollari“.

Elon Musk è preoccupato per i pericoli dell’intelligenza artificiale

Oltre a mettere in discussione il quadro giuridico che circonda l’enorme valutazione di OpenAI, anni dopo aver fondato l’azienda, il CEO di Twitter nutre forti dubbi anche sull’intelligenza artificiale e sui pericoli che la circondano, noti e sconosciuti.

Tuttavia, Musk non è l’unico ad essere preoccupato per l’AI e i potenziali rischi legati all’avanzamento della tecnologia. Mercoledì Max Tegmark – un esperto del settore – ha twittato, riferendosi all’improvviso interesse globale per la tecnologia come “una corsa al ribasso senza regole probabilmente finirà male per la razza umana“.

In un tweet condiviso il 17 febbraio, Elon Musk ha spiegato che quando ha investito nella startup non aveva in mente Microsoft ma Google, ritenendo che con la tecnologia di OpenAI il mondo avrebbe avuto una “società senza scopo di lucro che facesse da contrappeso a Google“.

Contrariamente alle sue aspettative che l’azienda rimanesse open-source come era stata creata in origine, ora OpenAI è un’organizzazione commerciale che prospera per ottenere il massimo profitto sotto il controllo di Microsoft.

Nella sua dichiarazione di fondazione, OpenAi era stata molto chiara riguardo alla sua missione e all’organizzazione in cui avrebbe voluto crescere. Se l’azienda fosse rimasta fedele alla sua filosofia originaria, non avrebbe cercato di siglare partnership strategiche con aziende tecnologiche di primo piano, ma si sarebbe concentrata sull’impatto delle sue tecnologie sulla razza umana.

Il nostro obiettivo è quello di far progredire l’intelligenza digitale nel modo in cui è più probabile che l’umanità nel suo complesso ne tragga beneficio, senza essere vincolati dalla necessità di generare un ritorno finanziario. Poiché la nostra ricerca è libera da obblighi finanziari, possiamo concentrarci meglio su un impatto umano positivo“, ha dichiarato OpenAI quando all’epoca era un’organizzazione no-profit.

Open AI ha cambiato rotta nel 2018

Secondo Fortune, nel 2018 OpenAI ha iniziato a deviare dalla sua missione originaria (no-profit) per costruire “sistemi in grado di superare gli esseri umani nel lavoro di maggior valore economico“, secondo quanto scritto dall’azienda in uno statuto.

La missione di OpenAI è garantire che l’intelligenza artificiale generale (AGI) – con la quale intendiamo sistemi altamente autonomi che superano gli esseri umani nel lavoro di maggior valore economico – porti benefici a tutta l’umanità“, ha dichiarato all’epoca OpenAI, aggiungendo: “Ci impegniamo a fornire beni pubblici che aiutino la società a percorrere il cammino verso l’AGI“.

La corsa al dominio dell’IA si intensifica con il rilascio di GPT-4

La competizione per il dominio dell’intelligenza artificiale continua a prendere piede tra attori chiave come Microsoft (OpenAI), Google e Meta.

All’inizio di questa settimana OpenAI ha lanciato GPT4, una versione avanzata e più affidabile di ChatGPT. Tuttavia, con una svolta inaspettata, la startup ha rivelato che il modello linguistico di nuova generazione si è sempre nascosto in bella vista, dal momento che il chatbot AI Bing Chat di Microsoft – creato insieme a OpenAI – era basato proprio su GPT-4.

Inoltre, il colosso di Redmond ha recentemente dichiarato che intende integrare il nuovo modello AI anche nella sua suite Microsoft 365, che comprende documenti Word, fogli di calcolo Excel, presentazioni PowerPoint e messaggi di posta elettronica Outlook.

Microsoft (MSFT) ha inoltre affermato che la versione potenziata dall’intelligenza artificiale sarà presto in grado di produrre documenti completi, scrivere e-mail e creare slide decks, accelerando la creazione di contenuti e semplificando il lavoro degli utenti.

Secondo quanto emerso all’evento “Future of Work with AI” tenutosi il 16 marzo, l’azienda intende lanciare la nuova tecnologia nei prossimi mesi, con test già in corso in 20 aziende, otto delle quali appartenenti alla fascia Fortune 500.

Questo è il grande passo successivo per noi: inserirlo negli strumenti che tutti usano ogni giorno per il loro lavoro.” – ha dichiarato Satya Nadella, CEO di Microsoft, in un’intervista – “Con la nuova tecnologia, le persone potranno creare grandi contenuti, grandi documenti, grandi PowerPoint e arte, oltre a svolgere analisi complesse utilizzando query in linguaggio naturale“.

Nel frattempo, anche Google sta aprendo un nuovo capitolo sull’intelligenza artificiale annunciando l’integrazione di nuovi strumenti e funzionalità basati sull’IA che andranno a migliorare la sua soluzione Workspace, la suite di prodotti utilizzati dalle aziende come Gmail, Docs, Calendar e Drive.

Il gigante di Mountain View sta anche rinnovando il suo concorrente di ChatGPT, chiamato Apprentice Bard, per competere con ChatGPT, prima del lancio completo. Inoltre, secondo quanto riportato da Insider, i dipendenti di Google e un gruppo ristretto di “tester di fiducia” stanno attualmente testando una versione più avanzata dell’IA chiamata “Big Bard”.

Durante l’Investor Day di Tesla tenutosi il primo marzo, Elon Musk è apparso molto preoccupato per il suo contributo alla creazione di OpenAI, chiedendo una supervisione sullo sviluppo dell’IA per garantire che sia in linea con gli interessi del pubblico, perché a suo avviso si tratta di una tecnologia molto pericolosa.

Sono un po’ preoccupato per l’IA. Abbiamo bisogno di una sorta di autorità di regolamentazione o qualcosa che sorvegli lo sviluppo dell’intelligenza artificiale. Assicurarsi che si operi nell’interesse pubblico. È una tecnologia piuttosto pericolosa. Temo di aver fatto qualcosa per accelerarla“.