In un’intervista al programma statunitense di attualità “60 Minutes“, andato in onda domenica sul network televisivo CBS, il CEO di Google e Alphabet, Sundar Pichai, ha dichiarato che “ogni prodotto di ogni azienda” sarà influenzato dal rapido sviluppo dell’AI, avvertendo che la società deve prepararsi a tecnologie come quelle che ha già lanciato.
“Dobbiamo adattarci come società“, ha spiegato Pichai all’intervistatore Scott Pelley, aggiungendo che i posti di lavoro che saranno soppiantati dall’AI comprenderanno i “lavoratori della conoscenza“, tra cui scrittori, contabili, architetti e, ironia della sorte, anche ingegneri del software.
“Questo avrà un impatto su tutti i prodotti e su tutte le aziende“, ha proseguito Pichai. “Per esempio, tra cinque o dieci anni da oggi, un radiologo avrà un collaboratore AI ad aiutarlo. Arrivi al mattino, diciamo che hai un centinaio di casi da valutare, e lui potrebbe dirti: ‘questi sono i casi più gravi che devi esaminare per primi’.”
Nell’avvertire delle conseguenze dell’AI, il CEO di Google ha anche affermato che la portata del problema della disinformazione, delle notizie e delle immagini false sarà “molto più grande e potrebbe causare enormi danni“.
Il mese scorso Google ha lanciato il suo servizio di intelligenza artificiale conversazionale Bard AI come prodotto sperimentale per il pubblico. In quell’occasione Pichai ha avvertito i dipendenti che il successo del chatbot sarebbe dipeso dai test pubblici, aggiungendo di aspettarsi che “le cose andranno male“.
A distanza di un mese, purtroppo, quel monito non solo si è rivelato fondato ma è andato ben oltre anche la semplice critica del pubblico.
A marzo, Elon Musk, Steve Wozniak e decine di esperti del settore hanno firmato una lettera aperta in cui chiedevano una pausa di sei mesi nello sviluppo di sistemi più potenti dell’appena lanciato GPT-4 di OpenAI, citando i potenziali rischi per la società e l’umanità. Da allora, oltre 25.000 persone hanno firmato la petizione.
“La pressione competitiva tra giganti come Google e startup di cui non avete mai sentito parlare sta spingendo l’umanità verso il futuro, che sia pronta o meno“, ha commentato Pelley durante l’intervista.
Nel frattempo, Google ha pubblicato un documento che delinea le “raccomandazioni per la regolamentazione dell’IA“, ma Pichai ha affermato che la società deve adottare rapidamente regolamenti e leggi per punire gli abusi, e che le Nazioni devono stipulare trattati per rendere l’IA sicura per il mondo, fissando regole che “si allineino ai valori umani, compresa la moralità“.
“Non spetta a un’azienda decidere“, ha precisato Pichai. “Ecco perché penso che lo sviluppo di questa tecnologia debba includere non solo ingegneri, ma anche scienziati sociali, etici, filosofi e così via“.
Quando gli è stato chiesto se la società fosse pronta ad accogliere nuove tecnologie AI come Bard, Pichai ha risposto:
“Da un lato penso di no, perché il ritmo con cui riusciamo a pensare e ad adattarci come istituzioni sociali, rispetto al ritmo con cui la tecnologia si sta evolvendo, sembra non essere all’altezza“.
Tuttavia, ha aggiunto di essere ottimista perché, rispetto ad altre tecnologie del passato, “il numero di persone che ha iniziato a preoccuparsi delle implicazioni è di gran lunga superiore“.