Il Garante per la privacy canadese ha avviato un’indagine su OpenAI, la società che ha creato il famoso chatbot ChatGpt, per presunta raccolta, utilizzo e diffusione di dati personali senza consenso.
L’accusa è del tutto simile a quella mossa dall’Italia e si aggiunge alle altre contestazioni arrivate in questi giorni all’indirizzo della startup di San Francisco. Anche le autorità garanti dei dati personali di Francia, Germania e Irlanda starebbero valutando la possibilità di vietare al software di AI la raccolta dei dati dei cittadini, sulla stessa linea di quanto ha già fatto il GPDP italiano.
L’indagine in Canada su ChatGpt
Secondo l’autorità canadese, l’indagine “è stata avviata in seguito a una denuncia di raccolta, utilizzo e divulgazione di informazioni personali senza consenso”. Il motivo alla base di questa accusa è che ChatGpt utilizzerebbe in modo illegittimo le informazioni disponibili online per fornire risposte dettagliate alle domande degli utenti.
In una recente intervista, il capo dello sviluppo tecnologico di OpenAi, Mira Murati, ha affermato di non essere al corrente di ulteriori contestazioni da parte di altre autorità nazionali, “ma se ci sono Paesi che hanno dei timori spero che lo facciano avviando un dialogo con noi invece che bloccarci o spegnerci”, a differenza di quanto fatto dall’Italia.
OpenAi e i suoi software basati sull’intelligenza artificiali sono al centro di attenzioni sempre più pressanti da parte di governi e istituzioni, tra cui anche un reclamo presentato alla Federal Trade Commission – la Consob americana – in cui si chiede di indagare sulla società e di sospendere il rilascio di nuovi modelli di intelligenza artificiale, come GPT-4, la versione perfezionata del linguaggio di AI che sta dietro ChatGPT.
OpenAI potrebbe affrontare la sua prima causa per presunta diffamazione in Australia
Nel frattempo, per OpenAi rischia di aprirsi un fronte anche in Australia, dove il presidente della provincia di Hepburn Shire, Brian Hood, ha minacciato di denunciare la società se non correggerà le false affermazioni di ChatGPT, secondo cui il politico sarebbe stato in prigione per corruzione, perché coinvolto in uno scandalo della Reserve Bank of Australia nei primi anni 2000.
A regional Australian mayor said he may sue OpenAI if it does not correct ChatGPT's false claims that he had served time in prison for bribery, in what would be the first defamation lawsuit against the automated text service https://t.co/cbsEKfc5oH
— Reuters (@Reuters) April 5, 2023
In caso di formalizzazione della denuncia, il chatbot e la sua società madre dovranno affrontare la prima causa per diffamazione contro un’AI.
Anche il Garante italiano ha sollevato la questione relativa alle false affermazioni di ChatGPT, tanto è vero che nei prossimi giorni a Roma si terrà un incontro in videoconferenza tra l’autorità per la protezione dei dati personali e alcuni rappresentanti della società, con l’obiettivo di confrontarsi sulle contestazioni e trovare una soluzione per ripristinare il servizio in Italia.
“Da quello che leggiamo sappiamo che buona parte della società civile italiana è dalla parte di Chatgpt”, ha affermato Murati in un’intervista.
Tuttavia, sono molte le persone che si dicono preoccupate per il potenziale di ChatGPT e che ritengono che la ricerca sull’AI debba essere condotta con molta più attenzione di quanto non avvenga oggi.
Pochi giorni dopo il deposito della denuncia presso la FTC, diversi membri di alto profilo del settore tecnologico, tra cui l’amministratore delegato di Telsa e Twitter Elon Musk, hanno firmato una lettera aperta per chiedere una pausa di sei mesi nello sviluppo di sistemi più potenti dell’appena lanciato GPT-4 di OpenAI, citando i potenziali rischi per la società e l’umanità.
After +1000 tech workers urged pause in the training of the most powerful #AI systems, @UNESCO calls on countries to immediately implement its Recommendation on the Ethics of AI – the 1st global framework of this kind & adopted by 193 Member Stateshttps://t.co/BbA00ecihO pic.twitter.com/GowBq0jKbi
— Eliot Minchenberg (@E_Minchenberg) March 30, 2023