A regulação do setor da Inteligência Artificial é um tema quente do momento para várias economias de relevo e agentes políticos das nações do G7. Este grupo de países concordou em adotar regulação com base nos “riscos” da tecnologia, ao mesmo tempo que pretendem preservar um ambiente de desenvolvimento aberto.
Os ministros do G7 publicaram uma declaração conjunta depois de um encontro de dois dias no Japão, em que referem que os desenvolvimentos na área da Inteligência Artificial devem preservar os valores democráticos.
É de notar que vários regimes autocráticos como o Irão, a China, a Coreia do Norte baniram o ChatGPT. A Itália juntou-se a esse grupo numa fase inicial, mas o país já reverteu essa limitação de acesso depois de a OpenAI ter demonstrado que cumprir com os requisitos legais daquele país.
Enquanto isso, os ministros destacados para a área digital do G7 reconheceram que poderá não haver um esquema regulatório comum entre Estados-membros. Eles disseram que “os instrumentos de políticas para conquistar uma visão comum e objetivos da IA podem variar entre membros do G7”.
A Comissão Europeia tem vindo a trabalhar no Ato da IA há cerca de dois anos, mas um sentimento de urgência parece estar a instalar-se. Isso deve-se à crescente popularidade da IA e também às preocupações – por enquanto ainda futuristas – associadas à Inteligência Artificial Generativa.
O Parlamento Europeu concordou em debater a próxima fase da regulação com os Estados-Membros, sendo que os legisladores deverão agora apresentar os detalhes finais das suas iniciativas.
O projeto de lei propõe classificar as ferramentas de Inteligência Artificial com base no nível de risco percebido, que pode variar entre “mínimo” até “inaceitável”.
É de referir que, ao passo que a IA generativa poderá ser uma revolução na indústria da tecnologia, ela tem também os seus próprios riscos como o facto de poder vir a aumentar a fraude online.
G7 pede regulação com IA “baseada no risco”
O acordo entre ministros do G7 referia o seguinte: “Planeamos avançar com futuras discussões do G7 sobre IA generativa que poderia incluir tópicos como governança, como salvaguardar direitos de propriedade intelectual incluindo copyright, promover transparência, ou atacar a desinformação”.
Também já estão a ser encetados esforços de regulação lobista nos EUA para desenhar a legislação aplicável à IA. Líderes do setor tecnológico como Elon Musk da Tesla e Steve Wozniak escreveram uma carta aberta em março, pedindo uma pausa no desenvolvimento dos modelos de IA mais poderosos que ao GPT-4.
No início desta semana, Musk também se encontrou com o Líder Maioritário do Senado, Chuck Schumer, e com outros legisladores americanos para discutir a regulação sobre IA.
O bilionário publicou um tweet:
“Aquilo que afeta a segurança do público tem vindo a ser regulado com o passar do tempo, para garantir que as empresas não ultrapassam limites. A IA tem um poder grande para fazer coisas boas e maus. É melhor ficarmo-nos pelo bem.”
Empresas tecnológicas reconhecem a oportunidade incrível da inteligência artificial
As empresas tecnológicas já reconhecem haver oportunidades incríveis na área da Inteligência Artificial generativa – assim como os investidores, que tem vertido dinheiro nas empresas que consideram vir a ser estratégicas na indústria.
A Nvidia é um dos exemplos de ações que têm estado em destaque pela positiva no mercado bolsista do S&P 500 este ano. Pelo menos em parte, já que os chips serão fundamentais para construir o ecossistema da IA. É também de esperar que outros setores da Web3 venham a beneficiar com este interesse em IA.
Enquanto isso, e no que toca à regulação em IA, o mundo ocidental tem de abordar diferentes considerações sobre os problemas de copyright, privacidade e desinformação, assim como o impacto possível deste setor na força de trabalho mundial.
A comunicação do G7 demonstra que as maiores economias do mundo estão a tornar-se mais sérias sobre a necessidade de regulação da IA, e mais rapidamente do que possamos esperar, esses esforços de regulação irão mesmo tornarem-se realidade.