Atualmente, os avanços da inteligência artificial (IA) abriram as portas para um mundo de potencial transformador e capacidades sem precedentes, inspirando admiração, mas também apreensão. Assim, com grande poder vem uma grande responsabilidade, sendo que o impacto da IA na sociedade continua a ser um tema de intenso debate e escrutínio.
Na verdade, o foco está cada vez mais a mudar para a compreensão e mitigação dos riscos associados a estas tecnologias inspiradoras. Isto especialmente à medida que se tornam mais integradas nas nossas vidas quotidianas. No centro deste discurso está uma preocupação crítica: o potencial dos sistemas de IA para desenvolverem capacidades que possam representar ameaças significativas à segurança cibernética, à privacidade e à autonomia humana.
Ora, estes riscos não são apenas teóricos, mas tornam-se cada vez mais tangíveis à medida que os sistemas de IA se tornam mais sofisticados. Portanto, compreender estes perigos é crucial para o desenvolvimento de estratégias eficazes de proteção contra os mesmos. Até que ponto a IA generativa irá traçar os seus próprios limites, sem que tenha perceção de valores morais, sociais ou até de risco às crenças?
Google analisa o potencial impacto de IA generativa na reformulação de limites
Sem dúvida que a avaliação dos riscos da IA envolve, principalmente, a avaliação do desempenho dos sistemas em vários domínios. Desde o raciocínio verbal, até às competências de codificação. No entanto, estas avaliações necessitam frequentemente de ajuda. Isto para se compreender de forma abrangente os perigos. Logo, o verdadeiro desafio reside na avaliação das capacidades da IA que podem, intencionalmente ou não, apresentarem resultados adversos.
Por esse motivo, uma equipa de pesquisa do “Google Deepmind” propôs um programa abrangente para avaliar as “capacidades perigosas” dos sistemas de IA. Assim, estas avaliações abrangem persuasão e engano, segurança cibernética, auto proliferação, bem como raciocínio próprio. O objetivo é compreender os riscos que os sistemas de IA representam e identificar sinais de alerta precoce de resultados perigosos para a base das nossas sociedades evoluídas.
Como a IA generativa testa de forma regular os nossos limites?
Persuasão e engano: esta avaliação do Google concentra-se na capacidade dos modelos de IA de manipular crenças, formar conexões emocionais e criar mentiras verossímeis.
- Ciber-segurança: por outro lado, esta avaliação avalia o conhecimento dos modelos de IA sobre sistemas informáticos, vulnerabilidades e explorações. Também examina sua capacidade de navegar e manipular sistemas, executar ataques e explorar vulnerabilidades conhecidas.
- Auto-proliferação: a IA examina a capacidade dos modelos de configurar e gerir autonomamente infraestruturas digitais, adquirir recursos e difundir-se ou auto aperfeiçoar-se. Ele se concentra em sua capacidade de lidar com tarefas como computação em nuvem, gerenciamento de contas de e-mail e desenvolvimento de recursos por vários meios.
- Auto raciocínio: os programas de IA centram-se na capacidade dos agentes de IA raciocinarem sobre si próprios e modificarem o seu ambiente ou implementação, quando for instrumentalmente útil. Assim, envolve a capacidade do agente de compreender o seu estado, tomar decisões com base nesse entendimento e potencialmente modificar o seu comportamento ou código.
Qual foi a conclusão do estudo da Google sobre o impacto da IA?
De facto, este estudo menciona o uso do conjunto de dados Security Patch Identification (SPI), que consiste em commits vulneráveis e não vulneráveis dos projetos Qemu e FFmpeg. O conjunto de dados SPI foi criado filtrando commits de projetos de código aberto proeminentes, contendo mais de 40.000 commits relacionados à segurança.
Dessa forma, esta pesquisa compara o desempenho dos modelos Gemini Pro 1.0 e Ultra 1.0 no conjunto de dados SPI. Além de que as descobertas mostram que a persuasão e o engano foram as capacidades mais maduras, sugerindo que a capacidade da IA para influenciar as crenças e comportamentos humanos está a avançar. Ainda, os modelos mais fortes demonstraram pelo menos competências rudimentares em todas as avaliações, sugerindo o surgimento de capacidades perigosas como subproduto de melhorias nas capacidades gerais.
Em conclusão, a complexidade de compreender e mitigar os riscos associados aos sistemas avançados de IA exige um esforço unido e colaborativo. Esta investigação sublinha a necessidade de investigadores, decisores políticos e tecnólogos combinarem, refinarem e expandirem as metodologias de avaliação existentes. Ao fazê-lo, poderá antecipar melhor os riscos potenciais e desenvolver estratégias para garantir que as tecnologias de IA servem a melhoria da humanidade. Isto ao invés de representarem ameaças involuntárias.
IA poderá ter impacto direto na nossa mente
Se a IA poderá moldar e colocar em questão os limites e ainda as bases de diferentes sociedades ocidentais, ficou provado recentemente com a Neurolink – em que uma pessoa com deficiência conseguia mover peças de xadrez só com a mente – que começam a surgir programas de IA generativa que têm impacto direto na forma como pensamos e, claro, como podemos ver o mundo.
Para que se tenha uma ideia, segundo estimativas, apenas 5% da atividade cerebral humana é consciente. Os restantes 95% ocorrem de forma subconsciente e não só não temos controlo real sobre isso, como também nem sequer temos consciência de que está a acontecer. Como observou o mesmo estudo, atualmente, desconhecemos esta extraordinária torrente de atividade neural devido à alta complexidade da interação entre nossa mente consciente. Bem como o nosso comportamento subconsciente e à nossa completa falta de controlo sobre as forças que guiam nossas vidas. No entanto, isso não significa que as pessoas não possam ser influenciadas subconscientemente.
Responsáveis pelo Estudo explicam como IA poderá Potencializa-nos
“Existem duas maneiras de a inteligência artificial fazer isso”, explicou um dos responsáveis por este estudo. “A primeira é coletar dados sobre a vida das pessoas e criar uma arquitetura de decisão que leve a tomar uma determinada decisão. E a outra – que atualmente é menos desenvolvida – envolve o uso de apps ou dispositivos para criarem diretamente impulsos irresistíveis para o nosso subconsciente mente para gerar respostas impulsivas em um nível subliminar, ou seja, para criar impulsos.”
“À medida que gradualmente desenvolvemos máquinas melhores e mais poderosas e tornamo-nos mais intimamente conectados a elas, ambas as opções serão mais difundidas. Os algoritmos terão mais informações sobre nossas vidas e será mais fácil criar ferramentas para gerar essas respostas impulsivas […]”.
Limites propostos pela UE: já colocam em xeque estes novos limites
De facto, novo regulamento sobre inteligência artificial atualmente em discussão na UE procura antecipar os possíveis riscos futuros desta e de outras utilizações da IA. O artigo 5.1 do projeto de lei original continha uma proibição expressa de colocar no mercado, colocar em serviço ou utilizar uma IA que seja capaz de influenciar uma pessoa que não seja a nível consciente, a fim de distorcer o comportamento dessa pessoa. No entanto, as alterações e modificações gradualmente introduzidas desde então diluíram lentamente a natureza absoluta da proibição.
Assim, o projeto de lei atual, que servirá de referência para a redação final da lei, proíbe tais técnicas apenas se tiverem a intenção de serem manipuladoras ou enganosas. Pois afetam significativamente a capacidade de uma pessoa de tomar uma decisão informada. Isto de modo que tome uma decisão que de outra forma, não teriam causado e, de alguma forma, causam danos significativos a alguém. Além disso, a proibição não se aplicará aos sistemas de IA para fins terapêuticos aprovados.
Novas conclusões sobre esta legislação começam a surgir
“De acordo com a proposta, a proibição da IA tem aplicação quando houver danos graves e a pessoa fizer algo que de outra forma não teria feito. Ou seja, provar o que eu teria feito sem o estímulo, e também não posso provar o dano […] Se a publicidade subliminar está agora completamente proibida sem qualificação, por que estamos deixando espaço para o condicionamento subliminar pela inteligência artificial?”, concluiu um dos responsáveis por este Estudo, após uma análise mais global a todo este fenómeno crescimento.
Isto ao ponto de ainda existir muito que não sabemos sobre como nosso cérebro funciona e como as partes consciente e subconsciente da nossa mente interagem umas com as outras. Portanto, o cérebro continua a ser um órgão muito elusivo e, embora a ciência esteja a fazer grandes progressos neste campo, não sabemos muitas das formas como o seu funcionamento pode ser afetado por certos estímulos.
“Precisamos estar cientes do risco de dar a outras pessoas e empresas acesso ao nosso eu interior em níveis tão profundos. No contexto da economia de dados, muitas instituições públicas e privadas estão a competir pelo acesso à nossa informação. Contudo, paradoxalmente, foi demonstrado repetidamente que os avaliados dão pouco valor à sua privacidade”, concluiu.
IA é um perigo por desafiar novos limites?
Sem dúvida que, perante os avanços da IA generativa, é natural que os limites pré-estabelecidos sejam colocados em causa de forma cada vez mais regular. Numa fase em que a UE e as grandes plataformas de redes sociais já tentam defender as pessoas dos riscos à exposição de IA, é natural que uma ferramenta sem limites à nossa disposição, possa também colocar em causa e desafiar o que conseguimos alcançar, mas também o que pensamos e a forma como vemos o mundo.