Segundo uma série de estudos e análises recentes, o fenómeno “inteligência artificial” está a aumentar a ameaça da desinformação eleitoral em todo o mundo. Isto ao ponto de tornar mais fácil para qualquer um, com um smartphone e imaginação, criar conteúdo falso – mas convincente – destinado a enganar os eleitores. Com vídeos e imagens geradas por IA, como vamos agora distinguir o que nos apresentam é real ou não?
Na verdade, tal risco representa um salto quântico em relação há alguns anos, quando a criação de fotos, vídeos ou clipes de áudio falsos exigia equipas de pessoas profissionais e qualidade, com uma habilidade técnica excecional. Contudo, atualmente, usando serviços de inteligência artificial generativa gratuitos e de baixo custo – de empresas como Google e OpenAI – qualquer pessoa poderá criar “deepfakes” de alta qualidade com apenas um simples prompt de texto.
Assim sendo, fará todo o sentido analisar quais os maiores riscos às eleições (e democracia por consequência), que a nova onda de deepfakes de IA trará. Ao mesmo tempo que se faz uma retrospectiva das consequências que a própria IA já teve em eleições na Europa e na Ásia, percorrendo as redes sociais durante meses e servindo de alerta para mais de 50 países que vão às urnas este ano. Incluindo as eleições Presidenciais Americanas e ainda a forte possibilidade de existirem mais Eleições no Governo português, para o fim do presente ano.
Uso de IA para Manipulação da Mensagem e Discurso
Sem dúvida alguma que a grande novidade das importantes eleições de 2024 – e mais de um terço das democracias do Planeta – está na poderosa ferramenta generativa de inteligência artificial. Exemplos disso mesmo estão os “softwares da berra”, como ChatGPT e Sora, que tornam mais fácil “inundar” com propaganda e desinformação.
Sendo que, mais do que nunca, já produzem deepfakes convincentes: palavras que saem da boca de políticos que nunca disseram de facto. Ou até eventos que se repetem perante nossos olhos, que na verdade não aconteceu. O exemplo dos rumores de Kate Middleton são mais um exemplo em como este fenómeno nos leva a questionar o que é real ou não:
Hubo varios usuarios que repitieron la misma operación, con resultados muy variados. Por lo cual, el equipo de investigación de #KateGate descartó que una IA pudiera proveer una prueba fehaciente de la identidad de la mujer del video y descartar si es o no es Kate Middleton. pic.twitter.com/wSMSwpEhzk
— Joana (@joanaraco) March 19, 2024
Quais as Verdadeiras Consequências para umas Eleições?
Em suma, o resultado de todo este fenómeno recente está na maior probabilidade de os eleitores serem enganados. Além de, igualmente preocupante, uma sensação crescente de que não se pode confiar em nada do que se vê online. De salientar que o próprio Youtube parece agora estar mais investido do que nunca na responsabilização de utilizadores online que usem IA nos seus vídeos ou imagens. Ao que tudo indica, a partir das próximas semanas, quem usar deep fakes ou IA, terá de informar o website disso mesmo.
Portanto, esta discussão tem coberto os mais recentes desenvolvimentos em inteligência artificial, visto ter o potencial de “minar” a democracia. Logo, tenha acesso ao resumo de alguns desses riscos, já avaliados e estudados por especialistas. Como consequência, será que o próprio formato de eleições terá de mudar, numa tentativa desesperada de se adaptar a esta nova exigência?
Risco de Criação de Eventos falsos antes das Eleições
De facto, a capacidade de usar a IA para fazer falsificações convincentes é particularmente problemática na produção de provas falsas de acontecimentos que nunca aconteceram. De tal modmo que o analista de segurança de computadores do “Rochester Institute of Technology”, Christopher Schwartz, apelidou esras situações de deepfakes.
“A ideia básica e a tecnologia de uma situação deepfake são as mesmas de qualquer outro deepfake, mas com uma ambição mais ousada: manipular um evento real ou inventar um do nada”, escreveu.
Dessa forma, deepfakes de situação podem ser usados para impulsionarem ou prejudicarem um candidato. Ou então para suprimirem a participação eleitoral. Por exemplo, se encontrar relatos nas redes sociais sobre eventos que estejam a acontecer dias antes das eleições, tal poderá mudar o seu sentido de voto. Portanto, tente aprender mais sobre esses relatos. Isto a partir de fontes confiáveis, como notícias verificadas, artigos académicos ou entrevistas com especialistas credenciados. Além disso, reconheça que os deepfakes podem tirar vantagem daquilo em que estaria mais inclinado a acreditar.
Quais países poderão ter as suas Eleições mais manchadas com IA?
Indo da questão de saber o que a desinformação gerada pela IA pode fazer, segue-se a questão de quem a tem exercido. Ora, as atuais ferramentas de IA colocam a capacidade de produzirem desinformação ao alcance da maioria das pessoas. Contudo, são particularmente preocupantes as nações que são adversárias das democracias. Em particular, a Rússia, a China e o Irão, que têm uma vasta experiência com campanhas e tecnologia de desinformação.
“Há muito mais em conduzir uma campanha de desinformação do que gerar conteúdo”, escreveu o especialista em segurança e professor da “Harvard Kennedy School, Bruce Schneier”. “O difícil é a distribuição. Um propagandista precisa de uma série de contas falsas para postar e de outras para torná-lo popular, onde possa se tornar viral.”
Aliás, a Rússia e a China têm um histórico de testar campanhas de desinformação em países menores, segundo Schneier. “Combater novas campanhas de desinformação exige ser capaz de reconhecê-las, e reconhecê-las exige procurá-las e catalogá-las agora”, escreveu.
Portanto, até um certo ponto, o impacto de IA nas eleições poderá colocar em causa a força da democracia. Se os eleitores não sabem em quem acreditar – nem mesmo o que os seus próprios olhos lhes indicam – qual será a confiança do seu voto num candidato? Também por isso é que a própria União Europeia foi a primeira grande região do globo a lançar a sua regulamentação de IA!
Ceticismo será crescente durante campanhas pré- Eleições
Até ao momento, as campanhas de desinformação, alimentadas por IA, são difíceis de combater porque podem ser entregues através de diferentes canais. Isto incluindo chamadas automáticas, redes sociais, e-mail, mensagens de texto e websites, o que complica a análise forense digital de rastrearem-se as fontes da desinformação, escreveu Joan Donovan, uma estudioso de mídia e desinformação na Universidade de Boston.
“Em muitos aspetos, a desinformação melhorada pela IA, como a chamada automática de New Hampshire, apresenta os mesmos problemas que qualquer outra forma de desinformação”, escreveu Donovan. “As pessoas que usam a IA para perturbar as eleições provavelmente farão o que puderem para esconder seus rastros, e é por isso que é necessário que o público permaneça cético em relação a afirmações que não vêm de fontes verificadas, como notícias de TV locais ou contas de rede social. de organizações de notícias respeitáveis”.
Youtube é a primeira grande rede social a Agir
De salientar que, esta semana, o YouTube atualizou o seu livro de regras para a era dos deepfakes. A partir de hoje, qualquer pessoa que envie vídeos para a plataforma deverá divulgar certos usos de mídia sintética, incluindo IA generativa, para que os espetadores saibam que o que estão vendo não é real. O YouTube diz que isso se aplica a mídias alteradas “realistas”, como “fazer parecer que um prédio real pegou fogo” ou trocar “o rosto de um indivíduo pelo de outro”.
Além disso, esta nova política mostra que o YouTube está a tomar medidas que podem ajudar a conter a disseminação de desinformação gerada por IA. Isto à medida que as eleições presidenciais dos EUA se aproximam, bem como de muitas outras democracias. Também chama a atenção pelo que permite: animações geradas por IA destinadas a crianças não estão sujeitas às novas regras de divulgação de conteúdo sintético. Sim, porque o impacto nas eleições é somente um dos grandes riscos da IA generativa na produção de conteúdo que se confunde com o que é real ou fake.
Eleições em 2024: Um novo tipo de máquina política
Para além de todos estes pontos, as campanhas de desinformação, alimentadas pela IA, também são difíceis de combater porque podem incluir bots – contas automatizadas de redes sociais que se passam por pessoas reais. Ou seja, estas podem incluir interações online adaptadas a indivíduos, potencialmente durante eleições e com possibilidade de chegarem a milhões de pessoas.
Como tal, o cientista político de Harvard, Archon Fung, e o jurista Lawrence Lessig descreveram estas capacidades e apresentaram um cenário hipotético de campanhas políticas nacionais que utilizam estas ferramentas poderosas durante o processo de eleições. Assim, as tentativas de bloquearem estas máquinas podem entrar em conflito com as proteções à liberdade de expressão, de acordo com os estudiosos Fung e Lessig.
“Um passo constitucionalmente mais seguro, embora menor, já adotado em parte pelos reguladores europeus da Internet e na Califórnia, é proibir os bots de se fazerem passar por pessoas”, escreveram. “Por exemplo, a regulamentação pode exigir que as mensagens da campanha incluam isenções de responsabilidade quando o conteúdo que contêm for gerado por máquinas e não por seres humanos.”
Como sentir-se protegido da IA nas Eleições?
Uma vez que Portugal poderá estar prestes a ter mais uma Eleições antecipadas – na decisão de um novo Governo – estima-se que o “dedo” de IA no processo de campanha, irá ter um impacto direto nos resultados das Eleições. Portanto, e como indicam os diferentes especialistas, questionar o que nos é apresentado online, é de vital importância para que o processo democrático jamais seja manchado.
Visto que agora nem os próprios olhos poderão ser prova suficiente de que algo aconteceu, tenha a iniciativa de consultar órgãos confiáveis e que já tenham dado provas da sua competência ao longo dos anos. Como é evidente, evitar partilhar conteúdos falsos, gerados por IA, também contribuirá que as eleições possam acontecer com a maior transparência possível. Até porque, como se percebeu, a IA será a nova arma deste século, tano na propaganda, como também no desenvolvimento de “realidades” que nunca aconteceram.