chatgpt roubo de dados
Mais de 100.000 credenciais de login para a plataforma de Inteligência Artificial da OpenAI do ChatGPT foram roubadas e vazadas na Dark Web.

De acordo com um relatório da empresa de cibersegurança baseada em Singapura Group-IB, as credenciais foram roubadas com recurso ao malware Raccoon Infostealer. Essa ferramenta é ativada quando uma vítima potencial clica num e-mail de phishing e começa a receber comunicações fraudulentas pelas redes sociais ou via mensagens de texto.

Depois de os dispositivos estarem infetados, o malware recolhe credenciais de login importantes, histórico, cookies, e até informações da wallet de criptomoedas dos web browsers.

Aquele relatório detalha que entre junho de 2022 e maio de 2023, mais de 101.000 dispositivos continham logins comprometedores do chatbot com IA. Esses logins foram encontrados em marketplaces diversos na dark web.

A maior parte das 41.000 credenciais roubadas pertencia a utilizadores da região Ásia-Pacífico.

Malware Infostealer tornou-se uma das formas de ciberataque mais comuns

Os especialistas descreveram o malware Infostealer como uma das formas de ciberataque mais comuns atualmente.

Devido à sua simplicidade e eficácia, este método tornou-se num dos mais bem-sucedidos para aceder a dados pessoais que depois resultam em atividades criminosas.

“Este tipo de malware infeta o maior número de computadores possível através de phishing ou de outros métodos, de forma a recolher todos os dados que consegue”, escreveu a Group-IB em nota de imprensa que teve a co-autoria do ChatGPT.

“O Info Stealers surgiu como uma das formas mais importantes de comprometer dados pessoais devido à sua simplicidade e eficácia.”

Conheça aqui alguns dos melhores AI Crypto Tokens do mercado.

OpenAI não é responsável pelo roubo das credenciais dos utilizadores

Shestakov diz que as contas do ChatGPT que empregam “método de autenticação direto” são as mais vulneráveis.

Contudo, ele também refere que a OpenAI não deve ser responsabilizada pelo roubo dos dados de login.

“Os logs que contêm as credenciais gravadas do ChatGPT não são o resultado de falhas na infraestrutura do ChatGPT”, diz o relatório.

A investigação também alerta para o aumento da utilização do ChatGPT no trabalho, que está a trazer desafios sérios relativamente a informações confidenciais das empresas, uma vez que as questões dos utilizadores e o histórico do chat são guardados por definição.

As informações confidenciais podem ser utilizadas por cibercriminosos para desempenhar ataques contra empresas ou trabalhadores individuais.

“Deste modo, o acesso não autorizado a contas do ChatGPT poderá levar a que dados confidenciais ou informações sensíveis sejam expostas, o que poderá ser utilizado para ataques direcionados contra empresas e os seus empregados”, diz o relatório.

Os números revelados no relatório demonstram que, em maio deste ano, os cibercriminosos venderam quase 27.000 logins do ChatGPT que foram roubados online.

A Group-IB recomenda aos utilizadores do ChatGPT que atualizem regularmente as suas passwords e usem uma autenticação de dois fatores nas suas contas para acrescentar uma camada extra de segurança.

Veja como comprar AiDoge em Portugal e saiba por que está a ser considerado um dos projetos dominantes no espaço cripto.

Samsung bane inteligência artificial generativa depois de vazamento interno de dados

No mês passado, a Samsung anunciou um bloqueio temporário à utilização de ferramentas de Inteligência Artificial como o ChatGPT em dispositivos detidos pela empresa, depois de alguns trabalhadores terem utilizado dados sensíveis para aceder àquela plataforma.

O bloqueio é válido para todas as ferramentas de Inteligência Artificial generativa como o ChatGPT, o Google Bard, assim como as plataformas à imagem de Microsoft Bing que usam o ChatGPT.

De acordo com dados recolhidos pela Statista, entre 9 e 15 de abril deste ano, 319 casos de vazamentos de dados sensíveis no ChatGPT já foram denunciados por 100.000 trabalhadores.

A percentagem aumenta para cerca de 60% quando comparada como os dados observados entre fevereiro e março de 2023.

O segundo tipo mais comum de dados confidenciais partilhados no ChatGPT foi código fonte, com 278 casos reportados por 100.000 trabalhadores.

statista roubo de dados

Devido a queixes semelhantes, a associação industrial de pagamentos da China lançou um aviso contra o upload de documentos confidenciais no ChatGPT da OpenAI e em outras ferramentas de IA, citando os riscos de “vazamento de dados além-fronteiras”.

Aquela associação, supervisionada pelo Banco Central da China, pediu à sua equipa de pagamentos para evitar o upload de dados sensíveis, seja com informações sobre o país, sobre aspetos financeiros ou empresas, que inclui informações de clientes e códigos de pagamentos ou infraestruturas.

Quais as melhores altcoins para comprar em 2024.

Notícias relacionadas

yPredict (YPRED) - Plataforma de Análise e Pesquisa baseada em IA

Nossa avaliação

  • Investidores de YPRED têm acesso livre à plataforma de análise do yPredict
  • A principal utilidade do token YPRED é a assinatura da plataforma
  • O fornecimento total de YPRED está limitado a 100 milhões, tornando-o um projeto subvalorizado
  • O ecossistema yPredict consiste em especialistas em IA, finanças quantitativas e investidores
  • Ganhe APYs lucrativos ao participar de staking