O CEO da Tesla e da SpaceX, Elon Musk, mergulhou em mais uma empreitada ao lançar sua empresa de Inteligência Artificial, a x.AI.

Diferente de outras empresas de IA, Musk afirma que está buscando construir uma IA transparente que tenha a capacidade de “entender a verdadeira natureza do universo”.

A Busca de Musk pela verdade com a x.AI

Enquanto o resto do mundo tem se maravilhado com a IA e suas capacidades, Musk tem demonstrado seu descontentamento particular. Ele frequentemente soa alarmes, alertando para os perigos da IA para a humanidade.

Por isso, ele até assinou uma carta aberta pedindo uma pausa no desenvolvimento de modelos de IA mais poderosos do que o GPT-4.

Algumas semanas após a carta, Musk afirmou que trabalharia em um TruthGPT, pois considerava o ChatGPT muito tendencioso politicamente. Ele também criticou a OpenAI por simplificar e limitar o ChatGPT para evitar tópicos controversos.

O bilionário disse:

“Acredito que existe um perigo significativo em treinar a IA para ser politicamente correta. Ou seja, treinar a IA para não dizer o que ela realmente pensa ser verdade. Vou começar algo que você poderia chamar de TruthGPT, ou uma IA máxima em busca da verdade, que tenta compreender a natureza do universo.”

No entanto, a carta aberta não teve o efeito desejado na indústria de IA. Ao perceber que a pausa era praticamente impossível, ele disse:

“Se eu pudesse pausar a IA ou uma superinteligência digital avançada, eu faria. Mas isso não parece ser realista, então a x.AI basicamente vai construir uma IA… de uma maneira boa, espero.”

Busca por “Modelos Transparentes”

Durante um evento no Twitter para discutir sua nova empresa de IA, Musk enfatizou que a startup se concentraria em produzir modelos de IA mais transparentes e honestos o suficiente para compartilhar suas crenças.

Além disso, ele destacou a necessidade de uma IA que não tenha medo de ir contra a opinião popular e compartilhar suas crenças controversas.

Entretanto, embora a IA transparente seja uma causa nobre, também é uma causa muito ambiciosa, e provavelmente irreal. Além disso, uma suporta IA transparente e imparcial pode potencialmente revelar falhas nos sistemas humanos.

De maneira hipotética, se alcançada, a tal IA poderia criar resultados mais equitativos ao tomar decisões sem discriminação de raça, gênero, cor, religião ou até mesmo filiação política. Isso também poderia levar a uma maior confiança nos sistemas de IA, permitindo uma taxa de adoção ainda maior, desde que a controvérsia não supere a confiança.

No entanto, às vezes, as decisões humanas são tomadas considerando mais do que apenas a situação imediata. Como tal, os esforços para eliminar o viés podem ser contraproducentes, já que os sistemas de IA ainda podem enfrentar dilemas éticos ao tentar determinar o curso apropriado de ação em situações moralmente ambíguas.

O Mundo Está Pronto para a x.AI?

Além do resultado, outra preocupação é como construir um modelo de IA imparcial. Viés em modelos é o resultado do viés presente nos dados usados para treinar o modelo, bem como das inclinações do desenvolvedor.

Dessa forma, para um modelo como o ChatGPT, que foi treinado com dados da internet, o viés é inevitável.

Isso levanta a questão de onde a x.AI obterá dados imparciais para treinar seu modelo. Notavelmente, esses dados devem ser de alta qualidade e representativos de todos os tipos de pessoas e situações, o que é difícil de encontrar.

Assim, a IA teria que decidir qual resposta, dentre um grande conjunto para qualquer pergunta dada, é correta. Ou então, teria que retornar todas as respostas possíveis para que alguém acredite que não há viés. É praticamente impossível que exista uma única verdade objetiva.

Quando Musk anunciou que criaria um TruthGPT, muitos de seus seguidores perguntaram quem determinaria o que é “verdade”. Isso é uma preocupação massiva, porque seres humanos têm sua própria versão da verdade.

Apesar da abundância de conhecimento que Musk e a equipe da x.AI têm, será uma tarefa difícil convencer as pessoas de que a x.AI realmente diz a verdade.

E mais, supondo que realmente exista a possibilidade da criação de uma IA que diga a “Verdade”. O mundo estaria pronto para isso?

Notícias Relacionadas:

yPredict (YPRED) - Plataforma de Análise e Pesquisa baseada em IA

Nossa avaliação

  • Investidores de YPRED têm acesso livre à plataforma de análise do yPredict
  • A principal utilidade do token YPRED é a assinatura da plataforma
  • O fornecimento total de YPRED está limitado a 100 milhões, tornando-o um projeto subvalorizado
  • O ecossistema yPredict consiste em especialistas em IA, finanças quantitativas e investidores
  • Ganhe APYs lucrativos ao participar de staking