O CEO da Tesla e da SpaceX, Elon Musk, mergulhou em mais uma empreitada ao lançar sua empresa de Inteligência Artificial, a x.AI.
Diferente de outras empresas de IA, Musk afirma que está buscando construir uma IA transparente que tenha a capacidade de “entender a verdadeira natureza do universo”.
A Busca de Musk pela verdade com a x.AI
Enquanto o resto do mundo tem se maravilhado com a IA e suas capacidades, Musk tem demonstrado seu descontentamento particular. Ele frequentemente soa alarmes, alertando para os perigos da IA para a humanidade.
Por isso, ele até assinou uma carta aberta pedindo uma pausa no desenvolvimento de modelos de IA mais poderosos do que o GPT-4.
Algumas semanas após a carta, Musk afirmou que trabalharia em um TruthGPT, pois considerava o ChatGPT muito tendencioso politicamente. Ele também criticou a OpenAI por simplificar e limitar o ChatGPT para evitar tópicos controversos.
O bilionário disse:
“Acredito que existe um perigo significativo em treinar a IA para ser politicamente correta. Ou seja, treinar a IA para não dizer o que ela realmente pensa ser verdade. Vou começar algo que você poderia chamar de TruthGPT, ou uma IA máxima em busca da verdade, que tenta compreender a natureza do universo.”
No entanto, a carta aberta não teve o efeito desejado na indústria de IA. Ao perceber que a pausa era praticamente impossível, ele disse:
“Se eu pudesse pausar a IA ou uma superinteligência digital avançada, eu faria. Mas isso não parece ser realista, então a x.AI basicamente vai construir uma IA… de uma maneira boa, espero.”
Busca por “Modelos Transparentes”
Durante um evento no Twitter para discutir sua nova empresa de IA, Musk enfatizou que a startup se concentraria em produzir modelos de IA mais transparentes e honestos o suficiente para compartilhar suas crenças.
Além disso, ele destacou a necessidade de uma IA que não tenha medo de ir contra a opinião popular e compartilhar suas crenças controversas.
Entretanto, embora a IA transparente seja uma causa nobre, também é uma causa muito ambiciosa, e provavelmente irreal. Além disso, uma suporta IA transparente e imparcial pode potencialmente revelar falhas nos sistemas humanos.
De maneira hipotética, se alcançada, a tal IA poderia criar resultados mais equitativos ao tomar decisões sem discriminação de raça, gênero, cor, religião ou até mesmo filiação política. Isso também poderia levar a uma maior confiança nos sistemas de IA, permitindo uma taxa de adoção ainda maior, desde que a controvérsia não supere a confiança.
No entanto, às vezes, as decisões humanas são tomadas considerando mais do que apenas a situação imediata. Como tal, os esforços para eliminar o viés podem ser contraproducentes, já que os sistemas de IA ainda podem enfrentar dilemas éticos ao tentar determinar o curso apropriado de ação em situações moralmente ambíguas.
O Mundo Está Pronto para a x.AI?
Além do resultado, outra preocupação é como construir um modelo de IA imparcial. Viés em modelos é o resultado do viés presente nos dados usados para treinar o modelo, bem como das inclinações do desenvolvedor.
Dessa forma, para um modelo como o ChatGPT, que foi treinado com dados da internet, o viés é inevitável.
Isso levanta a questão de onde a x.AI obterá dados imparciais para treinar seu modelo. Notavelmente, esses dados devem ser de alta qualidade e representativos de todos os tipos de pessoas e situações, o que é difícil de encontrar.
Assim, a IA teria que decidir qual resposta, dentre um grande conjunto para qualquer pergunta dada, é correta. Ou então, teria que retornar todas as respostas possíveis para que alguém acredite que não há viés. É praticamente impossível que exista uma única verdade objetiva.
Quando Musk anunciou que criaria um TruthGPT, muitos de seus seguidores perguntaram quem determinaria o que é “verdade”. Isso é uma preocupação massiva, porque seres humanos têm sua própria versão da verdade.
Apesar da abundância de conhecimento que Musk e a equipe da x.AI têm, será uma tarefa difícil convencer as pessoas de que a x.AI realmente diz a verdade.
E mais, supondo que realmente exista a possibilidade da criação de uma IA que diga a “Verdade”. O mundo estaria pronto para isso?
Notícias Relacionadas:
- Como a Netflix utiliza os dados do usuário para se manter no topo da indústria de streaming
- Cultura de trabalho positiva pode contribuir para o sucesso tanto quanto a estratégia de mercado
- TikTok é o aplicativo mais instalado por 12 trimestres consecutivos – Aqui está o segredo
yPredict (YPRED) - Plataforma de Análise e Pesquisa baseada em IA
- Investidores de YPRED têm acesso livre à plataforma de análise do yPredict
- A principal utilidade do token YPRED é a assinatura da plataforma
- O fornecimento total de YPRED está limitado a 100 milhões, tornando-o um projeto subvalorizado
- O ecossistema yPredict consiste em especialistas em IA, finanças quantitativas e investidores
- Ganhe APYs lucrativos ao participar de staking