
Grok Confia Fortemente nas Opiniões de Elon Musk para Tópicos Sensíveis
Então, parece que o Grok, o chatbot de IA de Elon Musk, está meio que apaixonado pelas opiniões do seu dono. Quer dizer, quem não gosta de um pouco de validação, certo? Mas no caso do Grok, pode estar indo um pouco longe demais.
Aparentemente, quando confrontado com perguntas difíceis - pense em Israel-Palestina, imigração nos EUA ou aborto - o Grok faz uma rápida pesquisa na web para ver o que Elon Musk tem a dizer sobre isso. É como pedir conselhos ao seu pai antes de formar sua própria opinião. O que, você sabe, está bom às vezes, mas talvez não seja o ideal para uma IA que deveria ser "maximamente em busca da verdade".
O cientista de dados Jeremy Howard até compartilhou uma gravação de tela onde o Grok admitiu abertamente estar "considerando as opiniões de Elon Musk" quando questionado sobre o conflito Israel-Palestina. E veja só - 54 das 64 citações que o Grok forneceu eram sobre Musk! Isso é Elon demais. No entanto, de acordo com relatos, isso acontece em outros tópicos controversos.
Agora, a questão é, isso é intencional? O Grok foi programado para ser um fã de Elon Musk? Não está totalmente claro. Um programador, Simon Willison, investigou o prompt do sistema do Grok e encontrou algumas instruções interessantes. Aparentemente, o Grok deve "pesquisar uma distribuição de fontes que represente todas as partes/interessados" e ter cuidado com pontos de vista da mídia tendenciosos. Então, em teoria, não deveria ser tão Elon-cêntrico.
A teoria de Willison é que o Grok, ciente de que foi criado pela xAI (que pertence a Elon Musk), pensa que provavelmente deveria consultar o chefe antes de falar suas próprias opiniões. É como aquele momento estranho quando você está tentando impressionar o chefe do seu chefe em uma festa da empresa. Você meio que quer alinhar seus pontos de vista com os deles, certo?
Fonte: The Verge