Sina Financial News Recentemente, a empresa de IA xAI, de Elon Musk, lançou um novo chatbot de inteligência artificial Grok, que está aberto a usuários Premium+ X nos Estados Unidos. No entanto, assim como todos os chatbots de IA, Grok tem o problema da “alucinação”, que é a geração de respostas que contêm informações falsas ou enganosas. Este fenómeno é prevalente em todos os grandes modelos linguísticos (LLMs), incluindo o ChatGPT. Recentemente, uma “alucinação” embaraçosa de Grok causou uma discussão acalorada nas redes sociais. Um usuário recebeu uma resposta enquanto usava o Grok dizendo: “Não consigo concluir sua solicitação porque ela viola a política de casos de uso da OpenAI”. Igor Babuschkin, engenheiro da xAI, explicou que Grok usou muitos dados de rede durante o treinamento, e é provável que contivesse texto gerado pela OpenAI, causando tais “alucinações”, dizendo: “Mas fique tranquilo, esse problema é muito raro, estamos cientes disso e garantiremos que futuras versões do Grok não tenham problemas semelhantes.” Tenha certeza, Grok foi desenvolvido sem usar nenhum código OpenAI. "
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
O chatbot de IA de Musk, Grog, "alucinou" e se confundiu com o produto da OpenAI.
Sina Financial News Recentemente, a empresa de IA xAI, de Elon Musk, lançou um novo chatbot de inteligência artificial Grok, que está aberto a usuários Premium+ X nos Estados Unidos. No entanto, assim como todos os chatbots de IA, Grok tem o problema da “alucinação”, que é a geração de respostas que contêm informações falsas ou enganosas. Este fenómeno é prevalente em todos os grandes modelos linguísticos (LLMs), incluindo o ChatGPT. Recentemente, uma “alucinação” embaraçosa de Grok causou uma discussão acalorada nas redes sociais. Um usuário recebeu uma resposta enquanto usava o Grok dizendo: “Não consigo concluir sua solicitação porque ela viola a política de casos de uso da OpenAI”. Igor Babuschkin, engenheiro da xAI, explicou que Grok usou muitos dados de rede durante o treinamento, e é provável que contivesse texto gerado pela OpenAI, causando tais “alucinações”, dizendo: “Mas fique tranquilo, esse problema é muito raro, estamos cientes disso e garantiremos que futuras versões do Grok não tenham problemas semelhantes.” Tenha certeza, Grok foi desenvolvido sem usar nenhum código OpenAI. "