Récemment, la société d’intelligence artificielle d’Elon Musk, xAI, a lancé un nouveau chatbot d’intelligence artificielle Grok, qui est ouvert aux utilisateurs de Premium+ X aux États-Unis. Cependant, comme tous les chatbots d’IA, Grok a le problème de « l’hallucination », c’est-à-dire la génération de réponses contenant des informations fausses ou trompeuses. Ce phénomène est répandu dans tous les grands modèles de langage (LLM), y compris ChatGPT. Récemment, une « hallucination » embarrassante de Grok a provoqué une discussion animée sur les réseaux sociaux. Un utilisateur a reçu une réponse lors de l’utilisation de Grok disant : « Je ne peux pas répondre à votre demande car elle enfreint la politique de cas d’utilisation d’OpenAI. » Igor Babuschkin, ingénieur chez xAI, a expliqué que Grok utilisait beaucoup de données réseau pendant l’entraînement, et qu’il était probable qu’il contenait du texte généré par OpenAI, provoquant de telles « hallucinations », en disant : « Mais rassurez-vous, ce problème est très rare, nous en sommes conscients, et nous veillerons à ce que les futures versions de Grok n’aient pas de problèmes similaires. » Rassurez-vous, Grok a été développé sans utiliser de code OpenAI. "
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Le chatbot d’IA de Musk, Grog, a « halluciné » et s’est confondu avec le produit d’OpenAI
Récemment, la société d’intelligence artificielle d’Elon Musk, xAI, a lancé un nouveau chatbot d’intelligence artificielle Grok, qui est ouvert aux utilisateurs de Premium+ X aux États-Unis. Cependant, comme tous les chatbots d’IA, Grok a le problème de « l’hallucination », c’est-à-dire la génération de réponses contenant des informations fausses ou trompeuses. Ce phénomène est répandu dans tous les grands modèles de langage (LLM), y compris ChatGPT. Récemment, une « hallucination » embarrassante de Grok a provoqué une discussion animée sur les réseaux sociaux. Un utilisateur a reçu une réponse lors de l’utilisation de Grok disant : « Je ne peux pas répondre à votre demande car elle enfreint la politique de cas d’utilisation d’OpenAI. » Igor Babuschkin, ingénieur chez xAI, a expliqué que Grok utilisait beaucoup de données réseau pendant l’entraînement, et qu’il était probable qu’il contenait du texte généré par OpenAI, provoquant de telles « hallucinations », en disant : « Mais rassurez-vous, ce problème est très rare, nous en sommes conscients, et nous veillerons à ce que les futures versions de Grok n’aient pas de problèmes similaires. » Rassurez-vous, Grok a été développé sans utiliser de code OpenAI. "