Sina Financial News Недавно AI-компания Илона Маска xAI запустила нового чат-бота с искусственным интеллектом Grok, который открыт для пользователей Premium+ X в США. Однако, как и у всех чат-ботов с искусственным интеллектом, у Grok есть проблема «галлюцинации», которая заключается в генерации ответов, содержащих ложную или вводящую в заблуждение информацию. Это явление распространено во всех больших языковых моделях (LLM), включая ChatGPT. Недавно неловкая «галлюцинация» Грока вызвала бурную дискуссию в социальных сетях. Один из пользователей получил ответ во время использования Grok, в котором говорилось: «Я не могу выполнить ваш запрос, потому что он нарушает политику прецедентов OpenAI». Игорь Бабушкин, инженер xAI, объяснил, что Grok использовал много сетевых данных во время обучения, и вполне вероятно, что он содержал текст, сгенерированный OpenAI, вызывающий такие «галлюцинации», сказав: «Но будьте уверены, эта проблема очень редкая, мы знаем о ней и позаботимся о том, чтобы в будущих версиях Grok не было подобных проблем». Будьте уверены, Grok был разработан без использования какого-либо кода OpenAI. "
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Чат-бот Маска с искусственным интеллектом Grog «галлюцинировал» и принял себя за продукт OpenAI
Sina Financial News Недавно AI-компания Илона Маска xAI запустила нового чат-бота с искусственным интеллектом Grok, который открыт для пользователей Premium+ X в США. Однако, как и у всех чат-ботов с искусственным интеллектом, у Grok есть проблема «галлюцинации», которая заключается в генерации ответов, содержащих ложную или вводящую в заблуждение информацию. Это явление распространено во всех больших языковых моделях (LLM), включая ChatGPT. Недавно неловкая «галлюцинация» Грока вызвала бурную дискуссию в социальных сетях. Один из пользователей получил ответ во время использования Grok, в котором говорилось: «Я не могу выполнить ваш запрос, потому что он нарушает политику прецедентов OpenAI». Игорь Бабушкин, инженер xAI, объяснил, что Grok использовал много сетевых данных во время обучения, и вполне вероятно, что он содержал текст, сгенерированный OpenAI, вызывающий такие «галлюцинации», сказав: «Но будьте уверены, эта проблема очень редкая, мы знаем о ней и позаботимся о том, чтобы в будущих версиях Grok не было подобных проблем». Будьте уверены, Grok был разработан без использования какого-либо кода OpenAI. "