Sina Financial News Нещодавно компанія зі штучним інтелектом Ілона Маска xAI запустила новий чат-бот зі штучним інтелектом Grok, який відкритий для користувачів Premium+ X у Сполучених Штатах. Однак, як і всі чат-боти зі штучним інтелектом, Grok має проблему «галюцинації», тобто генерації відповідей, які містять неправдиву або оманливу інформацію. Це явище поширене у всіх великих мовних моделях (LLM), включаючи ChatGPT. Нещодавно незручна “галюцинація” Грока викликала бурхливу дискусію в соціальних мережах. Один користувач отримав відповідь під час використання Grok зі словами: «Я не можу виконати ваш запит, оскільки це порушує політику використання OpenAI». Ігор Бабушкін, інженер xAI, пояснив, що Grok використовував багато мережевих даних під час навчання, і цілком ймовірно, що вони містили текст, згенерований OpenAI, викликаючи такі «галюцинації», сказавши: «Але будьте впевнені, ця проблема дуже рідкісна, ми знаємо про це і подбаємо про те, щоб майбутні версії Grok не мали подібних проблем». Будьте впевнені, Grok був розроблений без використання будь-якого коду OpenAI. "
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Чат-бот Маска зі штучним інтелектом Grog "галюцинував" і прийняв себе за продукт OpenAI
Sina Financial News Нещодавно компанія зі штучним інтелектом Ілона Маска xAI запустила новий чат-бот зі штучним інтелектом Grok, який відкритий для користувачів Premium+ X у Сполучених Штатах. Однак, як і всі чат-боти зі штучним інтелектом, Grok має проблему «галюцинації», тобто генерації відповідей, які містять неправдиву або оманливу інформацію. Це явище поширене у всіх великих мовних моделях (LLM), включаючи ChatGPT. Нещодавно незручна “галюцинація” Грока викликала бурхливу дискусію в соціальних мережах. Один користувач отримав відповідь під час використання Grok зі словами: «Я не можу виконати ваш запит, оскільки це порушує політику використання OpenAI». Ігор Бабушкін, інженер xAI, пояснив, що Grok використовував багато мережевих даних під час навчання, і цілком ймовірно, що вони містили текст, згенерований OpenAI, викликаючи такі «галюцинації», сказавши: «Але будьте впевнені, ця проблема дуже рідкісна, ми знаємо про це і подбаємо про те, щоб майбутні версії Grok не мали подібних проблем». Будьте впевнені, Grok був розроблений без використання будь-якого коду OpenAI. "