Sina Financial News Baru-baru ini, perusahaan AI Elon Musk xAI meluncurkan chatbot kecerdasan buatan baru Grok, yang terbuka untuk pengguna Premium+ X di Amerika Serikat. Namun, sama seperti semua chatbots AI, Grok memiliki masalah “halusinasi,” yang merupakan generasi tanggapan yang berisi informasi palsu atau menyesatkan. Fenomena ini lazim di semua model bahasa besar (LLM), termasuk ChatGPT. Baru-baru ini, “halusinasi” Grok yang memalukan telah menyebabkan diskusi panas di media sosial. Seorang pengguna menerima tanggapan saat menggunakan Grok yang mengatakan, “Saya tidak dapat menyelesaikan permintaan Anda karena melanggar kebijakan kasus penggunaan OpenAI.” Igor Babuschkin, seorang insinyur di xAI, menjelaskan bahwa Grok menggunakan banyak data jaringan selama pelatihan, dan kemungkinan itu berisi teks yang dihasilkan oleh OpenAI, menyebabkan “halusinasi” seperti itu, dengan mengatakan, "Tapi yakinlah, masalah ini sangat jarang, kami menyadarinya, dan akan memastikan bahwa versi Grok yang akan datang tidak memiliki masalah yang sama. " Yakinlah, Grok dikembangkan tanpa menggunakan kode OpenAI. "
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Chatbot AI Musk, Grog, telah "berhalusinasi" dan salah mengira dirinya sebagai produk OpenAI
Sina Financial News Baru-baru ini, perusahaan AI Elon Musk xAI meluncurkan chatbot kecerdasan buatan baru Grok, yang terbuka untuk pengguna Premium+ X di Amerika Serikat. Namun, sama seperti semua chatbots AI, Grok memiliki masalah “halusinasi,” yang merupakan generasi tanggapan yang berisi informasi palsu atau menyesatkan. Fenomena ini lazim di semua model bahasa besar (LLM), termasuk ChatGPT. Baru-baru ini, “halusinasi” Grok yang memalukan telah menyebabkan diskusi panas di media sosial. Seorang pengguna menerima tanggapan saat menggunakan Grok yang mengatakan, “Saya tidak dapat menyelesaikan permintaan Anda karena melanggar kebijakan kasus penggunaan OpenAI.” Igor Babuschkin, seorang insinyur di xAI, menjelaskan bahwa Grok menggunakan banyak data jaringan selama pelatihan, dan kemungkinan itu berisi teks yang dihasilkan oleh OpenAI, menyebabkan “halusinasi” seperti itu, dengan mengatakan, "Tapi yakinlah, masalah ini sangat jarang, kami menyadarinya, dan akan memastikan bahwa versi Grok yang akan datang tidak memiliki masalah yang sama. " Yakinlah, Grok dikembangkan tanpa menggunakan kode OpenAI. "