Baiklah, mari kita bicarakan tentang diskusi terbaru mengenai ChatGPT dan privasi pribadi. Ternyata, penyerang jahat mungkin dapat mengakses data pribadi Anda melalui teknologi OpenAI. Masalah ini muncul akibat presentasi dari co-founder dan CEO EdisonWatch, Eito Miyamura, yang membuat co-founder Ethereum, Vitalik Buterin, merasa tidak nyaman.
Baru-baru ini, ChatGPT meluncurkan Model Context Protocol (MCP), yang dapat terhubung ke aplikasi seperti Gmail, kalender, SharePoint, Notion, dan lainnya. Meskipun fitur ini dirancang untuk meningkatkan kegunaan asisten, para ahli keamanan menunjukkan bahwa ini juga dapat menjadi saluran bagi pelaku jahat untuk mendapatkan informasi pribadi.
Eito Miyamura mengunggah video di X yang menunjukkan bagaimana seorang penyerang dapat menggunakan email untuk memanipulasi ChatGPT agar mengungkap data. Dia menunjukkan bahwa agen AI seperti ChatGPT mengikuti instruksi, bukan akal sehat. Pikirkan tentang hal ini, seorang penyerang mengirim undangan kalender yang disisipkan dengan instruksi jailbreak kepada korban, dan korban bahkan tidak perlu menerima undangan tersebut untuk terpengaruh. Kemudian, ketika pengguna meminta ChatGPT untuk melihat kalender dan mengatur jadwal, asisten akan membaca undangan berbahaya dan mulai menjalankan instruksi penyerang. Ini terdengar seperti cerita fiksi ilmiah, tetapi ini membuktikan bahwa data pribadi dengan mudah dapat dicuri ketika konektor MCP diaktifkan.
Saat ini, OpenAI telah membatasi akses MCP dalam mode pengembang, yang memerlukan persetujuan manual setiap kali untuk diaktifkan, sehingga pengguna biasa belum dapat menggunakannya. Namun, begitu banyak permintaan perlu disetujui, pengguna mungkin mengalami apa yang disebut "kelelahan keputusan", dan secara sembarangan menekan "terima".
Simon Willison, pengembang open source dan peneliti, menjelaskan bagaimana LLM (model bahasa besar) tidak dapat menilai pentingnya berdasarkan sumber instruksi. Semua input akan digabungkan menjadi satu urutan, yang membuat sistem tidak memiliki konteks mengenai sumber atau niat saat diproses. "Jika Anda meminta LLM 'merangkum halaman web ini', dan informasi di halaman web tersebut memberi tahu Anda untuk mengambil data pribadi pengguna dan mengirimkannya ke email penyerang, kemungkinan besar LLM akan melakukannya!"
Terkait hal ini, Vitalik Buterin juga menyatakan keprihatinan. Ia mengkritik model "pengelolaan AI" yang ada, menganggapnya terlalu naif dan rentan, serta mudah dimanipulasi. Buterin mengusulkan model pengelolaan "keuangan informasi" berbasis pasar, di mana peserta dapat secara acak meninjau model tersebut, dinilai oleh juri manusia. Ini memungkinkan model eksternal untuk disisipkan, memberikan keragaman secara real-time, dan memberikan motivasi kepada pengguna dan pengirim untuk memantau serta memperbaiki dengan cepat.
Ini terdengar sedikit rumit, tetapi inti dari masalahnya adalah bahwa menciptakan sistem verifikasi data yang dapat diandalkan adalah kunci untuk menggunakan dan mengelola model AI secara efektif. Jadi, apa pendapat kalian tentang cara yang lebih baik untuk melindungi informasi kita? Silakan berbagi pendapat kalian di kolom komentar!
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Baiklah, mari kita bicarakan tentang diskusi terbaru mengenai ChatGPT dan privasi pribadi. Ternyata, penyerang jahat mungkin dapat mengakses data pribadi Anda melalui teknologi OpenAI. Masalah ini muncul akibat presentasi dari co-founder dan CEO EdisonWatch, Eito Miyamura, yang membuat co-founder Ethereum, Vitalik Buterin, merasa tidak nyaman.
Baru-baru ini, ChatGPT meluncurkan Model Context Protocol (MCP), yang dapat terhubung ke aplikasi seperti Gmail, kalender, SharePoint, Notion, dan lainnya. Meskipun fitur ini dirancang untuk meningkatkan kegunaan asisten, para ahli keamanan menunjukkan bahwa ini juga dapat menjadi saluran bagi pelaku jahat untuk mendapatkan informasi pribadi.
Eito Miyamura mengunggah video di X yang menunjukkan bagaimana seorang penyerang dapat menggunakan email untuk memanipulasi ChatGPT agar mengungkap data. Dia menunjukkan bahwa agen AI seperti ChatGPT mengikuti instruksi, bukan akal sehat. Pikirkan tentang hal ini, seorang penyerang mengirim undangan kalender yang disisipkan dengan instruksi jailbreak kepada korban, dan korban bahkan tidak perlu menerima undangan tersebut untuk terpengaruh. Kemudian, ketika pengguna meminta ChatGPT untuk melihat kalender dan mengatur jadwal, asisten akan membaca undangan berbahaya dan mulai menjalankan instruksi penyerang. Ini terdengar seperti cerita fiksi ilmiah, tetapi ini membuktikan bahwa data pribadi dengan mudah dapat dicuri ketika konektor MCP diaktifkan.
Saat ini, OpenAI telah membatasi akses MCP dalam mode pengembang, yang memerlukan persetujuan manual setiap kali untuk diaktifkan, sehingga pengguna biasa belum dapat menggunakannya. Namun, begitu banyak permintaan perlu disetujui, pengguna mungkin mengalami apa yang disebut "kelelahan keputusan", dan secara sembarangan menekan "terima".
Simon Willison, pengembang open source dan peneliti, menjelaskan bagaimana LLM (model bahasa besar) tidak dapat menilai pentingnya berdasarkan sumber instruksi. Semua input akan digabungkan menjadi satu urutan, yang membuat sistem tidak memiliki konteks mengenai sumber atau niat saat diproses. "Jika Anda meminta LLM 'merangkum halaman web ini', dan informasi di halaman web tersebut memberi tahu Anda untuk mengambil data pribadi pengguna dan mengirimkannya ke email penyerang, kemungkinan besar LLM akan melakukannya!"
Terkait hal ini, Vitalik Buterin juga menyatakan keprihatinan. Ia mengkritik model "pengelolaan AI" yang ada, menganggapnya terlalu naif dan rentan, serta mudah dimanipulasi. Buterin mengusulkan model pengelolaan "keuangan informasi" berbasis pasar, di mana peserta dapat secara acak meninjau model tersebut, dinilai oleh juri manusia. Ini memungkinkan model eksternal untuk disisipkan, memberikan keragaman secara real-time, dan memberikan motivasi kepada pengguna dan pengirim untuk memantau serta memperbaiki dengan cepat.
Ini terdengar sedikit rumit, tetapi inti dari masalahnya adalah bahwa menciptakan sistem verifikasi data yang dapat diandalkan adalah kunci untuk menggunakan dan mengelola model AI secara efektif. Jadi, apa pendapat kalian tentang cara yang lebih baik untuk melindungi informasi kita? Silakan berbagi pendapat kalian di kolom komentar!