Peneliti keamanan memperingatkan bahwa browser dan agen bertenaga kecerdasan buatan (AI) dari Perplexity, OpenAI, dan Anthropic menghadapi risiko yang meningkat dari serangan injeksi prompt secara diam-diam dan pelanggaran privasi, yang berpotensi mengekspos data pengguna melalui akun dan API yang terhubung.
Kerentanan Browser AI Meningkatkan Kekhawatiran Keamanan
Browser dan agen AI dari Perplexity, OpenAI, dan Anthropic sedang mendefinisikan ulang cara pengguna berinteraksi dengan web—tetapi para ahli mengatakan bahwa kenyamanan ini datang dengan biaya.
Menurut audit keamanan dan penelitian yang ditinjau, kerentanan dalam sistem ini memungkinkan aktor jahat untuk menyematkan instruksi tersembunyi di situs web yang mungkin dijalankan tanpa disadari oleh alat AI.
Serangan ini, yang dikenal sebagai injeksi prompt tersembunyi atau tidak langsung, dapat memanipulasi agen AI untuk melakukan tindakan yang tidak sah—seperti membocorkan informasi sensitif, mengeksekusi kode, atau mengarahkan pengguna ke situs phishing—tanpa persetujuan eksplisit dari pengguna.
Bagaimana Serangan Mengeksploitasi Agen AI
Dalam skenario penyisipan prompt yang tersembunyi, penyerang menyembunyikan perintah jahat di dalam teks, metadata, atau bahkan elemen yang tidak terlihat dari sebuah halaman web. Setelah AI mengonsumsi data tersebut, perintah-perintah itu dapat mengabaikan niat pengguna dan menyebabkan agen melakukan tindakan yang tidak diinginkan. Uji coba menunjukkan bahwa browser AI yang tidak dilindungi dapat menjadi korban trik semacam itu hampir satu dari empat kali selama eksperimen terkontrol.
Perplexity, OpenAI, dan Anthropic: Risiko Utama yang Diidentifikasi
Perplexity’s Comet Browser: Audit oleh Brave dan Guardio menemukan bahwa alat ini dapat dimanipulasi melalui posting Reddit atau situs phishing untuk mengeksekusi skrip atau mengekstrak data pengguna.
Agen Penjelajahan OpenAI: Terintegrasi ke dalam fitur agen ChatGPT, mereka terbukti berisiko mengakses akun yang terhubung melalui email jahat dan prompt berbasis situs web.
Ekstensi Peramban Claude dari Anthropic: Uji red-team mengungkapkan bahwa perintah halaman web yang tersembunyi dapat memicu klik otomatis pada tautan berbahaya.
Insiden yang Didokumentasikan dan Peringatan Industri
Peneliti dan perusahaan keamanan siber, termasuk Brave, Guardio, dan Malwarebytes, telah menerbitkan temuan yang menunjukkan bahwa bahkan konten online yang sederhana dapat mengkompromikan agen AI. Dalam satu pengujian, sebuah pos Reddit memaksa browser AI untuk menjalankan skrip phishing. Laporan dari beberapa publikasi teknologi terkemuka memperingatkan bahwa masalah ini dapat menyebabkan akses data yang tidak sah atau bahkan pencurian finansial.
Bahaya Integrasi Akun
Analis keamanan telah mengangkat bendera merah tentang agen AI yang terkait dengan kata sandi atau API. Mengizinkan integrasi semacam itu dapat mengekspos akun email, penyimpanan cloud, dan platform pembayaran. Techcrunch dan Cybersecurity Dive keduanya melaporkan kejadian di mana agen AI ditipu untuk mengungkapkan atau memanipulasi informasi sensitif melalui perintah yang disuntikkan.
Langkah-langkah Keamanan yang Disarankan dan Pandangan
Para ahli mendesak pengguna untuk membatasi izin, menghindari memberikan akses tingkat kata sandi kepada agen AI, dan memantau log AI untuk anomali. Pengembang juga disarankan untuk menerapkan sistem isolasi dan filter prompt. Beberapa peneliti bahkan merekomendasikan menggunakan browser tradisional untuk tindakan sensitif sampai alat AI menerima perlindungan yang lebih ketat.
Sementara OpenAI, Anthropic, dan Perplexity mungkin telah mendengar tentang tantangan-tantangan tersebut, para profesional keamanan siber memperingatkan bahwa penelusuran yang didorong oleh AI tetap merupakan area berisiko tinggi pada tahun 2025. Saat perusahaan-perusahaan ini semakin maju dalam interaksi web otonom, pengamat industri mengatakan bahwa transparansi dan standar keamanan yang lebih kuat sangat penting sebelum alat-alat tersebut menjadi arus utama.
FAQ 🧭
Apa itu suntikan prompt tersembunyi di browser AI? Mereka adalah perintah tersembunyi yang disematkan dalam konten web yang menipu agen AI untuk melakukan tindakan berbahaya tanpa persetujuan pengguna.
AI tools perusahaan mana yang terpengaruh oleh kerentanan ini? Fitur browsing Comet dari Perplexity, agen browsing ChatGPT dari OpenAI, dan fitur browser Claude dari Anthropic semuanya disebutkan dalam laporan terbaru.
Risiko apa yang muncul dari menghubungkan agen AI ke akun pribadi? Menghubungkan alat AI ke drive, email, atau API dapat memungkinkan pencurian data, phishing, dan akses akun yang tidak sah.
Bagaimana pengguna dapat melindungi diri mereka dari serangan browser AI? Batasi izin, hindari integrasi kata sandi, gunakan mode terisolasi, dan tetap diperbarui tentang nasihat keamanan.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Browser AI Dalam Sorotan: Prompt Web Tersembunyi Dapat Mengambil Alih Agen Anda dan Akun Terhubung
Peneliti keamanan memperingatkan bahwa browser dan agen bertenaga kecerdasan buatan (AI) dari Perplexity, OpenAI, dan Anthropic menghadapi risiko yang meningkat dari serangan injeksi prompt secara diam-diam dan pelanggaran privasi, yang berpotensi mengekspos data pengguna melalui akun dan API yang terhubung.
Kerentanan Browser AI Meningkatkan Kekhawatiran Keamanan
Browser dan agen AI dari Perplexity, OpenAI, dan Anthropic sedang mendefinisikan ulang cara pengguna berinteraksi dengan web—tetapi para ahli mengatakan bahwa kenyamanan ini datang dengan biaya.
Menurut audit keamanan dan penelitian yang ditinjau, kerentanan dalam sistem ini memungkinkan aktor jahat untuk menyematkan instruksi tersembunyi di situs web yang mungkin dijalankan tanpa disadari oleh alat AI.
Serangan ini, yang dikenal sebagai injeksi prompt tersembunyi atau tidak langsung, dapat memanipulasi agen AI untuk melakukan tindakan yang tidak sah—seperti membocorkan informasi sensitif, mengeksekusi kode, atau mengarahkan pengguna ke situs phishing—tanpa persetujuan eksplisit dari pengguna.
Bagaimana Serangan Mengeksploitasi Agen AI
Dalam skenario penyisipan prompt yang tersembunyi, penyerang menyembunyikan perintah jahat di dalam teks, metadata, atau bahkan elemen yang tidak terlihat dari sebuah halaman web. Setelah AI mengonsumsi data tersebut, perintah-perintah itu dapat mengabaikan niat pengguna dan menyebabkan agen melakukan tindakan yang tidak diinginkan. Uji coba menunjukkan bahwa browser AI yang tidak dilindungi dapat menjadi korban trik semacam itu hampir satu dari empat kali selama eksperimen terkontrol.
Perplexity, OpenAI, dan Anthropic: Risiko Utama yang Diidentifikasi
Insiden yang Didokumentasikan dan Peringatan Industri
Peneliti dan perusahaan keamanan siber, termasuk Brave, Guardio, dan Malwarebytes, telah menerbitkan temuan yang menunjukkan bahwa bahkan konten online yang sederhana dapat mengkompromikan agen AI. Dalam satu pengujian, sebuah pos Reddit memaksa browser AI untuk menjalankan skrip phishing. Laporan dari beberapa publikasi teknologi terkemuka memperingatkan bahwa masalah ini dapat menyebabkan akses data yang tidak sah atau bahkan pencurian finansial.
Bahaya Integrasi Akun
Analis keamanan telah mengangkat bendera merah tentang agen AI yang terkait dengan kata sandi atau API. Mengizinkan integrasi semacam itu dapat mengekspos akun email, penyimpanan cloud, dan platform pembayaran. Techcrunch dan Cybersecurity Dive keduanya melaporkan kejadian di mana agen AI ditipu untuk mengungkapkan atau memanipulasi informasi sensitif melalui perintah yang disuntikkan.
Langkah-langkah Keamanan yang Disarankan dan Pandangan
Para ahli mendesak pengguna untuk membatasi izin, menghindari memberikan akses tingkat kata sandi kepada agen AI, dan memantau log AI untuk anomali. Pengembang juga disarankan untuk menerapkan sistem isolasi dan filter prompt. Beberapa peneliti bahkan merekomendasikan menggunakan browser tradisional untuk tindakan sensitif sampai alat AI menerima perlindungan yang lebih ketat.
Sementara OpenAI, Anthropic, dan Perplexity mungkin telah mendengar tentang tantangan-tantangan tersebut, para profesional keamanan siber memperingatkan bahwa penelusuran yang didorong oleh AI tetap merupakan area berisiko tinggi pada tahun 2025. Saat perusahaan-perusahaan ini semakin maju dalam interaksi web otonom, pengamat industri mengatakan bahwa transparansi dan standar keamanan yang lebih kuat sangat penting sebelum alat-alat tersebut menjadi arus utama.
FAQ 🧭