Tamam, son zamanlarda ChatGPT ve kişisel gizlilik hakkında yapılan tartışmalardan bahsedelim. Görünüşe göre, kötü niyetli saldırganlar OpenAI'nin teknolojisi aracılığıyla özel verilerinize erişim sağlayabilir. Bu sorunun kaynağı, EdisonWatch'un kurucu ortağı ve CEO'su Eito Miyamura'nın sunumuydu ve bu durum Ethereum'un kurucu ortağı Vitalik Buterin'i rahatsız etti.



Son zamanlarda, ChatGPT Model Context Protocol (MCP) tanıttı; bu, Gmail, takvim, SharePoint, Notion gibi uygulamalara bağlanabilir. Bu özellik asistanın kullanılabilirliğini artırmak için tasarlanmış olsa da, güvenlik uzmanları bunun kötü niyetli kişilerin özel bilgilere erişim sağlaması için bir yol haline gelebileceğini belirtiyor.

Eito Miyamura, X'te bir video yayınlayarak, bir saldırganın e-posta yoluyla ChatGPT'yi veri sızdırmaya nasıl teşvik edebileceğini gösterdi. ChatGPT gibi AI ajanlarının talimatları takip ettiğini, sağduyudan ziyade, belirtti. Düşünün ki, bir saldırgan kurbanına jailbreak talimatları içeren bir takvim daveti gönderiyor, kurban daveti kabul etmek zorunda bile kalmadan etkileniyor. Ardından, kullanıcı ChatGPT'den takvimi kontrol edip program yapmasını istediğinde, asistan kötü niyetli daveti okuyarak saldırganın talimatlarını yürütmeye başlıyor. Bu bilim kurgu hikayesi gibi görünüyor ama, kişisel verilerin MCP konektörü etkinleştirildiğinde kolayca çalınabileceğini kanıtlıyor.

Şu anda, OpenAI MCP erişimini geliştirici modunda kısıtladı ve her seferinde manuel onay gerektiriyor, bu nedenle normal kullanıcılar henüz kullanamıyor. Ancak, çok sayıda talep onay gerektirdiğinde, kullanıcılar "karar yorgunluğu" yaşayabilir ve "kabul et" butonuna aşırı düşünmeden basabilir.

Simon Willison, açık kaynak geliştiricisi ve araştırmacı, LLM'lerin (büyük dil modelleri) nasıl talimatların kaynağını dikkate almadan önemini değerlendiremediğini açıkladı. Tüm girdiler bir diziye birleştiriliyor, bu da sistemin işlem yaparken kaynak veya niyetle ilgili herhangi bir bağlamdan yoksun kalmasına neden oluyor. "Eğer LLM'ye 'bu web sayfasını özetle' derseniz ve web sayfasındaki bilgiler kullanıcıların özel verilerini alıp saldırganın e-posta adresine göndermelerini söylüyorsa, LLM'nin bunu yapma olasılığı oldukça yüksektir!"

Buna karşılık, Vitalik Buterin de endişelerini dile getirdi. Mevcut "AI yönetişimi" modelini eleştirerek, bunun fazla naif ve kırılgan olduğunu, kolayca manipüle edilebileceğini savundu. Buterin, katılımcıların modele rastgele denetim yapabildiği, insan jüri tarafından puanlanan piyasa temelli bir "bilgi finansmanı" yönetişim modeli önerdi. Bu, dış modellerin girmesine olanak tanıyarak, gerçek zamanlı çeşitlilik sunar ve kullanıcılara ve katılımcılara izleme ve hızlı düzeltme motivasyonu sağlar.

Bu biraz karmaşık görünüyor, ancak temel nokta, güvenilir bir veri doğrulama sistemi oluşturmanın AI modellerini etkili bir şekilde kullanmanın ve yönetmenin anahtarı olduğudur. Peki, sizce bilgimizi daha iyi nasıl koruyabiliriz? Görüşlerinizi yorumlar kısmında paylaşabilirsiniz!
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Reward
  • Comment
  • Repost
  • Share
Comment
0/400
No comments
  • Pin
Trade Crypto Anywhere Anytime
qrCode
Scan to download Gate App
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)