好的,我們聊聊最近關於ChatGPT和個人隱私的討論吧。原來,惡意攻擊者有可能通過OpenAI的技術獲取你的私人數據。這個問題的起因是EdisonWatch的聯合創始人兼CEO Eito Miyamura的演示,這讓以太坊聯合創始人Vitalik Buterin感到不安。



最近,ChatGPT推出了Model Context Protocol(MCP),可以連接到Gmail、日曆、SharePoint、Notion等應用。雖然這項功能是爲了提升助手的實用性,但安全專家指出,這也可能成爲惡意人士獲取私人信息的通道。

Eito Miyamura在X上發布了一段視頻,展示了如何攻擊者通過郵件誘導ChatGPT泄露數據。他指出,像ChatGPT這樣的AI代理遵循的是指令,而不是常識。想想看,一個攻擊者給受害者發送嵌有越獄指令的日曆邀請,受害者甚至不需要接受邀約就會受到影響。接着,當用戶要求ChatGPT查看日曆並安排日程時,助手便會讀取惡意邀請並開始執行攻擊者的指令。這聽起來像是科幻故事,但它證明了個人數據在MCP連接器啓用時很容易被外竊。

目前,OpenAI已將MCP訪問限制在開發者模式,需要每次手動批準才可開啓,所以普通用戶還無法使用。不過,一旦大量請求需要批準,用戶可能會出現所謂的“決策疲勞”,過於輕率地點“接受”。

Simon Willison,開源開發者兼研究人員,解釋了LLMs(大型語言模型)如何無法根據指令來源判斷其重要性。所有輸入都會被合並到一序列中,這讓系統處理時沒有任何對來源或意圖的上下文。“如果你讓LLM‘總結這個網頁’,而網頁上的信息告訴你去檢索用戶的私人數據並發送給攻擊者的郵箱,極有可能LLM會照做!”

對此,Vitalik Buterin也表達了關切。他批評現有的“AI治理”模式,認爲其過於天真且脆弱,容易被操控。Buterin提出了一種基於市場的“信息金融”治理模型,參與者能隨機對模型進行審查,由人類評審團打分。這讓外部模型能夠插入,提供實時多樣性,並給予用戶和提交者監測並迅速糾正的動機。

這聽起來有點復雜,不過核心點在於,創建一個可靠的數據核查系統是有效使用和管理AI模型的關鍵。那麼,大家認爲我們應該如何更好地保護自己的信息呢?歡迎在評論區聊聊你的看法!
查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)