親愛的廣場用戶們,廣場使用界面全新升級啦!新版本界面更清新簡潔、操作更流暢絲滑,還有多項貼心新功能上線,快來更新體驗吧!你對新版界面有什麼感受?你最喜歡的新功能是哪一個?你發現了哪些驚喜或變化呢?發帖分享新版廣場使用體驗,瓜分 $10 分享獎勵!
🎁 我們將精選 10 位幸運用戶,每人獎勵 $10 合約體驗券!
參與方式:
1⃣️ 關注 Gate廣場_Official;
2⃣️ 帶上 #我的广场升级体验 標籤發帖,分享你的使用感受,比如界面風格體驗、細節功能變化、你最喜歡的新功能,或優化建議等;
3⃣️ 帖子內容需至少 30 字,並且只帶本活動標籤;
廣場界面煥新介紹文章:https://gate.com/post?post_id=14774358&tim=ARAbClhcBQNwWRIVGAoGBB5QX1sO0O0O&ref=BFlBUFwL&ref_type=105
活動截止時間:2025/10/26 18:00(UTC+8)
你的體驗是我們持續優化的動力!趕快參與和大家分享吧!
好的,我們聊聊最近關於ChatGPT和個人隱私的討論吧。原來,惡意攻擊者有可能通過OpenAI的技術獲取你的私人數據。這個問題的起因是EdisonWatch的聯合創始人兼CEO Eito Miyamura的演示,這讓以太坊聯合創始人Vitalik Buterin感到不安。
最近,ChatGPT推出了Model Context Protocol(MCP),可以連接到Gmail、日曆、SharePoint、Notion等應用。雖然這項功能是爲了提升助手的實用性,但安全專家指出,這也可能成爲惡意人士獲取私人信息的通道。
Eito Miyamura在X上發布了一段視頻,展示了如何攻擊者通過郵件誘導ChatGPT泄露數據。他指出,像ChatGPT這樣的AI代理遵循的是指令,而不是常識。想想看,一個攻擊者給受害者發送嵌有越獄指令的日曆邀請,受害者甚至不需要接受邀約就會受到影響。接着,當用戶要求ChatGPT查看日曆並安排日程時,助手便會讀取惡意邀請並開始執行攻擊者的指令。這聽起來像是科幻故事,但它證明了個人數據在MCP連接器啓用時很容易被外竊。
目前,OpenAI已將MCP訪問限制在開發者模式,需要每次手動批準才可開啓,所以普通用戶還無法使用。不過,一旦大量請求需要批準,用戶可能會出現所謂的“決策疲勞”,過於輕率地點“接受”。
Simon Willison,開源開發者兼研究人員,解釋了LLMs(大型語言模型)如何無法根據指令來源判斷其重要性。所有輸入都會被合並到一序列中,這讓系統處理時沒有任何對來源或意圖的上下文。“如果你讓LLM‘總結這個網頁’,而網頁上的信息告訴你去檢索用戶的私人數據並發送給攻擊者的郵箱,極有可能LLM會照做!”
對此,Vitalik Buterin也表達了關切。他批評現有的“AI治理”模式,認爲其過於天真且脆弱,容易被操控。Buterin提出了一種基於市場的“信息金融”治理模型,參與者能隨機對模型進行審查,由人類評審團打分。這讓外部模型能夠插入,提供實時多樣性,並給予用戶和提交者監測並迅速糾正的動機。
這聽起來有點復雜,不過核心點在於,創建一個可靠的數據核查系統是有效使用和管理AI模型的關鍵。那麼,大家認爲我們應該如何更好地保護自己的信息呢?歡迎在評論區聊聊你的看法!