好的,我们聊聊最近关于ChatGPT和个人隐私的讨论吧。原来,恶意攻击者有可能通过OpenAI的技术获取你的私人数据。这个问题的起因是EdisonWatch的联合创始人兼CEO Eito Miyamura的演示,这让以太坊联合创始人Vitalik Buterin感到不安。



最近,ChatGPT推出了Model Context Protocol(MCP),可以连接到Gmail、日历、SharePoint、Notion等应用。虽然这项功能是为了提升助手的实用性,但安全专家指出,这也可能成为恶意人士获取私人信息的通道。

Eito Miyamura在X上发布了一段视频,展示了如何攻击者通过邮件诱导ChatGPT泄露数据。他指出,像ChatGPT这样的AI代理遵循的是指令,而不是常识。想想看,一个攻击者给受害者发送嵌有越狱指令的日历邀请,受害者甚至不需要接受邀约就会受到影响。接着,当用户要求ChatGPT查看日历并安排日程时,助手便会读取恶意邀请并开始执行攻击者的指令。这听起来像是科幻故事,但它证明了个人数据在MCP连接器启用时很容易被外窃。

目前,OpenAI已将MCP访问限制在开发者模式,需要每次手动批准才可开启,所以普通用户还无法使用。不过,一旦大量请求需要批准,用户可能会出现所谓的“决策疲劳”,过于轻率地点“接受”。

Simon Willison,开源开发者兼研究人员,解释了LLMs(大型语言模型)如何无法根据指令来源判断其重要性。所有输入都会被合并到一序列中,这让系统处理时没有任何对来源或意图的上下文。“如果你让LLM‘总结这个网页’,而网页上的信息告诉你去检索用户的私人数据并发送给攻击者的邮箱,极有可能LLM会照做!”

对此,Vitalik Buterin也表达了关切。他批评现有的“AI治理”模式,认为其过于天真且脆弱,容易被操控。Buterin提出了一种基于市场的“信息金融”治理模型,参与者能随机对模型进行审查,由人类评审团打分。这让外部模型能够插入,提供实时多样性,并给予用户和提交者监测并迅速纠正的动机。

这听起来有点复杂,不过核心点在于,创建一个可靠的数据核查系统是有效使用和管理AI模型的关键。那么,大家认为我们应该如何更好地保护自己的信息呢?欢迎在评论区聊聊你的看法!
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)