亲爱的广场用户们,广场使用界面全新升级啦!新版本界面更清新简洁、操作更流畅丝滑,还有多项贴心新功能上线,快来更新体验吧!你对新版界面有什么感受?你最喜欢的新功能是哪一个?你发现了哪些惊喜或变化呢?发帖分享新版广场使用体验,瓜分 $10 分享奖励!
🎁 我们将精选 10 位幸运用户,每人奖励 $10 合约体验券!
参与方式:
1⃣️ 关注 Gate广场_Official;
2⃣️ 带上 #我的广场升级体验 标签发帖,分享你的使用感受,比如界面风格体验、细节功能变化、你最喜欢的新功能,或优化建议等;
3⃣️ 帖子内容需至少 30 字,并且只带本活动标签;
广场界面焕新介绍文章:https://gate.com/post?post_id=14774358&tim=ARAbClhcBQNwWRIVGAoGBB5QX1sO0O0O&ref=BFlBUFwL&ref_type=105
活动截止时间:2025/10/26 18:00(UTC+8)
你的体验是我们持续优化的动力!赶快参与和大家分享吧!
好的,我们聊聊最近关于ChatGPT和个人隐私的讨论吧。原来,恶意攻击者有可能通过OpenAI的技术获取你的私人数据。这个问题的起因是EdisonWatch的联合创始人兼CEO Eito Miyamura的演示,这让以太坊联合创始人Vitalik Buterin感到不安。
最近,ChatGPT推出了Model Context Protocol(MCP),可以连接到Gmail、日历、SharePoint、Notion等应用。虽然这项功能是为了提升助手的实用性,但安全专家指出,这也可能成为恶意人士获取私人信息的通道。
Eito Miyamura在X上发布了一段视频,展示了如何攻击者通过邮件诱导ChatGPT泄露数据。他指出,像ChatGPT这样的AI代理遵循的是指令,而不是常识。想想看,一个攻击者给受害者发送嵌有越狱指令的日历邀请,受害者甚至不需要接受邀约就会受到影响。接着,当用户要求ChatGPT查看日历并安排日程时,助手便会读取恶意邀请并开始执行攻击者的指令。这听起来像是科幻故事,但它证明了个人数据在MCP连接器启用时很容易被外窃。
目前,OpenAI已将MCP访问限制在开发者模式,需要每次手动批准才可开启,所以普通用户还无法使用。不过,一旦大量请求需要批准,用户可能会出现所谓的“决策疲劳”,过于轻率地点“接受”。
Simon Willison,开源开发者兼研究人员,解释了LLMs(大型语言模型)如何无法根据指令来源判断其重要性。所有输入都会被合并到一序列中,这让系统处理时没有任何对来源或意图的上下文。“如果你让LLM‘总结这个网页’,而网页上的信息告诉你去检索用户的私人数据并发送给攻击者的邮箱,极有可能LLM会照做!”
对此,Vitalik Buterin也表达了关切。他批评现有的“AI治理”模式,认为其过于天真且脆弱,容易被操控。Buterin提出了一种基于市场的“信息金融”治理模型,参与者能随机对模型进行审查,由人类评审团打分。这让外部模型能够插入,提供实时多样性,并给予用户和提交者监测并迅速纠正的动机。
这听起来有点复杂,不过核心点在于,创建一个可靠的数据核查系统是有效使用和管理AI模型的关键。那么,大家认为我们应该如何更好地保护自己的信息呢?欢迎在评论区聊聊你的看法!