Được rồi, chúng ta hãy nói về những cuộc thảo luận gần đây về ChatGPT và quyền riêng tư cá nhân nhé. Hóa ra, những kẻ tấn công độc hại có thể lấy được dữ liệu cá nhân của bạn thông qua công nghệ của OpenAI. Vấn đề này bắt nguồn từ bài thuyết trình của Eito Miyamura, đồng sáng lập và CEO của EdisonWatch, điều này khiến cho đồng sáng lập Ethereum Vitalik Buterin cảm thấy không yên tâm.



Gần đây, ChatGPT đã ra mắt Giao thức Ngữ cảnh Mô hình (MCP), có thể kết nối với Gmail, Lịch, SharePoint, Notion và các ứng dụng khác. Mặc dù tính năng này nhằm nâng cao tính hữu dụng của trợ lý, nhưng các chuyên gia an ninh chỉ ra rằng nó cũng có thể trở thành kênh cho những kẻ xấu để thu thập thông tin cá nhân.

Eito Miyamura đã đăng một video trên X, trình bày cách mà kẻ tấn công có thể dụ dỗ ChatGPT tiết lộ dữ liệu qua email. Ông chỉ ra rằng các đại lý AI như ChatGPT tuân theo các mệnh lệnh, chứ không phải là kiến thức thông thường. Hãy nghĩ xem, một kẻ tấn công gửi cho nạn nhân một lời mời lịch có chứa các lệnh jailbreak, nạn nhân thậm chí không cần chấp nhận lời mời cũng sẽ bị ảnh hưởng. Sau đó, khi người dùng yêu cầu ChatGPT xem lịch và sắp xếp lịch trình, trợ lý sẽ đọc lời mời độc hại và bắt đầu thực hiện các lệnh của kẻ tấn công. Nghe có vẻ như một câu chuyện khoa học viễn tưởng, nhưng nó chứng minh rằng dữ liệu cá nhân rất dễ bị đánh cắp khi kết nối MCP được kích hoạt.

Hiện tại, OpenAI đã giới hạn quyền truy cập MCP trong chế độ nhà phát triển, cần phải phê duyệt thủ công mỗi lần để có thể mở, vì vậy người dùng bình thường vẫn không thể sử dụng. Tuy nhiên, một khi có nhiều yêu cầu cần được phê duyệt, người dùng có thể gặp phải cái gọi là "mệt mỏi trong quyết định", và có thể dễ dàng nhấn "chấp nhận".

Simon Willison, nhà phát triển mã nguồn mở và nhà nghiên cứu, đã giải thích cách LLMs (mô hình ngôn ngữ lớn) không thể đánh giá được tầm quan trọng của nguồn chỉ dẫn. Tất cả các đầu vào sẽ được hợp nhất thành một chuỗi, điều này khiến hệ thống không có bất kỳ bối cảnh nào về nguồn gốc hoặc ý định khi xử lý. "Nếu bạn yêu cầu LLM 'tóm tắt trang web này', và thông tin trên trang web đó cho bạn biết để truy xuất dữ liệu cá nhân của người dùng và gửi đến hộp thư của kẻ tấn công, rất có thể LLM sẽ làm theo!"

Đối với điều này, Vitalik Buterin cũng bày tỏ sự quan tâm. Ông chỉ trích mô hình "quản trị AI" hiện tại, cho rằng nó quá ngây thơ và mong manh, dễ bị thao túng. Buterin đã đề xuất một mô hình quản trị "tài chính thông tin" dựa trên thị trường, trong đó người tham gia có thể ngẫu nhiên xem xét mô hình, và được chấm điểm bởi một ban giám khảo con người. Điều này cho phép các mô hình bên ngoài có thể được chèn vào, cung cấp sự đa dạng thời gian thực, và tạo động lực cho người dùng và người nộp để giám sát và nhanh chóng điều chỉnh.

Điều này nghe có vẻ phức tạp một chút, nhưng điểm cốt lõi là việc tạo ra một hệ thống kiểm tra dữ liệu đáng tin cậy là chìa khóa để sử dụng và quản lý các mô hình AI một cách hiệu quả. Vậy, mọi người nghĩ chúng ta nên làm gì để bảo vệ thông tin của mình tốt hơn? Chào mừng bạn chia sẻ ý kiến của mình trong phần bình luận!
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)