Bien, parlons des récentes discussions concernant ChatGPT et la vie privée des individus. En effet, des attaquants malveillants pourraient potentiellement accéder à vos données privées grâce à la technologie d'OpenAI. Ce problème a été soulevé par la présentation d'Eito Miyamura, co-fondateur et PDG d'EdisonWatch, qui a mis mal à l'aise Vitalik Buterin, co-fondateur d'Ethereum.



Récemment, ChatGPT a lancé le Model Context Protocol (MCP), qui peut se connecter à des applications telles que Gmail, Calendrier, SharePoint, Notion, etc. Bien que cette fonctionnalité vise à améliorer l'utilité de l'assistant, des experts en sécurité soulignent que cela pourrait également devenir un moyen pour les malfaiteurs d'accéder à des informations privées.

Eito Miyamura a publié une vidéo sur X, montrant comment un attaquant peut inciter ChatGPT à divulguer des données par e-mail. Il a souligné que des agents IA comme ChatGPT suivent des instructions, et non du bon sens. Pensez-y, un attaquant envoie à la victime une invitation de calendrier intégrant des instructions de jailbreak, et la victime n'a même pas besoin d'accepter l'invitation pour être affectée. Ensuite, lorsque l'utilisateur demande à ChatGPT de consulter le calendrier et de planifier des rendez-vous, l'assistant lit l'invitation malveillante et commence à exécuter les instructions de l'attaquant. Cela ressemble à une histoire de science-fiction, mais cela prouve que les données personnelles peuvent être facilement volées lorsque le connecteur MCP est activé.

Actuellement, OpenAI a restreint l'accès à MCP en mode développeur, ce qui nécessite une approbation manuelle à chaque fois pour être activé, donc les utilisateurs ordinaires ne peuvent pas encore l'utiliser. Cependant, une fois qu'un grand nombre de demandes nécessitent une approbation, les utilisateurs pourraient éprouver ce qu'on appelle une "fatigue décisionnelle", acceptant trop rapidement en cliquant sur "accepter".

Simon Willison, développeur open source et chercheur, a expliqué comment les LLM (grands modèles de langage) ne peuvent pas juger de l'importance des instructions en fonction de leur provenance. Toutes les entrées sont fusionnées en une séquence, ce qui laisse le système sans aucun contexte sur la provenance ou l'intention. "Si vous demandez à un LLM de 'résumer cette page web', et que les informations sur la page vous disent de récupérer les données privées d'un utilisateur et de les envoyer à l'adresse e-mail d'un attaquant, il est très probable que le LLM le fasse !"

À ce sujet, Vitalik Buterin a également exprimé ses préoccupations. Il a critiqué le modèle de "gouvernance de l'IA" existant, le considérant comme trop naïf et fragile, facilement manipulable. Buterin a proposé un modèle de gouvernance "financière de l'information" basé sur le marché, où les participants peuvent examiner le modèle de manière aléatoire, avec un jury humain attribuant des notes. Cela permet aux modèles externes de s'insérer, d'offrir une diversité en temps réel et de donner aux utilisateurs et aux soumissionnaires la motivation de surveiller et de corriger rapidement.

Cela semble un peu complexe, mais le point clé est que créer un système de vérification des données fiable est essentiel pour utiliser et gérer efficacement les modèles d'IA. Alors, que pensez-vous que nous devrions faire pour mieux protéger nos informations ? N'hésitez pas à partager vos réflexions dans les commentaires !
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)