Tudo bem, vamos conversar sobre a recente discussão sobre o ChatGPT e a privacidade pessoal. Acontece que atacantes maliciosos podem potencialmente obter seus dados pessoais através da tecnologia da OpenAI. O problema surgiu a partir da apresentação de Eito Miyamura, cofundador e CEO da EdisonWatch, que deixou o cofundador do Ethereum, Vitalik Buterin, inquieto.
Recentemente, o ChatGPT lançou o Model Context Protocol (MCP), que pode ser conectado a aplicações como Gmail, Calendário, SharePoint, Notion, entre outras. Embora esta funcionalidade tenha sido criada para aumentar a utilidade do assistente, especialistas em segurança apontam que isso também pode tornar-se um canal para indivíduos mal-intencionados obterem informações privadas.
Eito Miyamura publicou um vídeo no X, mostrando como um atacante pode induzir o ChatGPT a vazar dados através de e-mail. Ele apontou que agentes de IA como o ChatGPT seguem instruções, e não o senso comum. Pense nisso, um atacante envia ao vítima um convite de calendário embutido com instruções de jailbreak, e a vítima nem precisa aceitar o convite para ser afetada. Em seguida, quando o usuário pede ao ChatGPT para verificar o calendário e agendar compromissos, o assistente lê o convite malicioso e começa a executar as instruções do atacante. Isso soa como uma história de ficção científica, mas prova que os dados pessoais podem ser facilmente roubados quando o conector MCP está ativado.
Atualmente, a OpenAI limitou o acesso ao MCP ao modo de desenvolvedor, sendo necessário aprovar manualmente a cada vez para poder ativá-lo, portanto, os usuários comuns ainda não conseguem utilizá-lo. No entanto, uma vez que um grande número de solicitações precise de aprovação, os usuários podem experimentar o que se chama de "fadiga de decisão", aceitando de forma precipitada."
Simon Willison, desenvolvedor de código aberto e pesquisador, explicou como os LLMs (modelos de linguagem de grande escala) não conseguem avaliar a importância da origem das instruções. Todas as entradas são combinadas em uma sequência, o que impede que o sistema processe qualquer contexto sobre a origem ou a intenção. "Se você pedir ao LLM 'resumir esta página da web', e as informações na página disserem para você recuperar os dados pessoais do usuário e enviá-los para o e-mail de um atacante, é muito provável que o LLM o faça!"
A esse respeito, Vitalik Buterin também expressou preocupação. Ele criticou o atual modelo de "governança de IA", considerando-o ingênuo e frágil, facilmente manipulável. Buterin propôs um modelo de governança "financeira de informações" baseado no mercado, onde os participantes podem revisar aleatoriamente o modelo, com uma equipe de revisão humana atribuindo notas. Isso permite a inserção de modelos externos, oferecendo diversidade em tempo real e fornecendo aos usuários e proponentes a motivação para monitorar e corrigir rapidamente.
Isso soa um pouco complexo, mas o ponto principal é que criar um sistema de verificação de dados confiável é a chave para usar e gerenciar modelos de IA de forma eficaz. Então, o que todos acham que devemos fazer para proteger melhor nossas informações? Sinta-se à vontade para comentar suas opiniões!
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Tudo bem, vamos conversar sobre a recente discussão sobre o ChatGPT e a privacidade pessoal. Acontece que atacantes maliciosos podem potencialmente obter seus dados pessoais através da tecnologia da OpenAI. O problema surgiu a partir da apresentação de Eito Miyamura, cofundador e CEO da EdisonWatch, que deixou o cofundador do Ethereum, Vitalik Buterin, inquieto.
Recentemente, o ChatGPT lançou o Model Context Protocol (MCP), que pode ser conectado a aplicações como Gmail, Calendário, SharePoint, Notion, entre outras. Embora esta funcionalidade tenha sido criada para aumentar a utilidade do assistente, especialistas em segurança apontam que isso também pode tornar-se um canal para indivíduos mal-intencionados obterem informações privadas.
Eito Miyamura publicou um vídeo no X, mostrando como um atacante pode induzir o ChatGPT a vazar dados através de e-mail. Ele apontou que agentes de IA como o ChatGPT seguem instruções, e não o senso comum. Pense nisso, um atacante envia ao vítima um convite de calendário embutido com instruções de jailbreak, e a vítima nem precisa aceitar o convite para ser afetada. Em seguida, quando o usuário pede ao ChatGPT para verificar o calendário e agendar compromissos, o assistente lê o convite malicioso e começa a executar as instruções do atacante. Isso soa como uma história de ficção científica, mas prova que os dados pessoais podem ser facilmente roubados quando o conector MCP está ativado.
Atualmente, a OpenAI limitou o acesso ao MCP ao modo de desenvolvedor, sendo necessário aprovar manualmente a cada vez para poder ativá-lo, portanto, os usuários comuns ainda não conseguem utilizá-lo. No entanto, uma vez que um grande número de solicitações precise de aprovação, os usuários podem experimentar o que se chama de "fadiga de decisão", aceitando de forma precipitada."
Simon Willison, desenvolvedor de código aberto e pesquisador, explicou como os LLMs (modelos de linguagem de grande escala) não conseguem avaliar a importância da origem das instruções. Todas as entradas são combinadas em uma sequência, o que impede que o sistema processe qualquer contexto sobre a origem ou a intenção. "Se você pedir ao LLM 'resumir esta página da web', e as informações na página disserem para você recuperar os dados pessoais do usuário e enviá-los para o e-mail de um atacante, é muito provável que o LLM o faça!"
A esse respeito, Vitalik Buterin também expressou preocupação. Ele criticou o atual modelo de "governança de IA", considerando-o ingênuo e frágil, facilmente manipulável. Buterin propôs um modelo de governança "financeira de informações" baseado no mercado, onde os participantes podem revisar aleatoriamente o modelo, com uma equipe de revisão humana atribuindo notas. Isso permite a inserção de modelos externos, oferecendo diversidade em tempo real e fornecendo aos usuários e proponentes a motivação para monitorar e corrigir rapidamente.
Isso soa um pouco complexo, mas o ponto principal é que criar um sistema de verificação de dados confiável é a chave para usar e gerenciar modelos de IA de forma eficaz. Então, o que todos acham que devemos fazer para proteger melhor nossas informações? Sinta-se à vontade para comentar suas opiniões!