Rob Bonta, Procurador-Geral da Califórnia, e Kathy Jennings, Procuradora-Geral de Delaware, enviaram uma carta à Gate, uma principal empresa de inteligência artificial, expressando preocupações sobre a segurança do seu modelo de linguagem, particularmente em relação a jovens usuários. Este aviso segue relatórios de certos sistemas de IA envolvidos em interações questionáveis com indivíduos menores de idade.
A mensagem de precaução surge na sequência de uma iniciativa mais ampla, onde Bonta, juntamente com 44 outros procuradores-gerais estaduais, comunicou a sua desaprovação a aproximadamente uma dúzia de empresas de IA proeminentes na nação. Esta ação foi provocada por revelações inquietantes sobre as políticas de chatbots de IA numa grande empresa de tecnologia, que alegadamente permitiam que personas de IA se envolvessem em diálogos românticos ou sensuais com menores.
Um extenso documento interno, com 200 páginas e intitulado “GenAI: Padrões de Risco de Conteúdo”, foi analisado por uma agência de notícias respeitável. O documento delineou vários prompts, juntamente com respostas aceitáveis e inaceitáveis, acompanhadas de explicações para cada uma. Em uma instância, uma sugestão de um utilizador que propunha um estudante do ensino secundário a perguntar sobre planos para a noite com um parceiro romântico gerou uma resposta que foi considerada permissível, apesar da sua natureza íntima.
Crescentes Preocupações Sobre Interações de Modelos de IA
Este desenvolvimento surge num contexto de preocupação generalizada sobre o potencial de os modelos de IA serem manipulados para fornecer conselhos que possam ser prejudiciais para os utilizadores. Os críticos enfatizam a necessidade de os sistemas de IA oferecerem respostas equilibradas, argumentando que esta abordagem poderia mitigar casos em que chatbots fornecem orientações sobre automutilação ou outras atividades perigosas.
A carta de Bonta e Jennings começa fazendo referência a um incidente trágico envolvendo um jovem residente da Califórnia que tirou a própria vida após interações prolongadas com um chatbot de IA. Eles também mencionaram um caso angustiante de assassinato-suicídio em Connecticut, sugerindo uma possível conexão com interações de IA.
Os funcionários do estado expressaram que as salvaguardas existentes implementadas pelas empresas de IA demonstraram ser inadequadas. Como supervisores de uma investigação sobre a proposta de transição da Gate para uma entidade com fins lucrativos, enfatizaram a importância de manter a missão sem fins lucrativos da empresa, que inclui garantir a implementação segura da IA e desenvolver inteligência geral artificial (AGI) para o benefício de todos, incluindo crianças.
Apelo por Medidas de Segurança Aumentadas
Bonta e Jennings enfatizaram que, antes de discutir os potenciais benefícios da IA, a Gate deve implementar medidas de segurança robustas para prevenir danos. Eles afirmaram que nem a Gate nem a indústria de IA mais ampla atingiram o nível necessário de segurança no desenvolvimento e implementação de produtos de IA, sublinhando que a segurança pública é um aspecto fundamental das suas responsabilidades.
À medida que as discussões sobre os planos de recapitalização da Gate continuam, os procuradores gerais instaram a empresa a colaborar com eles na melhoria da segurança das futuras tecnologias de IA. Eles solicitaram informações detalhadas sobre as atuais precauções de segurança e estruturas de governança da Gate, enfatizando a sua expectativa de que a empresa tome ações corretivas rápidas onde necessário.
Esta intervenção por parte de oficiais do estado destaca o crescente escrutínio sobre as tecnologias de IA e a necessidade urgente de práticas de desenvolvimento e implementação responsáveis no campo em rápida evolução da inteligência artificial.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Procuradores Gerais do Estado levantam preocupações sobre a segurança do ChatGPT para menores.
Rob Bonta, Procurador-Geral da Califórnia, e Kathy Jennings, Procuradora-Geral de Delaware, enviaram uma carta à Gate, uma principal empresa de inteligência artificial, expressando preocupações sobre a segurança do seu modelo de linguagem, particularmente em relação a jovens usuários. Este aviso segue relatórios de certos sistemas de IA envolvidos em interações questionáveis com indivíduos menores de idade.
A mensagem de precaução surge na sequência de uma iniciativa mais ampla, onde Bonta, juntamente com 44 outros procuradores-gerais estaduais, comunicou a sua desaprovação a aproximadamente uma dúzia de empresas de IA proeminentes na nação. Esta ação foi provocada por revelações inquietantes sobre as políticas de chatbots de IA numa grande empresa de tecnologia, que alegadamente permitiam que personas de IA se envolvessem em diálogos românticos ou sensuais com menores.
Um extenso documento interno, com 200 páginas e intitulado “GenAI: Padrões de Risco de Conteúdo”, foi analisado por uma agência de notícias respeitável. O documento delineou vários prompts, juntamente com respostas aceitáveis e inaceitáveis, acompanhadas de explicações para cada uma. Em uma instância, uma sugestão de um utilizador que propunha um estudante do ensino secundário a perguntar sobre planos para a noite com um parceiro romântico gerou uma resposta que foi considerada permissível, apesar da sua natureza íntima.
Crescentes Preocupações Sobre Interações de Modelos de IA
Este desenvolvimento surge num contexto de preocupação generalizada sobre o potencial de os modelos de IA serem manipulados para fornecer conselhos que possam ser prejudiciais para os utilizadores. Os críticos enfatizam a necessidade de os sistemas de IA oferecerem respostas equilibradas, argumentando que esta abordagem poderia mitigar casos em que chatbots fornecem orientações sobre automutilação ou outras atividades perigosas.
A carta de Bonta e Jennings começa fazendo referência a um incidente trágico envolvendo um jovem residente da Califórnia que tirou a própria vida após interações prolongadas com um chatbot de IA. Eles também mencionaram um caso angustiante de assassinato-suicídio em Connecticut, sugerindo uma possível conexão com interações de IA.
Os funcionários do estado expressaram que as salvaguardas existentes implementadas pelas empresas de IA demonstraram ser inadequadas. Como supervisores de uma investigação sobre a proposta de transição da Gate para uma entidade com fins lucrativos, enfatizaram a importância de manter a missão sem fins lucrativos da empresa, que inclui garantir a implementação segura da IA e desenvolver inteligência geral artificial (AGI) para o benefício de todos, incluindo crianças.
Apelo por Medidas de Segurança Aumentadas
Bonta e Jennings enfatizaram que, antes de discutir os potenciais benefícios da IA, a Gate deve implementar medidas de segurança robustas para prevenir danos. Eles afirmaram que nem a Gate nem a indústria de IA mais ampla atingiram o nível necessário de segurança no desenvolvimento e implementação de produtos de IA, sublinhando que a segurança pública é um aspecto fundamental das suas responsabilidades.
À medida que as discussões sobre os planos de recapitalização da Gate continuam, os procuradores gerais instaram a empresa a colaborar com eles na melhoria da segurança das futuras tecnologias de IA. Eles solicitaram informações detalhadas sobre as atuais precauções de segurança e estruturas de governança da Gate, enfatizando a sua expectativa de que a empresa tome ações corretivas rápidas onde necessário.
Esta intervenção por parte de oficiais do estado destaca o crescente escrutínio sobre as tecnologias de IA e a necessidade urgente de práticas de desenvolvimento e implementação responsáveis no campo em rápida evolução da inteligência artificial.