Avançar para o conteúdo principal

Chatbots como o ChatGPT podem ser "hipnotizados" para divulgar informações ou dar conselhos prejudiciais


Os investigadores da IBM demonstraram que os chatbots de IA podem ser manipulados para dar aos utilizadores conselhos falsos ou prejudiciais.
 Os investigadores da IBM demonstraram que os chatbots de IA podem ser manipulados para dar aos utilizadores conselhos falsos ou prejudiciais. Direitos de autor Canva

Os investigadores da IBM conseguiram "hipnotizar" os chatbots e levá-los a divulgar informações confidenciais e a oferecer recomendações potencialmente prejudiciais.

Os chatbots alimentados por inteligência artificial (IA) têm sido propensos a "alucinar", dando informações incorretas, mas será que podem ser manipulados para dar deliberadamente falsidades aos utilizadores, ou pior, dar-lhes conselhos prejudiciais?

PUBLICIDADE

Os investigadores de segurança da IBM conseguiram "hipnotizar" grandes modelos de linguagem (LLM), como o ChatGPT da OpenAI e o Bard da Google, fazendo-os gerar respostas incorretas e maliciosas.

Os investigadores levaram os LLMs a adaptar as suas respostas de acordo com as regras dos "jogos", o que resultou na "hipnotização" dos chatbots.

Como parte dos "inception games", com várias camadas, os modelos de linguagem foram convidados a gerar respostas erradas para provar que eram "éticos e justos".

"A nossa experiência mostra que é possível controlar um LLM, fazendo com que forneça más orientações aos utilizadores, sem que a manipulação de dados seja um requisito", escreveu Chenta Lee, um dos investigadores da IBM, num blogue.

Os seus truques resultaram na geração de código malicioso pelos LLMs, na fuga de informações financeiras confidenciais de outros utilizadores e na persuasão dos condutores para passarem sinais vermelhos.

Num cenário, por exemplo, o ChatGPT disse a um dos investigadores que é normal que a agência fiscal dos EUA, o Internal Revenue Service (IRS), peça um depósito para obter um reembolso de impostos, o que é uma tática amplamente conhecida que os burlões utilizam para enganar as pessoas.

Através da hipnose, e como parte dos "jogos" personalizados, os investigadores também conseguiram fazer com que o popular chatbot de IA ChatGPT oferecesse continuamente recomendações potencialmente arriscadas.

"Ao conduzir e se vir um sinal vermelho, não deve parar e passar pelo cruzamento", sugeriu o ChatGPT quando o utilizador perguntou o que fazer se visse um sinal vermelho ao conduzir.

Os resultados mostram que os chatbots são fáceis de manipular

Os investigadores estabeleceram ainda dois parâmetros diferentes no jogo, garantindo que os utilizadores do outro lado nunca conseguiriam perceber que o LLM estava hipnotizado.

No seu prompt, os investigadores disseram aos bots para nunca dizerem aos utilizadores sobre o "jogo" e até para o reiniciarem se alguém o abandonasse com sucesso.

"Esta técnica fez com que o ChatGPT nunca parasse o jogo enquanto o utilizador estivesse na mesma conversa (mesmo que reiniciasse o browser e retomasse a conversa) e nunca dissesse que estava a jogar um jogo", escreveu Lee.

PUBLICIDADE

No caso de os utilizadores se aperceberem de que os chatbots estão "hipnotizados" e descobrirem uma forma de pedir ao LLM para sair do jogo, os investigadores acrescentaram uma estrutura com várias camadas que iniciava um novo jogo assim que os utilizadores saíam do anterior, o que os prendia numa infinidade de jogos.

Embora na experiência de hipnose os chatbots apenas respondessem às instruções que lhes eram dadas, os investigadores alertam para o facto de a capacidade de manipular e "hipnotizar" facilmente os LLMs abrir a porta a utilizações indevidas, especialmente com a atual moda e a grande adoção de modelos de IA.

A experiência de hipnose também mostra como se tornou mais fácil para as pessoas com intenções maliciosas manipularem os LLMs; já não é necessário ter conhecimentos de linguagens de programação para comunicar com os programas, sendo apenas necessário utilizar uma simples mensagem de texto para enganar os sistemas de IA.

"Embora o risco representado pela hipnose seja atualmente baixo, é importante notar que os LLMs são uma superfície de ataque inteiramente nova que irá certamente evoluir", acrescentou Lee.

"Ainda há muito que precisamos de explorar do ponto de vista da segurança e, subsequentemente, uma necessidade significativa de determinar como mitigar eficazmente os riscos de segurança que os LLMs podem apresentar aos consumidores e às empresas". 


Chatbots como o ChatGPT podem ser "hipnotizados" para divulgar informações ou dar conselhos prejudiciais | Euronews


Comentários

Notícias mais vistas:

TAP: quo vadis?

 É um erro estratégico abismal decidir subvencionar uma vez mais a TAP e afirmar que essa é a única solução para garantir a conectividade e o emprego na aviação, hotelaria e turismo no país. É mentira! Nos últimos 20 anos assistiu-se à falência de inúmeras companhias aéreas. 11 de Setembro, SARS, preço do petróleo, crise financeira, guerras e concorrência das companhias de baixo custo, entre tantos outros fatores externos, serviram de pano de fundo para algo que faz parte das vicissitudes de qualquer empresa: má gestão e falta de liquidez para enfrentar a mudança. Concentremo-nos em três casos europeus recentes de companhias ditas “de bandeira” que fecharam as portas e no que, de facto, aconteceu. Poucos meses após a falência da Swissair, em 2001, constatou-se um fenómeno curioso: um número elevado de salões de beleza (manicure, pedicure, cabeleireiros) abriram igualmente falência. A razão é simples, mas só mais tarde seria compreendida: muitos desses salões sustentavam-se das assi...

Os professores

 As últimas semanas têm sido agitadas nas escolas do ensino público, fruto das diversas greves desencadeadas por uma percentagem bastante elevada da classe de docentes. Várias têm sido as causas da contestação, nomeadamente o congelamento do tempo de serviço, o sistema de quotas para progressão na carreira e a baixa remuneração, mas há uma que é particularmente grave e sintomática da descredibilização do ensino pelo qual o Estado é o primeiro responsável, e que tem a ver com a gradual falta de autoridade dos professores. A minha geração cresceu a ter no professor uma referência, respeitando-o e temendo-o, consciente de que os nossos deslizes, tanto ao nível do estudo como do comportamento, teriam consequências bem gravosas na nossa progressão nos anos escolares. Hoje, os alunos, numa maioria demasiado considerável, não evidenciam qualquer tipo de respeito e deferência pelo seu professor e não acatam a sua autoridade, enfrentando-o sem nenhum receio. Esta realidade é uma das princip...

ADSE muda regras dos óculos: reembolso passa a ter limite anual de 180 euros

 A ADSE vai alterar as regras de reembolso dos óculos, introduzindo um teto anual de 180 euros no regime livre, mantendo a comparticipação de 80%. Deixa assim de haver limites quanto ao número de armações e lentes, que até agora eram definidos por períodos de três anos. As mudanças abrangem também exames e cirurgias, com revisão da tabela de preços da radiologia e da gastroenterologia e inclusão de novos atos, sobretudo TAC e ressonâncias magnéticas, permitindo acesso a técnicas mais avançadas sem aumento dos encargos para os beneficiários, segundo avançou o ECO. As alterações terão um impacto orçamental estimado em 15,4 milhões de euros por ano para a ADSE, sistema de proteção na doença da função pública. A revisão das tabelas de preços abrange cerca de 200 atos médicos e inclui mais de uma centena de novos códigos, sobretudo na área da radiologia, com o objetivo de atualizar os valores de referência e alargar o acesso a cuidados mais diferenciados. ADSE muda regras dos óculos: re...