Inteligência Artificial está a aperfeiçoar os crimes em Portugal. "Está toda a gente em alerta máximo", assume a PJ
Vídeos e mensagens de voz falsas, burlas, escolha de vítimas ou até influenciar eleições. É a Inteligência Artificial (IA) ao serviço do crime. Em entrevista exclusiva à CNN Portugal, a Polícia Judiciária admite que esta é uma nova realidade e que as queixas de crimes com recurso à IA estão a aumentar no país. E a máquina não espera que ninguém lhe ensine, porque é capaz de aprender sozinha
A Inteligência Artificial (IA) é uma realidade e o mundo do crime está a descobrir como a usar. Em Portugal, a Polícia Judiciária tem visto crescer o número de queixas de crimes que recorrem à IA. Numa entrevista exclusiva à CNN Portugal as autoridades admitem que foi aberta “uma caixa de Pandora” e que ninguém sabe “o tipo de perigos” que estão à espreita.
“No fundo, abre o que nós chamamos vulgarmente de 'caixa de Pandora'. Esta caixa, agora, vai ter aplicação prática. E há uma grande indefinição que nos vai trazer enormes desafios para o futuro. Por isso, está toda a gente em alerta máximo neste momento, porque ninguém sabe exatamente o tipo de perigos”, afirma José Ribeiro, inspetor-chefe da PJ da Unidade Nacional de Combate ao Cibercrime e à Criminalidade Tecnológica (UNC3T).
Mais do que criar crimes novos, “a inteligência artificial vai potenciar crimes que já existem, aperfeiçoando as técnicas”, explica. “Um dos principais tipos de crime com que nos temos debatido é o deepfake.” Ou seja, a utilização de imagens de figuras públicas, com vídeos falsos associados às respetivas vozes, criados com IA, e usar isso “em burlas relacionadas, por exemplo, com criptoativos”.
Os criminosos usam vídeos de pessoas conhecidas para dar credibilidade às burlas e levar as pessoas a transferir dinheiro para a suas contas. “Este é um dos principais tipos de crime que tem aumentado de facto”, admite José Ribeiro. Nem o Presidente da República escapou e Marcelo Rebelo de Sousa viu a sua imagem envolvida em fake news (notícias falsas) com o objetivo de burlar pessoas.
E com uma amostra de voz é possível manipular e criar uma mensagem de voz falsa. “Imagine que ligavam de um número desconhecido e era a voz exata do seu filho a dizer ‘Mãe, fui raptado’”, exemplifica Francisco Luís, inspetor da UNC3T. E este é um exemplo de situações que já aconteceram noutros países. “Há sempre aquele senso de urgência. Põem as pessoas em xeque e quando se fala de um familiar, com ‘a voz’ do ente querido, pior ainda. E aí as pessoas param de pensar. Entram em modo de pânico. E não ouvem mais nada.”
No entanto, o inspetor da Polícia Judiciária ressalva que o mais importante é "parar e pensar". "E, muitas vezes, telefonar para o número original, que nós já conhecemos do nosso ente querido. Isso resolve 95% de situações” de tentativas de burla, conclui Francisco Luís. Algo que também se aplicaria, por exemplo, à burla “Olá pai, olá mãe”. E não se pense que ter mais ou menos formação escolar faz grande diferença. “Nós fizemos um estudo e quase metade das nossas vítimas, por exemplo, da ‘Olá pai e Olá mãe’, têm diploma universitário.”
Voltando ao exemplo das burlas com criptomoedas, que usa deepfake, Francisco Luís insiste que “aquele vídeo de alguém a dizer ‘eu ganhei 200 mil euros e investi mil’ não pode acontecer". "Isto é irreal”, argumenta.
"Estamos num contexto eleitoral. Não podemos esquecer isso neste momento"
O país vive tempos políticos únicos, com eleições marcadas para dia 10 de março e a PJ não está alheia ao facto. José Ribeiro, inspetor-chefe da UNC3T deixa o alerta.
“Isto do deepfake, é uma coisa real que nos tem preocupado de facto. Nós estamos num contexto eleitoral. Não podemos esquecer isso neste momento.” E relembra o que aconteceu na Eslováquia: “No dia de reflexão das eleições legislativas eslovacas houve a divulgação de um áudio, supostamente de um dos candidatos de um partido com uma jornalista. E tinha um determinado objetivo. Isto é real. Estamos a falar de inteligência artificial. Criação de um áudio. Fake news. E que teve o seu impacto. Tornou-se viral nas redes sociais e, em poucas horas, teve uma difusão brutal.”
Também o inspetor Francisco Luís lembra o escândalo que envolveu a Cambridge Analytics nas eleições norte-americanas. “Deve estar a fazer oito anos. Na altura pouca gente falava de IA, mas o que está por trás de tudo isso, as redes sociais, o ranking, o maior número de visualizações, tem tudo a ver.” E o Facebook acabou por ver-se envolvido nessas eleições.
“As máquinas são cegas. Se aquele é o vídeo que vai tendo mais cliques, ele vai subir nos rankings até passar a ser o primeiro. Portanto, isto é preocupante. E quem está por trás disto, obviamente tem uma intenção. As mensagens apresentadas tinham em conta o perfil do utilizador no Estado norte-americano onde estavam. Portanto, tudo isto é tailor-made [feito à medida na tradução literal]”, acrescenta. “A capacidade que um conjunto de máquinas a trabalhar tem pode, efetivamente, interferir nos resultados de umas eleições. O que é algo preocupante para um Estado democrático”, conclui o inspetor da PJ.
"É a inteligência artificial que vai decidir" as próximas vítimas
Mas além do deepfake, outros tipos de crimes já foram também identificados pelas autoridades. “O chamado web skimming. São grupos criminosos que conseguem entrar no sistema informático, principalmente daquelas empresas comerciais, onde as pessoas vendem os seus produtos na internet. Esses grupos conseguem desenvolver técnicas para se introduzir nessas páginas de vendas aproveitando para captar os dados dos clientes”, explica o inspetor-chefe José Ribeiro. Também aqui com a colaboração da Inteligência Artificial.
E os limites parecem infinitos. “Há grupos que atuam no âmbito do ransomware que desenvolvem códigos maliciosos. O que a inteligência artificial vai permitir é que esses códigos maliciosos sejam desenvolvidos com maior rapidez.” Mas não só. Outras pessoas, não ligadas a grupos, poderão “aproveitar informações de criminosos, dando-lhes a possibilidade deles próprios criarem códigos, utilizando a Inteligência Artificial” e, para as autoridades, esta facilidade de obtenção destas informações é um problema porque “em vez de termos alguns grupos criminosos a fazer este tipo de ataques, vamos ter um número muito mais elevado de pessoas com essa capacidade técnica."
E agora nem sempre se tenta obter grandes lucros com o crime. A IA torna tudo mais fácil e mais barato. Tanto podem roubar um milhão, como mil euros. Na verdade, a IA já é usada para identificar potenciais vítimas e as suas vulnerabilidades. “As pessoas continuam a não ter cuidados naquilo que colocam na internet e a inteligência artificial o que faz é captar todas estas informações e dirigir para aquela pessoa”, acrescenta José Ribeiro.
“A IA vai trabalhar essa informação e vai direcionar para aquela pessoa, uma determinada técnica de engenharia social, que se adequa. Em vez de termos uma pessoa ou um grupo de pessoas sentados a trabalhar e à procura, não, é a própria inteligência artificial que vai decidir”, explica José Ribeiro.
"Estamos a falar de inteligência artificial generativa. Faz uma aprendizagem própria"
O inspetor Francisco Luís dá outro exemplo prático de como a IA facilita a vida aos criminosos: “Há um modus operandi que nós denominamos por Tech Support Scrum. Tem um ecrã, fica bloqueado no computador, a dizer o seu computador tem um vírus, ligue para este número. Com o advento da inteligência artificial, o que acontece é que eles são capazes de fornecer números locais, de cada um dos países, atender em cada uma das línguas. E não é atender, porque eles já não têm seres humanos.”
“Se eu lhe der um script de atendimento de um call center, a máquina rapidamente aprende quais são as perguntas típicas que as pessoas fazem e quais são as respostas que há de dar. Imaginem um call center destes, a atender chamadas automáticas, várias máquinas, só uma pessoa a controlar. Na língua de cada um deles. Há um operador por trás disto tudo, onde antigamente teria de haver 20, 30 ou 40. Esta capacidade de potenciar o crime é uma grande preocupação”, admite o inspetor Francisco Luís.
Para o inspetor-chefe José Ribeiro é importante ainda ressalvar outra capacidade. “O que nós estamos a falar é de inteligência artificial generativa. Faz uma aprendizagem própria. Têm essa capacidade. Eles não estão à espera que o ser humano os ensine. Eles vão aprendendo. Eles próprios vão desenvolvendo conhecimento.”
"Uma criação humana que rapidamente ficou sem controle"
Para Carlos Cabreiro, Diretor da Unidade Nacional de Combate ao Cibercrime e à Criminalidade Tecnológica (UNC3T), o grande problema é “estabelecer limites". "E não estamos com capacidade nem nós, nem a própria inteligência artificial, de estabelecer limites da sua utilização. Porque vão sempre dizer-me ‘não’, isto foi uma criação humana. Mas foi uma criação humana que rapidamente ficou sem controle, ficou sem controle porque a própria máquina tem vindo a substituir o homem. Quem é que controla a inteligência artificial?”, questiona.
“Nós vamos começar a queimar papéis dentro das estruturas criminosas. Antes tínhamos determinados indivíduos que facilitavam, por exemplo, a angariação das money mules. Nós tínhamos depois as pessoas que estavam a intermediar. Começamos a verificar que estas pessoas começam a desaparecer e a ser substituídas por inteligência artificial”, observa.
Até porque “o telefonema que é feito supostamente de uma entidade bancária, já pode ser feito provavelmente até com a voz de um dos funcionários daquela agência bancária, porque em algum momento apareceu a falar ou foi gravado”.
Apesar dos perigos, a criação da IA tem um lado bom e Carlos Cabreiro considera que não é preciso “diabolizar a inteligência artificial”. Até porque a própria Polícia Judiciária já utiliza a Inteligência Artificial nas suas investigações.
“Imaginem uma rede do Governo ser atacada. Nós temos gigas e gigas de informação, que humanamente é impossível olhar para ela. Eu tenho de ter um recurso, uma tecnologia que me permita dar-lhe aquele volume de dados e que diga assim ‘procura-me aqui o que é que está fora do normal’”, exemplifica o inspetor Francisco Luís.
“Portanto essas soluções existem e estamos a falar num processo normal de investigação, de análise. É como vamos usar a tecnologia. Porque a tecnologia tem tudo bom aplicado à medicina ou aplicado a muitas outras áreas. Mas foi uma caixa de Pandora que foi aberta e que nunca mais vai ser fechada. Portanto temos de ter esta noção”, considera.
"Não se pode clicar em todo o link que aparece"
E o que podemos fazer para nos defendermos? “Redobrar cuidados”, “estar atentos”, “lançar alertas” frequentemente. “Não se pode clicar em todo o link que aparece”, relembra o inspetor-chefe José Ribeiro. E isto vale para todos: pessoas e empresas – públicas ou privadas. “Não há empresa nenhuma que possa garantir neste momento 'nós, com o plano que temos, com a nossa segurança, nunca seremos alvo de um ataque'. Impossível. Nem há ninguém que vá afirmar uma coisa dessas”, garante o responsável da PJ.
Mas, defende, “podemos pedir às empresas que redobrem os seus cuidados e que ponham em prática outro tipo de planos”. Como, por exemplo, “o que normalmente chamam de ITs, que no fundo são os sistemas informáticos, que se pode chamar superfície". "Agora, pode-se segmentar essa superfície, criar camadas de acesso. Não tem de fazer tudo parte da mesma rede.”
Até as crianças já são vítimas da Inteligência Artificial
As vítimas não têm idade, nem género, e nem sempre se percebe o motivo pelo qual foram escolhidos. Nem sequer qual o objetivo. A CNN Portugal deixa-lhe o caso de um menor de 10 anos, que recebeu uma mensagem de voz falsa no dia de Natal e mais duas situações, já noticiadas, onde houve recurso a IA.
“R”, 10 anos, acorda no dia de Natal e repara que tem no WhastApp uma chamada às duas da madrugada de um número desconhecido e uma mensagem de voz. Ouve a mensagem e era uma menina – chamada “L” - a dizer a uma amiga – a “M” - que tinha recebido um iPhone novo e que tinha um número novo. Por acaso, “R” tem duas colegas com esses nomes e não hesitou em gravar o número da colega. Tentou ligar-lhe, mas quem atendeu nunca falou. Apenas ouvia uma música de fundo, a música do jogo “Stumble guys”.
“R” até comentou com a mãe que “L” não devia estar num bom dia porque não lhe respondia. A dada altura, começa a troca de mensagens escritas. “L” pergunta-lhe quem ele é e não feliz com a primeira resposta insiste no nome. “R” acaba por dizer o seu verdadeiro nome. Até que “L” lhe pede uma foto. Pensou que a colega queria ter certeza e enviou uma foto. A dada altura, “L” pergunta-lhe se ele conhece “M” e se tem uma foto dela. Só aí “R” percebe que alguma coisa não está bem e procura a mãe.
“O número era da Bélgica”, conta a mãe à CNN Portugal. O filho nem percebeu que era um número internacional. Ouviu a mensagem e garante: “Era uma menina portuguesa, a falar de forma correta. Agora, que olho para trás, talvez ache que havia momentos em que era demasiado pausada e isso já podia indicar que não era uma voz verdadeira.” Admite que ainda não apresentou queixa, mas irá fazê-lo: “Apagámos tudo com medo e denunciámos o número ao WhastApp. Não sei se é possível recuperar alguma coisa”, lamenta.
Não tem certeza, mas acredita que a mensagem de voz foi feita com recurso a Inteligência Artificial. Só não consegue explicar como arranjaram o número do filho, nem como acertaram nos nomes de duas colegas. Certo é que ficaram com o nome do filho e uma fotografia.
Ataque aos notários portugueses
Recorde-se também que no ano passado os notários portugueses foram alvo de milhares de mensagens potencialmente fraudulentas. O pico “ocorreu na semana de 20 de junho, mas o sistema de segurança reconheceu que se tratava de um ataque" e que "intercetou a maioria dos e-mails”, revelou à CNN Portugal Jorge Batista da Silva, bastonário da Ordem dos Notários.
Uma conclusão desta avaliação prende-se com a evolução dos e-mails e a sua enorme credibilidade. E é por isso que Jorge Batista da Silva acredita que este ataque “já foi suportado recorrendo a inteligência artificial (IA)”. Ou seja, “o teor do e-mail e os dados utilizados correspondem a textos muito similares a situações análogas e correspondência eletrónica entre notários, entre notários e clientes, entre notários e bancos”.
Ou seja, “os e-mails já são construídos de acordo com a expectativa do notário que os vai receber e com informações que parecem exatamente adequadas àquilo que o notário está habituado a receber para fazer, por exemplo, um pagamento”, acrescenta Jorge Batista da Silva.
Mariana Rocha Assis, surfista portuguesa, foi chantageada com 'fake nudes' geradas por IA
A surfista e skater portuguesa Mariana Rocha Assis foi vítima de assédio virtual, quando um hacker exigiu cinco mil euros para ocultar imagens de nudez fabricadas (as chamadas fakenudes), ameaçando mais do que a sua privacidade.
"Naquele momento, olhei para aquelas imagens e pensei: 'Eu nunca tirei isto'. Eu nunca tirei estas fotografias, mas estavam super reais e fiquei muito confusa", contou Mariana Rocha Assis à CNN Portugal. Segundo a própria, esta experiência afetou-a emocionalmente, gerando ataques de pânico e vómitos constantes.
No dia 17 de novembro, Mariana recebeu uma mensagem com um conjunto de imagens explícitas que a retratavam nua. De um realismo impressionante, estas imagens foram, no entanto, inteiramente fabricadas através do uso de Inteligência Artificial. O remetente, um desconhecido, procurava explorar a vulnerabilidade de Mariana, exigindo-lhe cinco mil euros.
Patrícia Pires:
Comentários
Enviar um comentário