Chartbots sedutores que ‘roubam’ corações? Sim, já existem e é preciso cuidado

pexels-cottonbro-studio-5053835
[Fotografia: Pexels/Cottonbro Studio]

O recurso à inteligência artificial (IA) para fazer aumentar a visibilidade de um perfil numa plataforma de encontros ou até para desbloquear o receio de uma primeira conversa já é realidade para uma parte dos utilizadores. Porém, para lá desse uso individual da sedução, há quem esteja a utilizar a tecnologia para, à boleia de um match, conseguir extorquir dados ou dinheiro ou ambos.

Um exemplo desta realidade prende-se com os casos dos riscos e ameaças registados pelo Quadro Generativo de IA do governo do Reino Unido e pelas orientações de Centros de Cibersegurança um pouco por todo o mundo sobre os potenciais impactos da IA nas ameaças online.

As entidades estão a alertar para episódios em que os criminosos usam estas habilidades de ferramentas célebres de IA, como o ChatGPT, para criarem conteúdos convincentes que são usados em golpes e mensagens de phishing, e com o propósito de recolherem informações específicas sobre alguém – e que seriam confidenciais. Ao usarem um modelo de linguagem Large Language Models (LLM) que cria um ChatBot, geram-se conversas online com respostas automáticas e premeditadas que, segundo relatos, já foram usados para “criar uma mensagem de phishing personalizada apenas para o utilizador”.

Com esta técnica de linguagem nova, os criminosos aproveitam-se de um leque de possibilidades, uma das mais frequentes novas criações são os chatbots maliciosos – chats automáticos que têm o intuito de conquistar a confiança de alguém através da sedução – como o LoveGPT e o WormGPT.

Europol faz recomendações a utilizadores

Mas não é tão simples e fácil identificarmos estas fraudes. Os hackers criam estes chatBots com base em perfis de sites de namoro, tendo como principais vítimas os utilizadores de plataformas de encontros, simulando diálogos muito próximos aos que os perfis destes sites usam.

Como resultado destas ameaças, a Europol emitiu um comunicado de imprensa sobre a utilização de LLM por criminosos no qual deixou alguns alertas aos utilizadores. A polícia pede para que se “evite partilhar informações confidenciais ou privadas com o ChatGPT e LLMs de forma mais geral”.

Tendo em conta que há uma tendência geral para confiar no ChatGPT, já que a sua base de dados tem acesso a muitas informações verídicas, é porém importante vincar que “as ferramentas de IA não são perfeitas e podem fornecer respostas imprecisas”. Por isso, como método de precaução, deve-se sempre manter essa informação em mentem fazendo dupla verificação e junto de fonte segura.