
Uma nova tendência de gerar caricaturas com o auxílio de inteligência artificial (IA) tem ganhado destaque nas redes sociais, mas, ao mesmo tempo, acendeu um alerta significativo sobre a privacidade e a segurança dos dados pessoais dos usuários. A popularização dessa ferramenta, que promete resultados fiéis aos prompts, revelou uma capacidade surpreendente dos chatbots de acessar e expor informações privadas, levantando preocupações sobre as implicações de segurança para os participantes.
A mecânica por trás da brincadeira é simples: os usuários solicitam que a ferramenta de IA crie uma imagem com base no conhecimento que ela própria acumulou sobre a pessoa. Contudo, o que tem surpreendido muitos é a precisão e a profundidade das informações reveladas nas caricaturas, que podem incluir detalhes sobre locais de trabalho e outros aspectos da vida privada que vão muito além da mera aparência física. Essa capacidade da IA de ‘saber’ tanto sobre os indivíduos decorre do acesso padrão que esses serviços têm ao histórico de conversas e interações, utilizando esses dados para aperfeiçoar seus modelos de linguagem e personalizar respostas.
A ‘memória’ dessas ferramentas de inteligência artificial permite que elas considerem o contexto de conversas antigas para refinar ou personalizar as respostas, o que explica a riqueza de detalhes que podem surgir nos resultados finais das caricaturas. Fabio Assolini, diretor da Equipe Global de Pesquisa e Análise da Kaspersky, destacou em entrevista que muitas pessoas ficaram chocadas com a quantidade de informações expostas. ‘Detalhes que as pessoas achavam que não eram públicos apareceram nas caricaturas, enquanto outras pessoas ainda corrigiram a IA para trazer informações corretas’, apontou Assolini, evidenciando a surpresa e a vulnerabilidade percebida pelos usuários.
O problema se agrava quando essas imagens, repletas de informações pessoais, são compartilhadas em perfis públicos nas redes sociais. Essa prática concede acesso irrestrito a qualquer pessoa a dados sensíveis sobre o indivíduo, como detalhes profissionais ou assuntos pessoais que, em circunstâncias normais, não seriam expostos de forma tão ampla. Assolini alertou veementemente sobre o perigo de tais informações caírem em mãos erradas. ‘Com tantos dados compartilhados e a foto gerada, você divulga ao mundo suas preferências, local de trabalho. Isso na mão dos fraudadores vale ouro, essas informações são valiosas para fazer um golpe personalizado. Quando você adere à moda e expõe dados pessoais que não eram públicos, isso tudo tem valor na mão de criminosos’, reforçou o especialista, sublinhando o potencial de uso malicioso dessas informações.
Diante desses riscos, especialistas recomendam cautela e a adoção de medidas para aumentar a privacidade ao participar de tendências que envolvem IA. Entre as formas de mitigar a exposição de dados, sugere-se utilizar fotos já disponíveis em redes sociais, como a imagem de perfil, ou inserir as próprias características no prompt, em vez de permitir que a IA ‘adivinhe’ os gostos e informações pessoais. Além disso, manter perfis privados nas redes sociais ou limitar a visibilidade das publicações pode restringir o acesso às fotos. É crucial lembrar que muitos chatbots oferecem um modo anônimo de interação, garantindo que os dados não sejam armazenados ou utilizados para treinamento, o que representa uma alternativa segura para quem deseja explorar as funcionalidades da IA sem comprometer a privacidade.

