As redes sociais foram inundadas recentemente por uma nova onda de personalização: caricaturas geradas por Inteligência Artificial (IA) que prometem resumir a personalidade e o cotidiano dos usuários com traços artísticos. No entanto, o que parece ser apenas uma diversão inofensiva — que já atraiu personalidades como a apresentadora Ana Maria Braga, o influenciador Casimiro e diversos artistas do universo pop — esconde riscos severos à segurança de dados.
Especialistas advertem que o “espelho digital” criado pela IA pode estar refletindo mais do que apenas uma imagem, mas sim um inventário detalhado da vida privada do usuário. De acordo com o professor Patrick Terramatte, coordenador do curso de Bacharelado em Inteligência Artificial (BIA) do Instituto Metrópole Digital (IMD), da Universidade Federal do Rio Grande do Norte (UFRN), essa tendência revela o poder dos modelos de linguagem (LLMs) em processar e resumir informações cruciais sobre quem os utiliza. “Quanto mais consultas nós realizamos com o ChatGPT, melhor será a capacidade do modelo em nos descrever, principalmente em relação a tarefas do nosso dia a dia e do nosso trabalho”, explica Terramatte.
A engenharia por trás do traço
A competência dessas ferramentas em gerar estilos e combinar imagens com dados de texto não é fruto de “mágica”, mas de um refinamento constante. Os grandes modelos, como ChatGPT, DeepSeek e Gemini, funcionam como poderosas ferramentas de busca por similaridade que utilizam redes neurais inspiradas no cérebro humano.
O professor explica que essas IAs utilizam uma arquitetura chamada transformers, que aplica mecanismos de “atenção” para dar ênfase ao contexto das palavras. “Por isso, os modelos são muito bons em realizar buscas por informações de forma articulada e resumida”, afirma. Contudo, essa mesma eficiência pode gerar as chamadas “alucinações”, onde o sistema fornece respostas falsas com total segurança, ou, pior, expõe dados reais em contextos indesejados.

O rastro deixado na rede
O maior perigo reside na forma como as informações são guardadas. Ao solicitar uma caricatura baseada em seu histórico, o usuário pode, inadvertidamente, permitir que a IA utilize elementos pessoais sensíveis. “A imagem gerada terá elementos pessoais, como os temas de livros que você estuda e trabalha, ou imagens caricaturadas de filhos e animais de estimação”, alerta Terramatte.
Se o perfil do usuário em redes como o Instagram for público, o risco escala. Segundo o professor, golpistas podem utilizar as imagens geradas — que contêm detalhes sobre a rotina profissional e pessoal — para facilitar abordagens criminosas e golpes de engenharia social. “É preciso ter cuidado e ficar atento às informações das imagens antes de compartilhá-las publicamente”, reforça o coordenador.
Formação e Mercado
A discussão sobre a ética e a segurança na IA é um dos pilares do Bacharelado em Inteligência Artificial (BIA) da UFRN. O curso foca em disciplinas como aprendizagem de máquina (machine learning), deep learning e processamento de linguagem natural, visando preparar profissionais para os desafios éticos e técnicos do mercado.
Através do Metrópole Parque, o curso mantém parcerias estratégicas para o desenvolvimento de soluções complexas com gigantes internacionais, como Acer, Dell, Huawei e FOXCONN, além de empresas nacionais como a Intelbras e locais como a Guararapes. Essa proximidade com o mercado permite que a academia monitore em tempo real como as novas tecnologias impactam a privacidade do cidadão comum.
Como se proteger nas redes
Para aproveitar as ferramentas de IA sem comprometer sua segurança, o professor Patrick Terramatte recomenda quatro cuidados essenciais:
- Controle de Dados: Verifique se a opção “Melhorar o modelo para todos” (Data Controls) está ativada nas configurações. Desativá-la minimiza a chance de seus dados serem usados para treinar a IA e vazarem para outros usuários.
- Limpeza de Histórico: Crie o hábito de limpar o histórico de conversas regularmente. Isso reduz a personalização da IA, mas aumenta significativamente a segurança contra vazamentos.
- Acesso Restrito: Evite deixar suas contas de IA abertas em computadores compartilhados ou de terceiros.
- Filtro de Conteúdo: Nunca envie informações sensíveis como endereços, números de documentos ou dados financeiros para os modelos de linguagem.
Fonte: Agora RN