(Imagem ilustrativa/Unsplash) Em tempos de deepfake — a aplicação de inteligência artificial (IA) para alterar vídeos e/ou áudios e textos — é urgente desenvolver campanhas educativas para conscientizar a população em geral sobre o perigo para a sociedade da divulgação desses conteúdos. E, principalmente, ensinar o público a reconhecer os vídeos e os áudios falsos, distribuídos em diferentes mídias digitais. Além disso, é crucial investir continuamente em tecnologias que identifiquem e bloqueiem qualquer tipo de material deepfake. Em ano eleitoral no Brasil, a técnica de deepfake é também uma ameaça à democracia. Tanto que o Tribunal Superior Eleitoral (TSE) determinou normas rígidas este ano para tentar impedir o uso indevido da tecnologia de deepfake no pleito municipal. Uma forma de garantir ao eleitor uma decisão livre e com base em informações verídicas. Os conteúdos deepfakes, por serem usados frequentemente para fins maliciosos, colocam em risco a privacidade e a segurança de pessoas físicas e jurídicas. Muitas vezes são criados para uso em programas e publicações de humor, visando satirizar políticos e personalidades. Porém, na maioria das situações, servem para atos criminosos. Como a aplicação de diferentes tipos de golpes, disseminação de notícias e perfis falsos, cyberbullying, pornografia, entre outras práticas lesivas. Trata-se, portanto, de um tema de extrema relevância. Especialmente porque os algoritmos de IA estão cada vez mais sofisticados, o que torna a identificação de materiais deepfakes um desafio constante. Inclusive por especialistas nessa área. Para a população em geral, é mais difícil reconhecer materiais deepfakes, muitas vezes compartilhados via aplicativos de redes sociais. Daí a necessidade premente de ampliar o alcance de campanhas educativas com dicas fáceis. Por exemplo, uma delas é prestar atenção em discretas inconsistências que não estariam em vídeos não manipulados. Outra pista é observar variações artificiais na iluminação de um quadro (frame) para o outro. E ainda movimentos bruscos na cena, algo mecânico ou fora do ritmo natural; frequência de piscadas que não se parecem com a de um humano e falta de sincronia labial. Do ponto de vista da engenharia, a utilização de realidade aumentada (RA) e virtual (RV) tem se mostrado uma tecnologia relevante no combate às técnicas de deepfakes. Ela permite analisar uma ampla quantidade de dados sensoriais, por exemplo. Combinada com exercícios simulados, protocolos de relatórios, aprendizado contínuo e elaboração de uma cultura de segurança, é um recurso de extrema importância na proteção contra os vídeos, áudios e textos trabalhados com IA. Outra medida crucial nesse sentido é revisar constantemente os sistemas de informação e a infraestrutura para prevenir, identificar e corrigir vulnerabilidades. E, dessa forma, assegurar que todas as fontes sejam confiáveis. Igualmente é imprescindível que as empresas e os governos, em diferentes esferas, tenham em seus quadros especialistas em cibersegurança para desenvolver uma defesa robusta. A educação e o investimento em tecnologias são a base para o avanço inteligente em inovações de segurança para toda a sociedade. E isso inclui bloquear técnicas de deepfake.