[[legacy_image_290472]] Já pensou ver o seu rosto em um vídeo totalmente aleatório? Ou ouvir a sua voz falando coisas que jamais falaria? Bom, isso é possível com a tecnologia chamada deepfake, que permite essa manipulação, principalmente de vídeos, de uma forma bastante convincente, vale dizer. Você, provavelmente, já viu esse recurso em prática na TV ou nas redes sociais, pois ele anda em evidência. Tal tecnologia usa inteligência artificial para trocar os rostos de pessoas em vídeos, sincronizar movimentos labiais, expressões e demais detalhes, em alguns casos com resultados impressionantes e bem críveis. Essa onda de trocar rostos de pessoas em vídeos não é nova, mas, em dezembro de 2017, um usuário da plataforma Reddit, chamado deepfakes, deu um passo além. Com ferramentas de inteligência artificial e aprendizado de máquina de código aberto, ele criou um algoritmo para treinar uma rede neural para mapear o rosto de uma pessoa no corpo de outra, frame por frame. Em vez de depender de edição manual como antigamente, o usuário, através da ferramenta (que recebeu o nome de deepfake), precisa apenas de uma fonte para reconhecer o modelo do rosto da “vítima”, mapear a estrutura da cabeça de destino e fazer a sobreposição. Assim, o software consegue ajustar a movimentação do vídeo original ao novo rosto e isso inclui expressões faciais e movimentos labiais. Quando o avanço vira algo nocivoNo início, o deepfake exigia conhecimentos avançados do usuário, mas, quando foram criados aplicativos e sistemas capazes de automatizar todo o processo, a ferramenta acabou se massificando e sendo utilizada para o mal: logo começaram a surgir dezenas de vídeos adultos editados com o soft-ware, com os rostos de artistas. E o deepfake não se limitou a vídeos adultos. Há uma série de criações que colocam rostos de celebridades em filmes nos quais não estiveram presentes. Entretanto, as possibilidades de uso do software são inúmeras e é necessário dizer: algumas se mostram nocivas. Acredite: até Mark Zuckerberg foi alvo de um vídeo falso. Métodos de criação e aperfeiçoamentoExistem vários métodos para criar deepfakes, sendo que o mais comum depende do uso de redes neurais profundas, que empregam uma técnica de troca de face. Nesse caso, o usuário primeiro precisa de um vídeo para utilizar como base e, em seguida, de uma coleção de vídeos da pessoa que deseja “modificar”. A partir daí, o programa de inteligência artificial aprende sobre a aparência e o comportamento desse “alvo” e sobrepõe o seu rosto – e até o corpo – no de quem aparece no vídeo original. Para dificultar a descoberta de que se trata de um conteúdo falso, pode-se recorrer a outro tipo de aprendizado de máquina: o generative adversarial net-works (GANs), que detecta e melhora quaisquer falhas existentes no deepfake em várias rodadas. Eleições no radarA técnica do deepfake também é utilizada na política. Nas eleições do ano passado, inclusive, foi identificado um vídeo desse tipo com a apresentadora do Jornal Nacional, Renata Vasconcellos. Com uma edição bem feita, o arquivo trazia a jornalista da TV Globo falando dados de uma falsa pesquisa de intenção de votos. Essas montagens, aliás, podem contribuir para uma alta no compartilhamento de fake news e desinformação. Nem tudo é ruimNem sempre o deepfake é usado para o mal. Essa tecnologia pode servir, por exemplo, para trazer à vida pessoas que já se foram, de uma forma totalmente nova. Um caso desses é a recriação da cantora Elis Regina na recente campanha publicitária de uma montadora de carros. O comercial promoveu um reencontro de Elis Regina com a filha, Maria Rita, de forma 100% digital – e essa não foi a primeira vez que a ferramenta reviveu artistas famosos para fins de puro entretenimento. Quer mais? A tecnologia do deepfake também é utilizada para rejuvenescer pessoas. Na série The Mandalorian, do streaming Disney+, o ator Mark Hamill consegue interpretar o personagem Luke Skywalker mais jovem com auxílio desse recurso. Proteja-sePara que os seus conteúdos não sejam usados em um deepfake, o mais sensato a se fazer é evitar o compartilhamento de vídeos pessoais com quem você não conhece e não hospedá-los em redes sociais de forma pública para dificultar o trabalho do editor malicioso. No geral, a sociedade ainda está se ajustando ao deepfake por se tratar de uma tecnologia nova. É esperado que mecanismos jurídicos sejam aprovados de modo a combater tal prática e proteger as pessoas. Caso você tenha sido vítima de uma montagem dessas, colete todas as informações necessárias/possíveis e procure um advogado ou a Defensoria Pública assim que puder. Ao receber vídeos e áudios com deepfake, evite o compartilhamento sem antes checar a veracidade e a procedência deles. É extremamente importante essa atitude para não se propagar informações falsas e conteúdos que são impróprios. Como detectar?Existem alguns sinais que revelam que o vídeo é um deepfake:- Problemas de pele ou cabelo ou rostos que parecem mais borrados do que o ambiente em que se encontram. O foco pode parecer anormalmente suave; - Iluminação não natural. Frequentemente, os algoritmos de deepfake retêm a iluminação dos clipes que foram usados como modelos, o que destoa da iluminação do vídeo de destino;- O áudio pode não corresponder à voz da pessoa, ainda mais quando o som original não é manipulado com tanto cuidado;- A fonte do conteúdo não se mostra confiável. Uma técnica que jornalistas e pesquisadores costumam utilizar para verificar a verdadeira fonte de uma imagem é a busca reversa de imagens; - Além disso, há empresas iniciantes que estão desenvolvendo métodos para identificar deepfakes. A Sensity, por exemplo, criou uma plataforma de detecção semelhante a um antivírus, que alerta os usuários por e-mail quando eles estão assistindo a algo que contém impressões digitais reveladoras de mídia gerada por inteligência artificial. No caso da Operation Minerva, seu algoritmo compara deepfakes em potencial com vídeos conhecidos que já foram propagados digitalmente.