“Na curva do tempo, vai ser cada vez mais difícil, até para um especialista (saber o que não é verdadeiro). Quando a inteligência artificial começou a ser implementada, você percebia pelo olho que a imagem era manipulada, porque ficava mal-feita. Você percebia. Hoje, este truque não funciona mais”, avisou.
“Ele ‘aprende’ com os dados e vai construindo, se autocorrigindo. É um modelo recorrente”, ressaltou. “A inteligência faz o (comunicador) Silvio Santos ir parar na bancada do Jornal Nacional. Ela lê milhares de horas do Silvio, para analisar cada virada de boca, e mapeia o rosto dele. Então, pega um áudio e sincroniza com o mapeamento. Se a boca não abriu uma hora ou abriu meio torta, não ficou muito natural, o sistema vai analisar mais até chegar próximo de uma perfeição”, afirmou.
Por conta disso, Sayad deixou claro que a população vai precisar de novas alternativas, a fim de descobrir se o conteúdo que consome é ou não real. “Um cidadão mais educado vai precisar de ferramentas para reconhecer se é deepfake (uma manipulação)”.
Contudo, como a maior parte das pessoas não tem acesso a esses recursos nem conhecimento para operá-los, evitar golpes será cada vez mais difícil.
“Deus e o diabo moram nos detalhes. Você pode ser enganado por uma matéria falsa. Até um jornalista pode cair em fake news. A coisa está se sofisticando ao ponto de a educação midiática se tornar cada vez mais fundamental”, frisou.
Não há como falar da internet e seus perigos sem lembrar das grandes empresas que dominam o ambiente virtual, as chamadas big techs, entre as quais estão Google, Apple, Meta, Amazon e Microsoft. Segundo Alexandre Le Voci Sayad, essas companhias já estudam medidas, a fim de tornarem o mundo digital mais seguro. O problema é que ainda há um longo caminho a percorrer.
O especialista afirmou que um dos movimentos já iniciados é uma espécie de autorregula-mentação. A empresa Meta, dona de Facebook e Instagram, trabalha neste sentido.
“O Facebook tem um conselho de fora (da companhia), que olha os casos mais delicados e veta ou não (determinado conteúdo). Uma solução também é anunciar, de cara, que aquilo é gerado por inteligência artificial”, apontou.