Publicado em

O dicionário de inglês Collins é um dos mais famosos do mercado. Uma parte deste prestígio vem do fato de ter tacitamente incorporado o papel de veículo determinante da palavra do ano.

Não seria exagero dizer que a aspiração de cada nova gíria ou expressão é figurar no topo da lista do Collins - antídoto à vida sofrida das modas passageiras como sambarilove e birinait.

O ano passado quase foi o do unicórnio, conceito para se referir a startups que atingem a marca de US1bi. Mas parece que está tão difícil definir quanto de fato vale uma empresa cujas cotas são vendidas na base US1bi, enquanto o contador sonha com balancetes de US1mi, que o pessoal da Collins acabou preferindo deixá-lo no estábulo por enquanto. E assim elegeu fake news.

Poucas vezes uma aposta vocabular mostrou-se tão certeira.

Publicações noticiosas caracterizadas por baixa correspondência com fatos apurados por fontes independentes representam algumas das mais primárias peças em qualquer jogo de manipulação em larga escala.

Atualmente, as duas principais estratégias são textos, muitas vezes acompanhados de imagens alteradas via Photoshop, e vídeos que transparecem seu primarismo, nas de quebras notáveis da sincronia entre movimentos labiais e o que é enunciado.

Seu poder surge em redes relacionais, as quais conectam predisposições afetivas e cognitivas para questionar pouco e investigar menos ainda, principalmente se a notícia servir para a confirmação de um ponto de vista intimamente prevalente.

Má notícia, esse cenário de falsificações mambembes está prestes a mudar.

No final de 2017, um usuário da rede social Reddit postou alguns vídeos de sexo explícito com celebridades, que sabidamente não participaram dos mesmos. Estava lançada a onda do Deep Fake, nova abordagem à adulteração de conteúdo audiovisual, a qual substitui as toscas edições manuais que correm na internet, por inteligência artificial (aprendizado de máquina).

O mais tradicional tipo de Deep Fake envolve a inclusão de pessoas em cenas filmadas, que jamais vivenciaram. Variações incluem a inclusão, remoção ou alteração de elementos contextuais das filmagens e verbalizações, sincronizadas à perfeição aos movimentos labiais.

A velocidade com que os Deep Fakes estão evoluindo é notável. Em julho deste ano saiu um paper de pesquisadores que se dedicaram à identificação sistemática das diferenças entre exemplos disponíveis e gravações reais (https://bit.ly/2S0oppv).

Segundo eles, os olhos das versões falsas tendem ficar um pouco mais arregalados do que o normal, ao passo que o número de piscadas tende a ser reduzido, já que a base para o processamento é composta por imagens estáticas e, nem sempre, há suficientes imagens da pessoa-alvo de olhos fechados. Outra diferença apontada é em relação ao ritmo respiratório, de difícil reprodução.

Passados três meses, pode-se dizer que essas sagazes observações já não têm mais tanta validade.

A produção dos mais avançados Deep Fakes deixou de depender de imagens estáticas, podendo usar trechos de vídeos da pessoa que se deseja manipular, resolvendo os problemas acima. Ainda mais profundamente, o próprio estado da arte em aprendizado de máquina aplicado a Deep Fakes está em transição, de um tipo de rede neural conhecida como deep learning para as recém-concebidas redes neurais generativas adversativas (generative adversarial neural networks - GANs).

As redes neurais generativas adversativas são construídas em dupla; enquanto uma delas é treinada para criar o fake, a outra é treinada para fazer o papel de um incansável analista que inspeciona a nova criação em busca de traços capazes de denotar sua falsidade e recomenda correções.

O resultado esperado é a inundação da internet de falsas filmagens, claras e detalhistas, fabricadas para passar pelo crivo dos mais variados céticos.

Não estão claras as atitudes e tecnologias necessárias para que os meios de comunicação possam contra-atacar e as pessoas não tenham que assumir que qualquer coisa vista fora de domínios amplamente chancelados é potencialmente falso.

Uma perspectiva que me parece incontornável é a adoção de micro-registros de procedência informacional, capazes de denunciar a violação do conteúdo original por meio de análises automatizadas - algo que nenhum jornal ou revista de grande circulação do mundo atual possui. Outra, é a proliferação de agências de verificação fatual, cujo suporte financeiro certamente não cairá do céu.

Ainda que os desafios trazidos pelas fake news estejam apenas começando, a minha tese é de que são o prenúncio de algo ainda maior.

A presença do conceito de notícia na expressão Fake News será relativizado, a partir do momento em que as produções geradas pelas redes neurais adversativas ou suas sucessoras conseguirem passar pelo crivo dos analistas forenses, esses verdadeiros especialistas em ceticismo informacional.

Fake, enfim, terá transcendido News.

Por mais bizarramente convincentes que sejam as notícias falsas propagadas por mídias sociais, portais capciosos ou aplicativos de mensagem, ainda estamos no plano das alegações desautorizáveis por vias alternativas e irrelevantes se socialmente ignoradas. Em contraste, resultados de inquéritos de baixíssima repercussão pública podem mudar a vida dos envolvidos para sempre.

Fake Claims (falsas alegações) é o conceito que proponho para nomear um novo fenômeno de adulteração informacional baseado em inteligência artificial, que acredito que irá se tornar epidêmico em alguns anos.

A grande diferença entre Fake Claims e Fake News está no fato de que aquelas não dependem de relevância social ou propagação, mas tão somente da primazia da verdade em situações muito específicas, geralmente envolvendo sujeitos comuns.

A especificidade contextual torna a produção de contraprovas muito mais complicada, o que então é agravado pelas limitações técnicas e econômicas dos sujeitos comuns para reagirem.

Paulo briga com Luiz dentro da boate e é rendido pelos seguranças. Conforme mostram as câmeras de segurança, ele sai de lá com vida, vindo a morrer de causas desconhecidas.

Maria e Felipe brigam na justiça pela guarda do filho de um ano. Um vídeo realizado pela babá eletrônica revela maus tratos da mãe.

Aldair estava preso há um mês; conforme as gravações internas do presídio, suicida-se em sua cela.

Dois carros batem, os motoristas saem e batem boca; conforme uma filmagem de celular, há uma tentativa de homicídio, por meio de um tiro, que por sorte não atinge ninguém.

Áudio comprometedor revela tentativa de juiz de subornar zelador, em elevador.

Faca na mão, vê-se que o vizinho tocou a campainha com intenções criminosas.

Fabinho não é só um pós-adolescente problema, há dois registros dele vendendo drogas dentro do condomínio.

Situações como essas, capazes de alterar destinos para sempre, serão parte da rotina dos Fake Claims, assim como prêmios recebidos das mãos de presidentes, palestras em eventos internacionais, participações em peças da Broadway, canjas em shows de bandas consagradas e conversas edificantes com o Dalai Lama.

O uso dos mesmos não irá depender de conhecimentos específicos, mas apenas de falta de escrúpulo e algum dinheiro, já que inúmeros freelancers oferecerão este serviço por toda a Deep Web.

Em paralelo, a prática de invadir câmeras de segurança e outras mais para inserir fakes vai ganhar importância entre criminosos digitais e não se deve duvidar que uma das linhas de cyber-ataque internacionais seja a da inserção de imagens geradoras de caos nas câmeras das grandes cidades.

A generalização desta situação mudará nossa relação com todas as formas de informação que não tenham sido originadas da observação direta da realidade e dará origem a um verdadeiro boom em tecnologias forenses e práticas investigativas, com imensos efeitos sobre a sociedade e sua surrada confiança na noção de verdade.