Imagine a seguinte cena. Você acorda cedo e, como faz todos os dias, depois de tomar um banho e preparar um rápido café da manhã, senta-se à mesa e liga a televisão para assistir ao jornal da manhã enquanto segura a xícara de café.

O repórter anuncia uma notícia bomba e o seu nome está envolvido nos fatos narrados. Você pensa que só pode ser uma brincadeira de mau gosto. Eis que você surge no vídeo dando uma declaração ao repórter. É você, a sua voz, os seus trejeitos.

Você não lembra de nada daquilo e começa a se beliscar, pois talvez ainda esteja dormindo e sonhando. Após várias tentativas, inclusive acordando alguém da sua família para confirmação, descobre que está no mundo real, ou não tão real assim.

Parece coisa de ficção, mas não é. Já ouviu falar em Deep fake? Agora as fake news podem ainda ser mais convincentes. Me lembro de um comercial antigo de TV, de uma marca de sabão em pó, que sugeria “Faça o teste de São Tomé, só acredite vendo!”.

Pois bem, antes as fake news usavam textos e imagens fixas para divulgar mentiras, hoje elas podem contar com o uso de inteligência artificial para dar vida a essas mentiras em vídeos.

Com os deep fakes, com base em imagens e vídeos reais é possível gerar novas imagens e vídeos que colocam as pessoas do material original fazendo coisas que não ocorreram, a criação de uma fala completamente fictícia e até a de rostos realistas, mas de fatos que não ocorreram.

Assim, nem mesmo com o Teste de São Tomé, vendo e também ouvindo, não será possível diferenciar o falso do verdadeiro facilmente. Alguns famosos e autoridades mundiais já foram vítimas de tais atos. Mas você, como eu, simples mortal, pode ser vítima também.

Daqui a pouco qualquer um, tomando como base imagens de uma pessoa, poderá criar uma cena, sintetizando a voz, criar uma fala, com expressões idênticas às suas. A mesma tecnologia de reconhecimento facial pode ser usada para a reprodução ou inserção facial.

Um mal-intencionado pode, em segundos, acabar com uma carreira, incitar violência, por exemplo, colocando rosto, voz e palavras de alguém em alguma imagem editada. Ficará ainda mais difícil explicar que focinho de porco não é tomada num ambiente em que as pessoas preferem assistir e ouvir notícias da desgraça alheia.

Como não vivemos num conto de fadas onde se faz crescer o nariz do mentiroso e cara de pau, esperemos que alguém do mundo real possa buscar um antídoto que revele a natureza dos mentirosos e fraudulentos. Afinal, a única forma de combater o malefício no uso de tecnologia é com mais tecnologia, só que do bem.

O mundo, a legislação e a polícia cibernética precisam rapidamente se adaptar a esta triste realidade. Se mentiras à moda antiga puderam iniciar guerras, imaginem o que podem causar agora para a humanidade.

Adnelson Borges de Campos
Últimos posts por Adnelson Borges de Campos (exibir todos)

Comentários

Compartilhe:


MATÉRIAS RELACIONADAS
O primeiro rascunho da história
Não fiquem velhos!
As versões da mesma história