Nas últimas semanas, o termo Deepfake esteve entre os assuntos mais bombados da internet, após viralizar imagens do Papa Francisco vestindo um longo casaco puffer branco, criadas pela IA Midjourney, que até então, disponibilizava para todos os usuários a geração gratuita de 25 fotos através do Discord. Após o grande boom da ferramenta, os líderes decidiram suspender temporariamente a versão grátis do dispositivo, alegando apenas “demanda extraordinária e abuso nos testes”. Entretanto, essa medida não impediu que novas ilustrações realistas fossem divulgadas ao público, como por exemplo, falsas fotos do ex-presidente norte-americano Donald Trump, brigando com policiais para não ser preso.
O deepfake (deep = profundo, derivado de deep learning = aprendizagem profunda & fake = falso) é uma técnica que consiste na criação de mídias artificiais a partir de uma grande quantidade de arquivos reais e com uso de algoritmo IA de aprendizagem de máquina, que compila as imagens verdadeiras com que ele foi treinado para gerar algo novo e fictício. Apesar do assunto estar em alta no momento, não é de hoje que deepfakes são criadas e divulgadas pela internet, a tecnologia ganhou popularidade em 2017, mas evoluiu de forma grandiosa com o avanço da IA nos últimos anos, preocupando ainda mais aqueles que já estavam em alerta desde o início.
A técnica tem sido historicamente usada para fins ilícitos, inclusive para gerar pornografia não consensual, e apesar de não criar conteúdos perfeitos, são realistas o suficiente para enganar diversas pessoas ao redor do mundo. Os arquivos manipulados de artistas e políticos são a prova desse perigo, que pode difamar e destruir a reputação dos envolvidos nas falsas cenas criadas.
Nos EUA, a ferramenta já está sendo utilizada desde 2020 de forma maliciosa nas eleições, com os eleitores compartilhando vídeos falsos dos candidatos oponentes para descredibiliza-los e manipular as eleições. No Brasil, essa nova onda chegou em 2022, criando diversos conteúdos fictícios para enganar a população, como no caso do Jornal Nacional, em que o âncora do Jornal Nacional, William Bonner, supostamente se refere ao ex-presidente e candidato Lula (PT) e a seu candidato a vice, Geraldo Alckmin (PSB), como “bandidos” – o que foi desmentido pelo Comprova.
Ao que a tecnologia avança, as discussões sobre legislação e segurança eletrônica também caminham para uma tomada de decisão, mas enquanto isso não acontece, é necessário ficar atento aos detalhes para não acreditar nas fake news criadas. Diante de um conteúdo suspeito, é recomendado prestar atenção em problemas entre o rosto e o restante da cabeça, entre lábios e dentes, nas extremidades do corpo como mãos e pés, partes da pele borradas de forma desuniforme, iluminação artificial, além de eventuais padrões robóticos na movimentação.
Existem também, empresas iniciantes que estão desenvolvendo ferramentas para detectar deepfakes, como por exemplo, a Sensity, que criou uma plataforma de detecção semelhante a um antivírus para deepfakes, que alerta os usuários por e-mail quando eles estão assistindo a algo que contém impressões digitais reveladoras de mídia gerada por IA.
A verdade é que essa tecnologia está ficando cada vez mais realista, e o que você acha dela?
Para mais conteúdo sobre tecnologia, inovação, segurança digital e muito mais, fique ligado na Taker IT.