Você já foi enganado por um vídeo criado por inteligência artificial? Se ainda não, é questão de tempo. As ferramentas de geração de vídeo por IA estão se tornando tão avançadas que até os olhos mais atentos estão sendo confundidos.
Nos próximos meses — talvez anos —, acreditar no que vemos deixará de ser natural e passará a ser um ato de fé.
O novo truque da IA: vídeos de baixa qualidade
Segundo Hany Farid, professor da Universidade da Califórnia em Berkeley e especialista em forense digital, um dos primeiros sinais de alerta é a qualidade da imagem. Vídeos borrados, pixelados ou com aparência de câmera antiga são os favoritos das IAs para esconder falhas sutis, como texturas de pele artificiais, cabelos com padrões incoerentes e movimentos de fundo impossíveis.
Farid explica que muitos criadores de deepfakes degradam intencionalmente a resolução para disfarçar imperfeições e tornar o vídeo mais crível. “Reduzo a qualidade, aplico compressão e pronto: os sinais de que o vídeo é falso desaparecem”, afirma.
A psicologia da credulidade digital
O problema vai além da técnica. Como destaca o pesquisador Mike Caulfield, o verdadeiro desafio está na forma como interpretamos o conteúdo online. “Precisamos abandonar a ideia de que uma imagem ou vídeo é verdadeiro apenas por existir”, explica.
A origem, o contexto e a verificação da fonte são, agora, os únicos elementos que realmente importam.
O que vem pela frente
As gigantes da tecnologia — como Google e OpenAI — estão despejando bilhões de dólares em sistemas cada vez mais realistas. Para o professor Matthew Stamm, da Universidade Drexel, as pistas visuais que hoje usamos para identificar deepfakes devem desaparecer em até dois anos.
A esperança está em novas tecnologias de verificação e em uma alfabetização digital mais ampla. “Esse é o maior desafio de segurança da informação do século 21”, conclui Stamm.









0 comentários