Saltar para o conteúdo

Deepfakes: o vídeo que nunca aconteceu e como te protegeres

Mulher a fazer videochamada no telemóvel sentada à mesa com computador portátil, caneca e documentos.

O vídeo tem 23 segundos.

Nele, uma jovem ri-se para a câmara, diz duas ou três frases e faz um gesto inequívoco com a mão. A voz soa como a dela, a expressão facial encaixa, o cenário parece familiar. Duas horas depois, o clip cai num grupo de chat da turma, passa para o círculo de colegas, chega à família. Ela só fica a saber da “gravação” quando o chefe a chama ao gabinete. “Consegues explicar-me o que se passa aqui?”

Ela nunca gravou aquele vídeo.

Todos reconhecemos este momento: alguém atira “Já viste ISTO?” e empurra o telemóvel para o meio da mesa. Antes, era um clip engraçado, uma dança embaraçosa, um meme. Hoje, pode ser um vídeo que coloca a tua cara numa situação que nunca aconteceu. E, de repente, a tua própria identidade fica em risco.

A questão já não é se isto pode acontecer.

A questão é: quando é que vai atingir alguém que tu conheces?

A nova arma: um vídeo que nunca aconteceu

Os deepfakes há muito que deixaram de ser coisa de nerds. No TikTok, no Telegram e em fóruns duvidosos, surgem milhares de clips onde se trocam rostos, vozes e até corpos inteiros. Aquilo que há cinco anos parecia um efeito especial de Hollywood faz-se hoje em minutos num portátil mediano: ora por diversão, ora para pornografia, ora por vingança, ora simplesmente por tédio.

O lado realmente perigoso é que muitos destes vídeos já são, para o olho humano, dificilíssimos de desmascarar. Microexpressões, reflexos de luz, sombras - a IA aprende a imitá-los de forma convincente. Quem vê o resultado tende a pensar, por instinto: “Isto tem de ser real.” A nossa percepção ainda está presa à velha lógica em que a imagem em movimento valia como prova.

No início de 2024, um caso em Espanha correu os media: um grupo de adolescentes recorreu a uma app para “renderizar” colegas nuas. Bastaram fotografias inocentes do Instagram. Num fim de semana, circularam dezenas de falsificações, partilhadas em chats da escola, comentadas, avaliadas. As raparigas eram pessoas reais - com corpos reais, famílias reais, sonhos reais. E, de um momento para o outro, passaram a ser apenas “a rapariga do vídeo”.

Existem relatos semelhantes na Alemanha, embora cheguem menos vezes às manchetes. Uma professora cujo rosto é montado num vídeo pornográfico. Um presidente de câmara que, numa “confissão” forjada, “admite corrupção”. Um pai cuja voz é usada num telefonema falso para sacar dinheiro aos avós. Em fóruns, há quem troque dicas sobre como invadir servidores de escolas, humilhar colegas, “destruir” ex-parceiros.

A tecnologia melhora, fica mais acessível - e a barreira moral desce.

O mecanismo por trás disto é brutalmente simples. A mente humana adora narrativas visuais. Um vídeo pesa mais do que mil desmentidos. Depois de alguém ver um suposto vídeo íntimo “real” ou uma “confissão”, essa impressão cola-se - mesmo quando, mais tarde, se prova claramente o contrário. Juristas chamam-lhe “efeito de ancoragem”. Psicólogos falam do poder da imagem. E, na Internet, aplica-se uma verdade seca: o que sai cá para fora quase nunca volta a ser totalmente recuperado.

Os deepfakes amplificam tudo isto. Um único clip pode ser copiado milhões de vezes, espelhado, republicado. Volta a aparecer quando a vítima já estava, lentamente, a recompor-se. É empurrado por algoritmos, encontrado por motores de pesquisa. Uma mentira reforçada pela lógica das plataformas. E quem é atingido não luta só contra o autor - luta contra uma máquina invisível que se replica sem parar.

E, enquanto ainda tentamos verificar a “autenticidade”, o estrago social já aconteceu.

O que podes fazer, na prática - e o que não podes

A má notícia primeiro: não existe protecção a 100% contra deepfakes. Qualquer pessoa que tenha colocado alguns selfies online pode, em teoria, tornar-se alvo. O que está ao teu alcance é reduzir a superfície de ataque e ter um plano mental para uma emergência. Pensa nisto como um plano de segurança contra incêndios: não dá para apagar o fogo do mundo, mas dá para impedir que a tua casa arda em segundos.

Na prática, isto significa: enviar o mínimo possível de conteúdos íntimos por via digital, por mais confiança que tenhas em alguém. Rever conversas em apps de mensagens, de tempos a tempos, à procura de material sensível. Apertar as definições de privacidade no Instagram, TikTok e Snapchat. E, em casa, falar sobre deepfakes - sobretudo com adolescentes: o que são, como se parecem, o que fazer se aparecerem. Quem já conhece o termo reage mais depressa e com menos pânico quando a coisa acontece.

Sejamos francos: quase ninguém verifica, todos os dias, perfis, backups de mensagens e pastas na cloud. A maioria de nós vive com uma descontração digital enorme. O problema não é falta de inteligência; é hábito. Publicamos, partilhamos, fazemos like - e, a certa altura, esquecemo-nos de quanta coisa nossa anda por aí. É exactamente esse rasto que os agressores exploram.

Um erro comum de quem é alvo: calar por vergonha. Em deepfakes sexualizados, muitas pessoas entram em modo “não quero que ninguém saiba”. Só que a velocidade é decisiva. Quanto mais cedo informares a escola, a entidade patronal e os amigos, mais clara pode ser a mensagem: “Essa pessoa não sou eu. É falso.” E apoio profissional - por exemplo, de associações que combatem a violência digital - pode ser determinante logo nas primeiras horas, para organizar passos emocionais e jurídicos.

Autodefesa digital também é isto: construir aliados antes de ser preciso.

“Temos de abandonar a reacção automática: ‘Que vergonha, em que é que ela estava a pensar?’ e passar para: ‘Espera, isto pode ser um deepfake?’”, diz uma psicóloga dos media que trabalha com jovens. “A cultura da condenação rápida é a melhor amiga dos agressores.”

Se quiseres sensibilizar quem está à tua volta, podes começar com coisas pequenas:

  • Uma vez por mês, no grupo de amigos ou em família, perguntar: “Que fotos e vídeos nossos é que estão, afinal, públicos?”
  • Definir uma regra clara em chats de turma ou de equipa: não se partilham conteúdos íntimos - nem “a brincar”.
  • Sempre que surgir um vídeo escandaloso, fazer uma pausa mental e pensar: “Quem ganha se eu encaminhar isto agora?”
  • Guardar no telemóvel contactos de linhas de apoio, associações e serviços como a HateAid e semelhantes, antes de haver um caso.
  • Mencionar no próprio perfil, de forma breve, que deepfakes existem - só essa nota pode, numa crise, abrir espaço para a dúvida.

Assim, aos poucos, cria-se uma rede social que não é perfeita, mas que pode amparar quando for a sério.

O que sobra quando já não se pode acreditar em nada?

A vaga de deepfakes atinge-nos num ponto sensível: a confiança nas imagens. Durante décadas, “Eu vi em vídeo” foi um argumento que matava discussões. Agora temos de aprender a largar esse reflexo. Parece uma pequena quebra na realidade. Se qualquer gravação puder ter sido manipulada, perdemos uma parte da segurança. Uns respondem com cinismo: “Não se pode acreditar em nada.” Outros agarram-se ainda mais ao instinto - com todos os riscos que isso traz para fake news e teorias da conspiração.

Talvez precisemos de uma relação mais madura com a verdade: menos fé ingénua na prova visual, mais contexto, mais fontes, mais pausas antes de partilhar. E, em paralelo, regras mais duras para plataformas que ganham dinheiro com atenção enquanto pessoas reais pagam o preço. Quem vive de alcance tem responsabilidade quando as mentiras correm mais depressa do que os desmentidos.

No fundo, isto não é só tecnologia. É dignidade. É o direito de não seres transformado numa personagem de um filme alheio e imposto. É a pergunta sobre quanta solidariedade damos uns aos outros quando o próximo clip “escândalo” atravessar as timelines. Talvez comece por responder ao “Já viste o vídeo?” não com um sorriso curioso, mas com uma dúvida silenciosa e atenta. E, por vezes, com a coragem de simplesmente não alinhar.

Ponto-chave Detalhe Valor para o leitor
Deepfakes são fáceis de obter Ferramentas gratuitas ou baratas permitem a amadores criar vídeos falsos credíveis Consciência de que o risco não é só para celebridades ou políticos
O dano social é muitas vezes irreversível Clips partilhados são quase impossíveis de apagar por completo e reaparecem repetidamente Motivação para agir de forma preventiva com conteúdos sensíveis e presença pública
A autodefesa digital aprende-se Mistura de medidas simples: menos dados íntimos, entorno informado, plano de emergência Opções concretas de acção em vez de sensação de impotência perante a tecnologia

FAQ:

  • Pergunta 1 Como é que eu, sem ser especialista, reconheço um deepfake? Muitas vezes, não reconheces com segurança. Sinais suspeitos incluem pele demasiado lisa, padrões estranhos ao piscar, contornos ligeiramente “a ondular” ou uma voz que fica um pouco dessincronizada da boca. Em clips escandalosos ou extremamente emocionais, vale sempre a pena fazer uma pesquisa inversa por imagem e verificar meios credíveis: estão a noticiar? E de que forma?
  • Pergunta 2 O que devo fazer se houver um deepfake meu a circular? Guarda capturas de ecrã e links, aponta datas - não te limites a “apagar”. Informa de imediato pessoas de confiança e, depois, contacta serviços de apoio ou advogados especializados em violência digital. Em paralelo, pede remoção às plataformas e, se possível, comunica proactivamente no teu meio que se trata de uma falsificação.
  • Pergunta 3 Criar deepfakes é crime na Alemanha? Depende do conteúdo. Deepfakes nus ou sexualizados podem ser perseguidos como violação do direito à própria imagem, injúria, perseguição ou até como violação de normas ligadas a pornografia. Também falsificações que prejudiquem a reputação ou sejam usadas para burla podem ter relevância penal. O enquadramento jurídico está a evoluir rapidamente.
  • Pergunta 4 Como falo com o meu filho sobre deepfakes sem o assustar completamente? O melhor é seres o mais concreto possível, sem cenários de terror. Explica que imagens e vídeos podem ser manipulados e que nunca é aceitável partilhar conteúdos íntimos - sejam de quem forem. Combina a quem é que a criança pode recorrer imediatamente se algo assim aparecer. E sublinha: nunca é “culpa” da vítima.
  • Pergunta 5 A IA também pode ajudar a combater deepfakes? Sim: estão a surgir ferramentas de detecção que analisam padrões típicos de vídeos falsos. Grandes plataformas já testam estes sistemas. Também estão em desenvolvimento marcas de água e “impressões digitais” para gravações autênticas. Nada é perfeito, mas a contra-medida técnica está a crescer - a par da responsabilidade de cada um em não acreditar cegamente em qualquer afirmação visual.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário