Imagens nuas artificiais geradas por IA - os chamados deepfakes - inundaram de repente a internet: partilhadas em fóruns, comentadas por desconhecidos, guardadas por algoritmos. Enquanto ela se defende em público, há quem, ao nosso lado no autocarro, passe o dedo pelas mesmas imagens como se nada fosse. Sem pestanejar. Sem perguntar quem, afinal, está mesmo a ser mostrado. Reconhecemos esse instante em que percebemos: isto é maior do que uma história sobre uma celebridade. Diz algo sobre todos nós - sobre o nosso olhar, sobre poder e impotência na era digital. E é precisamente aí, no meio desta luz tremeluzente de ecrãs, que começa a verdadeira história.
Quando o próprio rosto se transforma em mercadoria
Vale a pena imaginar a cena com clareza: acordas, pegas no telemóvel ainda a meio do sono - por reflexo, como quase toda a gente - e encontras mensagens de amigos, colegas e estranhos. Ligações. Capturas de ecrã. “És tu?” Collien Fernandes descreve exactamente este tipo de ataque, com a diferença de que, no caso dela, chegou em escala XXL, amplificado por meios de comunicação, portais de mexericos e redes sociais. O seu rosto, o seu corpo, a sua intimidade - tudo montado de forma sintética, mas “suficientemente real” à primeira vista para muita gente. De um momento para o outro, o próprio corpo deixa de ser privado e passa a ser um conjunto de dados: um ficheiro que se partilha, copia e distorce. Sem descanso. Sem controlo.
O que aconteceu com Collien não é um episódio bizarro isolado; é um sinal de algo maior. Segundo um estudo dos EUA, já há alguns anos mais de 90% dos deepfakes analisados na altura eram pornográficos - e, na maioria dos casos, tinham mulheres como “protagonistas” involuntárias. A tecnologia torna-se mais barata, as aplicações ficam mais simples, e muitos vídeos já não nascem apenas na darknet: fazem-se com dois ou três toques no smartphone. É uma espécie de cultura de “diversão à TikTok” que descamba para o extremo. No caso de Collien, juntaram-se alcance, um rosto conhecido e curiosidade voyeurista numa mistura tóxica. E a mensagem é implacável: hoje, a visibilidade não traz apenas aplausos - traz também um novo grau de vulnerabilidade.
A lógica por trás disto é fria e directa: tudo o que entra na internet - uma fotografia, uma entrevista, uma aparição pública - pode virar matéria-prima. A partir de milhares de imagens, os algoritmos constroem um modelo que depois pode ser moldado a qualquer fantasia. Figuras públicas como Collien são alvos preferenciais porque existem inúmeras imagens acessíveis ao público. Mas o verdadeiro choque vem daqui: a barreira técnica está a descer tão rapidamente que este mecanismo pode atingir qualquer pessoa que publique selfies em algum lugar. Sejamos honestos: quase ninguém lê os termos e condições num carregamento apressado, nem pensa em geradores de imagens por IA. Publicamos, gostamos, fazemos scroll. E, em segundo plano, a máquina continua a aprender.
Como nos protegermos num mundo sem controlo total da imagem
Por mais impotente que tudo isto pareça, há medidas concretas para aumentar a nossa margem de manobra. A primeira começa de forma quase banal: consciência - não como moralismo, mas como prática. Que imagens minhas estão públicas? Que perfis estão abertos e quais estão privados? Quem já pesquisou o próprio nome numa pesquisa de imagens conhece aquele desconforto; é precisamente aí que entra a auto-defesa digital. Pode, por exemplo, fechar contas antigas e esquecidas, trocar fotografias de perfil, remover dados EXIF quando as fotos forem sensíveis. Não é uma protecção perfeita, claro. Mas é uma espécie de “arrumação” digital que, pelo menos, reduz a superfície de ataque.
O segundo passo é mais difícil do ponto de vista emocional: deixar de acreditar automaticamente no que se vê. Parece um cliché, mas tornou-se uma regra de sobrevivência. Quando surgem imagens de conhecidos, celebridades ou colegas em contextos duvidosos, um segundo de cepticismo faz uma enorme diferença. Não partilhar de imediato, não julgar por impulso. E, se fizer sentido, falar sobre isto no nosso círculo - sobretudo com adolescentes, que crescem num mundo de imagens onde o “falso” muitas vezes só se nota quando o dano já aconteceu. Todos conhecemos a pequena descarga interna que um thumbnail escandaloso activa por instantes. O acto de resistir a esse impulso é mais discreto do que parece - e mais eficaz do que se pensa.
Collien Fernandes escolhe avançar: fala do tema, nomeia a injustiça e actua por via legal. Ao fazê-lo, quebra o padrão antigo do silêncio em que muitas vítimas caem por vergonha. Num momento destes, uma posição como a seguinte seria credível:
“Isto não é apenas um ataque à minha pessoa, mas um ataque ao direito de cada ser humano de decidir como quer ser visto.”
Desta postura resultam, de imediato, algumas orientações práticas:
- Não cair na armadilha da culpa - a responsabilidade é de quem cria e difunde e também das plataformas, não da pessoa visada.
- Documentar o mais cedo possível - guardar capturas de ecrã, ligações e carimbos temporais antes de os conteúdos desaparecerem.
- Procurar aliados - advogados especializados em media, serviços de apoio e a rede de amigos, para não atravessar a tempestade sozinho.
- Usar a exposição pública com medida - quem quiser falar deve poder escolher ritmo e alcance.
- Consumir com consciência - não abrir imagens suspeitas, não reenviar, não discutir “com neutralidade” conteúdos que fazem dano.
O que o caso de Collien revela sobre o nosso futuro comum
O caso de Collien Fernandes funciona como um holofote agressivo sobre uma evolução que já vinha a acontecer longe do centro do palco. Atinge uma mulher incontornável no espaço público e mostra o que acontece quando visibilidade e perda de controlo se chocam de frente. Ao mesmo tempo, levanta uma pergunta que diz respeito a cada um de nós: a quem pertence o nosso rosto quando existe como ficheiro? À entidade do cartão de cidadão? A nós próprios? Ou, de repente, às plataformas que aspiram cada imagem para os seus conjuntos de treino de IA sem darmos por isso? Entre protecção de dados, direitos de personalidade e realidade técnica, abre-se aqui uma lacuna cada vez maior.
O mal-estar que muitos sentem ao ler a história de Collien é um sinal importante. Mostra que ainda temos intuição para limites - mesmo quando a tecnologia os desloca mais depressa do que as leis conseguem acompanhar. Talvez este caso se torne um ponto de viragem, como foram, em tempos, os primeiros grandes debates sobre ciberbullying ou pornografia de vingança. Talvez nasça daí uma nova consciência: não só para proteger as vítimas, mas também para reconhecer o nosso papel enquanto espectadores. Se clicamos ou não. Se contestamos ou nos calamos.
Talvez, daqui a alguns anos, olhemos para trás e digamos: quando os deepfakes saíram do nicho para o mainstream, aprendemos que as imagens deixaram de significar automaticamente verdade. Sim, nem as celebridades têm hoje controlo total sobre a própria imagem. Mas também percebemos que o controlo não pode ser apenas uma tarefa individual - é uma questão colectiva. Direito, tecnologia e cultura estão ligados. E é nesse emaranhado que se decide se a história de Collien se perde como aviso ignorado. Ou se fica como ponto de partida para uma ética digital diferente, sobre a qual vale mesmo a pena falar.
| Ponto-chave | Detalhe | Valor para o leitor |
|---|---|---|
| Deepfakes como nova forma de agressão | O caso de Collien Fernandes mostra como imagens geradas por IA, sem consentimento, podem violar a esfera íntima. | Perceber porque estes conteúdos não são “escândalos”, mas violência digital. |
| Controlo limitado sobre a própria imagem | Fotografias públicas tornam-se material de treino para algoritmos e podem ser desviadas para outros fins. | Lidar de forma mais consciente com as próprias imagens e avaliar riscos com realismo. |
| Estratégias concretas e atitude | Higiene digital, cepticismo no consumo de imagens e solidariedade com vítimas. | Passos aplicáveis no dia-a-dia para proteger melhor a si e aos outros. |
FAQ:
- Pergunta 1: O que aconteceu exactamente no caso de Collien Fernandes?
Foram divulgadas na internet imagens nuas artificiais (deepfakes) que colocam o rosto dela em corpos de outras pessoas. As imagens foram criadas e partilhadas em massa sem o seu consentimento.- Pergunta 2: Estes deepfakes são puníveis por lei?
Em muitas situações, aplicam-se direitos de personalidade, direitos de autor e, por vezes, normas penais, por exemplo quando há difusão de conteúdos pornográficos sem consentimento. O enquadramento legal está a ser afinado progressivamente, mas nem todos os detalhes estão ainda totalmente clarificados.- Pergunta 3: Isto também pode acontecer a “pessoas normais”?
Sim. Quanto mais fotografias acessíveis existirem, mais fácil é, tecnicamente, montar um rosto noutros cenários. As celebridades são atingidas com mais frequência, mas qualquer pessoa pode tornar-se alvo.- Pergunta 4: O que posso fazer se eu próprio/a for vítima?
Guardar provas, obter aconselhamento jurídico, denunciar os conteúdos nas plataformas e, se for caso disso, apresentar queixa. Procurar apoio junto de pessoas de confiança ou serviços especializados também ajuda - o isolamento tende a agravar o impacto.- Pergunta 5: Como agir no dia-a-dia de forma mais responsável perante estes conteúdos?
Não abrir, não partilhar, não reenviar “por diversão”. Manter cepticismo quando as imagens parecem demasiado escandalosas e deixar claro no seu meio que deepfakes não são uma tendência engraçada, mas uma forma de violência digital.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário