terça-feira, 27 de outubro de 2020

‘Deepfakes’ cria e espalha mais de 100 mil falsos nudes de mulheres

Imagem: Reprodução

Por meio da tecnologia ‘deepfake‘, um bot para Telegram vem causando terror entre a população feminina, esse robô é capaz de usar imagens de mulheres – inclusive menor de idade - e deturpam a foto dessas mulheres, que antes foram tiradas de biquíni, por exemplo, as deixando completamente nuas. Até o momento, foram rastreadas e compartilhadas mais de 100 mil imagens falsas, mas acredita-se que esse número pode ser milhares de vezes maior.


‘Deepfakes’ dedica 96% do seu material à sites adultos

Pesquisas apontam que todas as fotos são de vítimas mulheres que postaram em suas redes sociais durante seu dia-a-dia. A tecnologia apresenta seus benefícios, mas, na maioria das vezes, é usado para fins malignos. Em junho de 2019, o app ‘DeepNude‘, as vítimas eram celebridades que tinham suas imagens em versões nuas. No mesmo ano, em outubro, de acordo com a da Deeptrace, 96% do material criado pela tecnologia é dedicado à sites de conteúdo adulto.

O que preocupa vítimas, autoridades e as pessoas, no geral, é a facilidade ao acesso do bot, ele é gratuito e de fácil aplicação. Giorgio Patrini, CEO da empresa de pesquisa em ‘deepfakes’ Sensivity explica que a inovação aqui não está necessariamente na IA. É o fato de que ele pode chegar a muitas pessoas, de forma muito simples.

Mas nem todos usam a tecnologia para fazer o mal, um museu dedicado ao pintor Salvador Dalí, na Flórida, por exemplo, recriou o artista, por meio de IA, e em todas as visitas o ‘próprio’ artista conduz os visitantes por um tour no local.

Facebook na corrente contra ‘deepfakes’

O Facebook vem atuando na posição de cooperar contra o ‘deepfakes’ mostra força de vontade a fim de barrar a ação de ‘deepfakes’ e oferece recompensa àqueles que desenvolverem ferramentas capazes de identificar esses males.

A professora de direito na Universidade de Miami e presidente da ONG de proteção contra abuso online Cyber Rights Iniative revela que o fenômeno ‘deepfake’ é ainda mais alarmante porque ele não tem cara de ser editado no Photoshop. É muito mais fácil para alguém sem o conhecimento técnico produzir um. Isso também torna muito mais difícil empregar a capacidade de evitar esse tipo de abuso.

Fonte: saoluisdofuturo