Home NOTÍCIAS Funcionários do Facebook verão muita nudez para criar algoritmo

Funcionários do Facebook verão muita nudez para criar algoritmo



A rede social Facebook anunciou na semana passada que estava em fase final de criação de um projeto para evitar a chamada revenge porn. O termo, que traduzido seria pornografia vingativa, define o vazamento de fotos ou vídeos íntimos de sexo como forma de chantagear uma pessoa, destruir sua reputação, etc. Mas o algoritmo que cuidará disso nãos erá criado do zero. Algumas dezenas de funcionários da empresa passarão dias, talvez semanas, vendo fotos de nudez de usuários e anotando padrões que servirão para a criação da tecnologia.

O projeto começou a ganhar definições quando o Facebook fez uma parceria com o sistema e-Safety, da Austrália, uma associação de vários setores da sociedade para a privacidade digital e combate à revenge porn.

A tecnologia será complexa e o conhecimento humano será essencial para a criação do algoritmo. Uma pessoa que tenha feito foto ou vídeo íntimo para enviar a seu parceiro ou parceira e, por algum motivo não quer que esse material exista mais – ao menos sendo distribuído por estranhos no Facebook – acionará a e-Safety. Essa, por sua vez, enviará a descrição do que está no conteúdo íntimo para a rede social. O algoritmo ficará encarregado de achar a foto ou vídeo e deletá-lo.



O material também será apagado das redes de comunicação que o Facebook tem, como Instagram e Messenger.

Padrão humano
O olho humano será a base de todo o projeto. Um porta-voz do Facebook disse ao site Daily Beast que, a utilização de funcionários evitará erros no algoritmo. Um usuário mal intencionado poderia usar a tecnologia para deletar imagens das quais não gosta ou acha “pouca vergonha” e não são exatamente revenge porn.

Para que tudo comece a funcionar, o Facebook fez um pedido inusitado aos usuários da rede na Austrália. A empresa pediu que eles colaborassem com fotos de nudez sendo divulgadas na rede social. É claro que, como um processo de criação do algoritmo, o conteúdo não seria visto pelo mundo inteiro – o Facebook tem 2 bilhões de usuários. Somente alguém treinado na sede da empresa poria os olhos na intimidade do usuário.

“É absolutamente necessário que as imagens sejam revisadas por uma pessoa quando introduzidas no conjunto de dados verificado, caso contrário, seria trivial que alguém abuse desse processo para censurar as imagens”, Nicholas Weaver, pesquisador sênior do Instituto Internacional de Ciências da Computação em Berkeley, Califórnia, disse à The Daily Beast.

É também uma prática que foi utilizada em outros lugares. De acordo com o Daily Beast, existe um banco de dados semelhante de material de abuso infantil, e todas essas imagens foram vistas por seres humanos em algum momento.

Acesse os outros sites da VideoPress

Portal Vida Moderna – www.vidamoderna.com.br

Radar Nacional – www.radarnacional.com.br