O governo americano processou o Facebook. O motivo foi por permitir que os anunciantes excluíssem categorias inteiras de pessoas de verem anúncios de moradia. As categorias envolviam casais com filhos, não americanos, não cristãos, pessoas com deficiência e hispânicos. 

Department of Housing and Urban Development (HUD) disse que isso viola a Fair Housing Act, que proíbe a discriminação contra determinados grupos. O Facebook tentou limpar sua atitude, desligando ferramentas que permitiam os anunciantes mirar nos usuários com base em idade, sexo e código postal. 

O processo da HUD também acusou a empresa de discriminação contra as minorias, por meio dos algoritmos usados para administrar seus negócios de publicidade. Estes são os mesmos que o Facebook usa para maximizar os cliques e visualizações. E, portanto, a receita. 

Um artigo publicado em abril por pesquisadores da Northeastern University, de Boston, ofereceu mais peso à informação do HUD. A equipe de pesquisa, liderada por Muhammad Ali e Piotr Sapiezynski, concluiu que os sistemas do próprio Facebook são influenciados pela raça e gênero de seus usuários. 

Entretanto, a pesquisa ainda não passou por um processo de revisão por pares. 

Leia também: Como fazer um dark post no Facebook?

Análise sobre a descriminação do Facebook

Sapiezynski e Ali testaram os sistemas do Facebook pagando por anúncios, e observando para quem foram entregues. Eles forneceram centenas de pares de anúncios, cada um dele idêntico em todas as características, menos uma.

Os dois descobriram que um anúncio com a mesma imagem era entregue a um número menor de negros, ainda se ele alegasse se referir a uma propriedade à venda, em vez de uma para alugar. 

Eles também perceberam que a raça de pessoas retratadas nas imagens afetou quais grupos tinham maior probabilidade de ver os anúncios. Por exemplo, um anúncio de casas baratas à venda, que tinha uma imagem com uma família branca, foi entregue a uma audiência que era 85% branca. 

Enquanto, um mesmo anúncio, mas com uma imagem de família negra, foi entregue a cerca de 73% de usuários brancos. 

Leia também: Por que redes sociais escondem números de seus balanços?

Pesquisadores também descobriram uma disparidade com base no gênero. Os empregos para atendentes de supermercado e zeladores tendem a ser entregues mais às mulheres. Enquanto anúncios de lenhadores eram mais propensos a serem entregues aos homens.  

"Isso ocorre porque os algoritmos opacos do Facebook, treinados em dados historicamente enviesados, preveem que essas pessoas estarão mais interessadas", explica Sapiezynski.

A pesquisa trouxe evidências de que o Facebook está usando a "visão de máquina", em que computadores digitalizam imagens e reconhecem o que elas representam. Isso é algo assumido há tempos, mas que nunca foi provado. 

Os pesquisadores, então, estabeleceram o uso da visão mecânica, alterando a transparência das imagens usadas em seus anúncios para que fossem visíveis às máquinas. Mas não aos humanos. Por outro lado, anúncios idênticos com fotos diferentes de famílias negras e brancas ainda eram encaminhados para diferentes grupos de pessoas. 

A publicidade, de maneira geral, depende do anúncio atingir seu público-alvo. Mas a capacidade dos algoritmos de atingir esse público está causando um crescente desânimo. Isto é verdadeiro no Facebook, principalmente por causa de sua escala em relação à mídia tradicional.

Posição do Facebook 

O diretor do Centre for Ethics, Society and Computin, da Universidade de Michigan, disse que a pesquisa mostrou que o Facebook está tomando "decisões editoriais drásticas, importantes e potencialmente ilegais". 

E o Facebook parece aceitar as descobertas. Em um comunicado, a porta-voz da empresa, Elisabeth Diana, disse que a companhia se posiciona contra a discriminação de qualquer forma. "Fizemos alterações importantes em nossas ferramentas de segmentação de anúncios. E sabemos que esse é apenas o primeiro passo", afirma. 

Ainda de acordo com Elisabeth, a equipe da empresa está analisando o sistema de distribuição de anúncios. Também estão engajando líderes do setor, acadêmicos e especialistas em direitos civis neste mesmo tópico. Além de também estarem explorando mais alterações. 

Pesquisadores se esforçam para salientar que não estão fazendo afirmações abrangentes sobre todo o sistema de entrega de anúncios do Facebook. Já que monitoram seu comportamento em apenas algumas situações. 

Não há provas de que o Facebook tenha projetado seus sistemas para discriminar intencionalmente. Mas seu software de aprendizado de máquina, no processo de se treinar nos dados dos usuários para adaptar os anúncios aos seus interesses, parece ter absorvido alguns de seus preconceitos. 

Segundo o Communications Decency Act, as plataformas digitais não são responsáveis pelo comportamento ilegal de seus usuários. Mas a pesquisa mostra que os sistemas do próprio Facebook parecem contribuir para discriminação. 

Após dois anos de péssimas relações públicas, essa pesquisa serve como outro golpe para o Facebook. Neste ano, Mark Zuckerberg tentou retomar a iniciativa pedindo uma extensa regulamentação das empresas de tecnologia digital. Mas ainda sem comentar sobre o modelo de publicidade da rede. 

Neste ponto, a regulamentação pode chegar mais cedo do que ele espera. E, provavelmente, não na forma que ele deseja. 

FONTE

Guilherme Pin

Jornalista, aspirante a crítico e roteirista de filmes, youtuber nas horas vagas e o Chandler M. Bing da roda de amigos.