Sistema de anúncios do Facebook causa polêmica por discriminação


O governo americano processou o Facebook. O motivo foi por permitir que anunciantes excluíssem categorias de pessoas de anúncios de moradia. As categorias envolviam casais com filhos, não americanos, não cristãos, pessoas com deficiência e hispânicos. 

Department of Housing and Urban Development (HUD) disse que isso viola a Fair Housing Act. Esta lei proíbe a discriminação contra determinados grupos. Posteriormente, o Facebook tentou limpar sua atitude. E fez isso desligando ferramentas que permitiam os anunciantes remover usuários com base em idade, sexo e código postal. 

O processo da HUD também acusou a empresa de discriminação contra as minorias. Isso seria feito com algoritmos usados para administrar seus negócios de publicidade. Estes são os mesmos que o Facebook usa para maximizar os cliques e visualizações e, consequentemente, a receita. 

Em seguida, um artigo publicado por pesquisadores da Northeastern University, de Boston, ofereceu mais peso à informação do HUD. A equipe de pesquisa concluiu que os sistemas do Facebook são influenciados pela raça e gênero de seus usuários. O estudo foi liderado por Muhammad Ali e Piotr Sapiezynski,

Entretanto, a pesquisa ainda não passou por um processo de revisão.

Leia também: Como fazer um dark post no Facebook?

Análise sobre a descriminação do Facebook

Sapiezynski e Ali testaram os sistemas do Facebook pagando por anúncios e observando para quem foram entregues. Eles forneceram centenas de pares de anúncios, cada um deles idênticos em todas as características, menos uma.

Logo depois, descobriram que um anúncio com a mesma imagem era entregue a um número menor de negros. E isso mesmo quando ele alegasse se referir a uma propriedade à venda em vez de uma para alugar. 

Eles também perceberam que a raça de pessoas retratadas nas imagens afetou quais grupos tinham maior probabilidade de ver os anúncios.

Dessa forma, um anúncio de casas baratas à venda, que tinha uma imagem com uma família branca, foi entregue a uma audiência que era 85% branca. Já um mesmo anúncio com uma imagem de família negra foi entregue a cerca de 73% de usuários brancos. 

Leia também: Por que redes sociais escondem números de seus balanços?

Discriminação também envolve gênero

Pesquisadores também descobriram uma disparidade com base no gênero. Os empregos para atendentes de supermercado e zeladores tendem a ser entregues mais às mulheres. Enquanto anúncios de lenhadores eram mais propensos a serem entregues aos homens.  

“Isso ocorre porque os algoritmos do Facebook, treinados em dados historicamente enviesados, preveem que essas pessoas estarão mais interessadas”, explica Sapiezynski.

A pesquisa trouxe evidências de que o Facebook está usando a “visão de máquina”. Nela, computadores digitalizam imagens e reconhecem o que elas representam. Isso é algo assumido há tempos, mas que nunca foi provado. 

Os pesquisadores, então, estabeleceram o uso da visão mecânica, alterando a transparência das imagens usadas em seus anúncios para que fossem visíveis às máquinas. Mas não aos humanos. Por outro lado, anúncios idênticos com fotos diferentes de famílias negras e brancas ainda eram encaminhados para diferentes grupos de pessoas. 

A publicidade, de maneira geral, depende do anúncio atingir seu público-alvo. Mas a capacidade dos algoritmos de atingir esse público está causando um crescente desânimo. Isto é verdadeiro no Facebook, principalmente por causa de sua escala em relação à mídia tradicional.

Posição do Facebook 

O diretor do Centre for Ethics, Society and Computin, da Universidade de Michigan, disse que a pesquisa mostrou que o Facebook está tomando “decisões editoriais drásticas, importantes e potencialmente ilegais”. 

E o Facebook parece aceitar as descobertas. A porta-voz da empresa, Elisabeth Diana, se pronunciou em um comunicado. Ela disse que a companhia se posiciona contra a discriminação de qualquer forma. “Fizemos alterações importantes em nossas ferramentas de segmentação de anúncios. E sabemos que esse é apenas o primeiro passo”, afirmou. 

Ainda de acordo com Elisabeth, a equipe da empresa está analisando o sistema de distribuição de anúncios. Também estão engajando líderes do setor, acadêmicos e especialistas em direitos civis neste mesmo tópico. Além de também estarem explorando mais alterações. 

Ressalva dos pesquisadores

Pesquisadores se esforçam para salientar que não estão fazendo afirmações abrangentes sobre todo o sistema de entrega de anúncios do Facebook. Já que monitoram seu comportamento em apenas algumas situações. 

Não há provas de que o Facebook tenha projetado seus sistemas para discriminar intencionalmente. Mas seu software de aprendizado de máquina, no processo de se treinar nos dados dos usuários para adaptar os anúncios aos seus interesses, parece ter absorvido alguns de seus preconceitos. 

Segundo o Communications Decency Act, as plataformas digitais não são responsáveis pelo comportamento ilegal de seus usuários. Mas a pesquisa mostra que os sistemas do Facebook parecem contribuir para discriminação. 

Após dois anos de péssimas relações públicas, essa pesquisa serve como outro golpe para o Facebook. Neste ano, Mark Zuckerberg tentou retomar a iniciativa pedindo uma extensa regulamentação das empresas de tecnologia digital. Mas ainda sem comentar sobre o modelo de publicidade da rede. 

Neste ponto, a regulamentação pode chegar mais cedo do que ele espera. E, provavelmente, não na forma que ele deseja. 

FONTE