Algoritmo racista: entenda como a Inteligência Artificial pode discriminar

Conheça casos em que máquinas de reconhecimento facial e redes de relacionamento social cometeram atos de racismo algorítmico.

É inegável o poder - e os benefícios - da Inteligência Artificial. A tecnologia proporciona novidades e melhorias em todos os setores, da saúde aos negócios. Sem dúvida, os apps de comunicação são um dos maiores expoentes desse universo. Além de conectar pessoas, se tornaram palco da luta contra diferentes questões sociais, como o racismo. No entanto, surgiu aí um problema: o algoritmo racista, termo que se refere a softwares que privilegiam pessoas brancas.

O exemplo mais recente aconteceu no último fim de semana. Usuários do Twitter notaram que a rede usa um algoritmo racista. No caso, a plataforma oferece uma ferramenta que corta imagens, de forma automática, destacando objetos ou pessoas. Os algoritmos, que seguem critérios definidos na programação, entretanto, parecem preferir quem tem a pele clara.

De acordo com o site O Globo, o primeiro a revelar o viés racista do serviço foi o estudante Colin Madland. Ele usou a ferramenta em uma imagem em que aparece com um colega negro. Como resultado, a tela trouxe somente a foto de Colin, um homem branco.

Em seguida, outros usuários da rede começaram a postar suas próprias imagens para comprovar e denunciar o algoritmo racista. Como resultado, o que se viu é que não importa quantas pessoas uma foto apresenta, pois o recurso sempre cria uma miniatura contemplando tons claros de pele.

O que se entende então é que, para o algoritmo que roda a ferramenta, o rosto branco é visto como a peça mais importante da foto. O Twitter disse que, em seus testes, não encontrou indícios racistas ou de questões de gênero. Mas informou que vai investigar o caso, que demonstra que mais análises são necessárias.

 

Algoritmo racista não é novidade

Algoritmo racista
Imagem: reprodução / pinterest

 

Essa não foi a primeira vez que uma empresa foi acusada de racismo algorítmico. O termo, aliás, define situações em que interfaces e sistemas de Inteligência Artificial seguem tendências enviesadas. Ou seja, os programas têm atitudes discriminatórias baseadas nas características raciais das pessoas.

Foi o que aconteceu, por exemplo, com o Google, em 2015. Na ocasião, um usuário notou que o software de reconhecimento facial da empresa marcava seus amigos negros como gorilas. A empresa nunca conseguiu mudar o tal algoritmo racista. A solução, então, foi deixar de  reconhecer gorilas e outras espécies de símios.

O Google enfrentou ainda outro problema. Desta vez, foi o sistema de busca que apresentou resultados racistas. A pesquisa ‘tranças bonitas’ se associava a pessoas brancas. Por outro lado, o termo ‘tranças feias’ se referia a negros.

No ano de 2016, a Microsoft tirou do ar um programa de Inteligência Artificial que interagia e aprendia com humanos. Isso apenas um dia depois de ser lançado. Tay, nome da ferramenta integrada ao Twitter, não demorou a postar mensagens racistas. O sistema publicou discursos de ódio contra negros e mulheres, por exemplo. Além disso, postou frases que negavam a existência do Holocausto e defendiam Adolf Hitler.

Nesse caso, o maior problema foram as pessoas que entraram no chat interativo do robô e digitaram termos racistas e machistas. Por fim, isso criou uma base de dados enviesada. Por outro lado, quando desenhou o algoritmo, a Microsoft não previu esse tipo de atitude. A empresa de Bill Gates retirou o programa do ar e lamentou o comportamento humano.

 

Reconhecimento facial enviesado

 

O software de reconhecimento facil da empresa Hewlett-Packward viralizou em 2009 porque identificava apenas rostos de pessoas brancas. Veja o vídeo:

Já no começo deste ano, o americano Robert Williams foi vítima de um algoritmo racista.  Ele passou 30 horas detido, em Detroit (Estados Unidos). Um programa de reconhecimento facial identificou que a foto de sua carteira de motorista correspondia à imagem de um ladrão flagrado por câmeras de segurança. Acontece que Robert não era o criminoso.

Assim, entidades de defesa social e racial do país entraram na justiça contra o programa e a empresa que o criou.

Também este ano, Facebook e Instagram anunciaram que precisam melhorar o combate ao racismo nas plataformas. De acordo com a BBC, as empresas vão procurar por vieses no algoritmo. Também vão trabalhar para tornar as redes mais "seguras e justas" para todos.

 

O que são algoritmos?

 

Basicamente, os algoritmos formam um conjunto de raciocínios ou instruções. Eles usam bancos de dados para realizar uma ação ou função. Ou seja, pegam as informações de entrada e processam os dados para, em seguida, atingir um resultado.

Um dos problemas que geram o algoritmo racista é a falta de diversidade no mercado de tecnologia. Isso porque são seres humanos os responsáveis por criar os programas. Portanto, se o desenvolvedor tiver um viés racista, o resultado do software será comprometido.

Isso colabora com o aumento da desigualdade e da discriminação. Afinal, o mundo moderno gira em torno de aparelhos e soluções tecnológicas. Além disso, programas e apps podem reforçar preconceitos em um ritmo acelerado.

Você pode gostar também
Deixe uma resposta

Seu endereço de email não será publicado.

Este site usa cookies para melhorar sua experiência. Vamos supor que você esteja de acordo com isso, mas você pode optar por não participar, se desejar. Aceito Mais detalhes