Damir Sagolj/Reuters
Damir Sagolj/Reuters
Imagem Guy Perelmuter
Colunista
Guy Perelmuter
O Futuro dos Negócios
Conteúdo Exclusivo para Assinante

Silício e Preconceito

Sistemas inteligentes desafiam a sociedade a encarar seus próprios preconceitos

Guy Perelmuter*, O Estado de S.Paulo

03 de março de 2021 | 19h18

Conforme discutimos aqui, uma das técnicas de inteligência artificial mais utilizadas para o desenvolvimento de novas aplicações é conhecida como machine learning (“aprendizado da máquina”), ou ML. De forma simplificada, em ML procura-se apresentar aos algoritmos a maior quantidade possível de dados, permitindo que os sistemas desenvolvam a capacidade de realizar recomendações autonomamente.

Estes algoritmos já influenciam a vida de bilhões de pessoas globalmente, priorizando as notícias que são apresentadas nas telas de nossos smartphones, selecionando os resultados das buscas mais adequados ao nosso perfil, recomendando artigos para compra ou sugerindo filmes e séries para assistirmos. Já há sistemas computacionais que avaliam de forma autônoma e com base nos dados históricos se determinado detento deve ou não receber liberdade condicional, qual o valor de uma fiança e até mesmo a duração de uma sentença. Ao mesmo tempo, a concessão ou não de empréstimos fica a cargo de programas de computador que utilizam centenas de critérios para, instantaneamente, autorizar ou não a transação.

Isso quer dizer que devemos evitar a todo custo que estes sistemas apresentem os mesmos tipos de erros frequentemente causados por preconceitos que contaminam nosso raciocínio. Trata-se de um desafio de elevada complexidade – seja por má programação ou pelo uso de dados que falham em representar de forma completa determinado problema, muitos sistemas inteligentes parecem perpetuar estereótipos e utilizar uma lógica equivocada.

Em um artigo de 2016 assinado por três pesquisadores da Universidade de Princeton – Aylin Caliskan, Joanna Bryson e Arvind Narayanan – quase um trilhão de palavras em inglês foram utilizadas como dados de entrada para avaliar se máquinas possuem algum viés de interpretação. Os resultados indicaram que “a própria linguagem embute preconceitos históricos, sejam eles inofensivos (como na classificação de insetos ou flores), problemáticos em relação à raça ou gênero, ou factuais refletindo a distribuição de gênero em relação a nomes ou profissões.”

Também em 2016, a revista mensal da ACM (Association for Computing Machinery, a maior sociedade internacional de aprendizado para computação do mundo, fundada em 1947) publicou o artigo de Nicholas Diakopoulos (PhD em Ciência da Computação pelo Georgia Tech Institute), intitulado Accountability in Algorithmic Decision Making (“A Responsabilidade dos Processos de Tomada de Decisão baseados em Algoritmos”). Se de fato os chamados sistemas inteligentes continuarem sua expansão para diversas áreas de negócios, serviços e governos, será imprescindível que não sejam contaminados pelos preconceitos que seres humanos acabam desenvolvendo, consciente ou inconscientemente. É provável que o modelo ideal envolva a colaboração entre máquinas e seres humanos, que deverão ser responsáveis por decisões sobre temas com nuances e complexidades ainda não compreendidas inteiramente por modelos e algoritmos.

Em um trabalho de 2018, por exemplo, a cientista de computação e ativista digital Joy Buolamwini do Massachusetts Institute of Technology (MIT) testou três sistemas de reconhecimento facial disponíveis comercialmente: dois norte-americanos e um chinês. O sexo de homens brancos foi corretamente detectado 99% das vezes – entretanto, mulheres negras só foram identificadas em 35% dos casos. O problema reside não no uso dos sistemas, mas sim na escolha de um conjunto de treinamento que não contempla de forma adequada a diversidade de raças e gêneros. 

Questões ligadas ao treinamento das máquinas para que elas possam desempenhar suas funções corretamente, sem que nossos próprios preconceitos interfiram, são de fundamental importância: quanto mais difundidas, mais iremos aceitar de forma passiva os resultados dessas tecnologias. Em nossa próxima coluna, iremos discutir as “fake news” – que exploram de forma maliciosa estereótipos e pontos de vista radicais para semear confusão e polêmica. Até lá.

*FUNDADOR DA GRIDS CAPITAL E AUTOR DO LIVRO "FUTURO PRESENTE - O MUNDO MOVIDO À TECNOLOGIA", VENCEDOR DO PRÊMIO JABUTI 2020 NA CATEGORIA CIÊNCIAS. É ENGENHEIRO DE COMPUTAÇÃO E MESTRE EM INTELIGÊNCIA ARTIFICIA

Encontrou algum erro? Entre em contato

Comentários

Os comentários são exclusivos para assinantes do Estadão.

O Estadão deixou de dar suporte ao Internet Explorer 9 ou anterior. Clique aqui e saiba mais.