Arquivo pessoal
Luiza Berger von Ende, que faz pesquisas sobre Direito e internet na Universidade de Santa Maria.  Arquivo pessoal

‘Algoritmos possuem pontos cegos e refletem quem programou’, diz pesquisadora

Inteligência artificial deve ser desenvolvida e verificada por times diversos, defende integrante de centro de estudos em Direito e Internet

Bianca Zanatta, Especial para o Estadão

10 de agosto de 2021 | 10h00

Integrante do Cepedi (Centro de Estudos e Pesquisas em Direito e Internet) da UFSM (Universidade de Santa Maria), que desenvolve pesquisas sobre a relação e os impactos da internet e das novas tecnologias no mundo do Direito, a estudante de Direito e Informática Luiza Berger von Ende alerta para os perigos de usar uma inteligência artificial (IA) que não seja desenvolvida e verificada por times diversos.

“A IA é basicamente um algoritmo, uma sequência lógica finita de passos programados com um objetivo específico”, ela fala. A partir do primeiro tratamento dos dados, a máquina vai aprimorando os caminhos que deram certo, baseada na devolutiva do programador.

“Como ela vai se aperfeiçoando e encontrando esses parâmetros para atender ao objetivo do programador, muitas vezes os caminhos se tornam extensos e tão complexos que o próprio humano não consegue compreender como e por que aconteceram - afinal, é uma linguagem da própria máquina, que a IA compreendeu como melhor caminho para chegar a um objetivo satisfatório”, observa a especialista. “E é aí que se escondem os vieses. Não necessariamente pela programação, nos casos em que a máquina é programada para não fazer discriminação, mas pela base de dados com que ela é treinada, que é enviesada.” 

Ela lembra o caso da Amazon, mencionado no livro Weapons of Math Destruction: how big data increases inequality and threatens democracy (Armas de Destruição Matemática: como big data aumenta a desigualdade e ameaça a democracia, em tradução livre), da matemática americana Cathy O’Neil.

“A empresa utilizou uma IA para fazer a contratação de novas pessoas para a área de tecnologia e essa IA foi treinada sobre as contratações dos últimos anos”, diz a estudiosa. Só que as contratações anteriores foram quase na sua totalidade de homens.  “Historicamente, há uma exclusão de mulheres nas áreas de tecnologia e ciências exatas. Mesmo que fosse não programada explicitamente para eliminar, a máquina viu essa base de dados composta por homens e entendeu que a empresa buscava pessoas parecidas - ou seja, homens.” 

Luiza conta que, no caso da Amazon, títulos que tinham referências a mulheres, como “líder do clube de xadrez feminino”, ou nomes de universidades que eram somente frequentadas pelo público feminino eram descartados, mesmo que as qualificações fossem superiores às de outros currículos masculinos.

Isso foi percebido depois de um tempo, quando já haviam ocorrido contratações com discriminações, justamente porque não se sabia o rumo que a máquina tinha seguido para tomar as decisões. “Os algoritmos são simplificações de mundo. Eles nunca vão compreender o contexto da relação humana e a complexidade dessa tarefa que estão realizando”, ela sublinha. “Eles têm um objetivo bem específico e por isso possuem pontos cegos que refletem, sim, a ideologia e os objetivos da pessoa que programou.” 

Para que a IA cumpra seu papel com mais assertividade, a especialista defende que seja programada com preceitos éticos e pensada não só para, mas pela diversidade. “Enquanto as equipes de programação e desenvolvedores não forem diversas, compostas por pessoas que têm visões de mundo diferentes, em vez de equipes unilateralmente e majoritariamente formadas por homens brancos com algum tipo de educação superior, vai acontecer uma discriminação, uma correlação errada”, afirma. 

* Quer debater assuntos de Carreira e Empreendedorismo? Entre para o nosso grupo no Telegram pelo link ou digite @gruposuacarreira na barra de pesquisa do aplicativo

Encontrou algum erro? Entre em contato

Comentários

Os comentários são exclusivos para assinantes do Estadão.

Recrutamento por inteligência artificial: funciona como prometido?

Cresce o uso de IA nos processos seletivos, mas há preocupação de robôs potencializarem preconceitos humanos; seleção demanda currículos customizados

Bianca Zanatta, Especial para o Estadão

10 de agosto de 2021 | 10h01

Acelerado pela pandemia, o uso de inteligência artificial (IA) nos processos seletivos das empresas é uma tendência em expansão. Na última edição da pesquisa State of Artificial Intelligence in Talent Acquisition, divulgada pela Oracle em 2019, apenas 10% das empresas faziam um uso alto ou muito alto de ferramentas de IA para a aquisição de novos talentos, mas 37% afirmaram que passariam a utilizar o método nos dois anos seguintes.

Cá estamos nós em 2021 - e, de fato, os processos seletivos estão cada vez mais tecnológicos, mesmo no Brasil. As opiniões sobre se a IA realmente seleciona os candidatos assertivamente, no entanto, divergem. De um lado, empresas defendem que a tecnologia facilitou e aprimorou as contratações; do outro, há uma preocupação de que a IA possa aprender e até potencializar vieses humanos, eliminando bons candidatos por seguir padrões prévios de contratação, por exemplo.

“São os profissionais que alimentam, delimitam parâmetros e monitoram a tecnologia”, defende Ana Paula Prado, country manager do InfoJobs, que desenvolveu o software de recrutamento e seleção PandaPé. “Para a IA funcionar de forma assertiva, o RH precisa mostrar o caminho, apresentar o perfil da empresa e as necessidades da vaga, todos os pré-requisitos, filtros de triagem e o fluxo de adequação. A tecnologia facilita a rotina, mas não substitui o trabalho.”

A executiva diz que o PandaPé usa uma rede neural e armazena os dados de acordo com o comportamento dos recrutadores, perfil da empresa e informações pré-definidas para a triagem de currículos. A IA, segundo ela, considera apenas competências e habilidades, desconsiderando vieses inconscientes. “Além disso, cada área de trabalho possui palavras-chave que são usadas no dia a dia daquele setor, então uma boa dica é se atentar a esses termos e incluí-los no currículo”, ela aconselha.

Ana Paula fala que o mapeamento de dados de fato ajuda a indicar o profissional mais aderente. “Um dos nossos clientes, a SBK, conseguiu candidatos 60% mais aderentes com os filtros inteligentes. E a Brasil Risk conseguiu reduzir em mais de 50% o turnover com contratações mais alinhadas”, ela exemplifica.

Treino da inteligência artificial

Em um primeiro momento, a IA veio para ajudar com o volume de currículos recebidos. Segundo a empresa de tecnologia para RH Gupy, a média nas companhias com mais de 5 mil empregados é de 790 candidatos por vaga. A Gaia, IA desenvolvida por eles, entra para auxiliar nesse processo. “A IA analisa todos os currículos e monta um ranking de pessoas candidatas segundo a afinidade com a vaga”, fala Guilherme Dias, COO e cofundador da empresa. “Esse ranking é tão assertivo que 70% das contratações realizadas na Gupy são de profissionais que estão nesse top 10.” 

A Gaia é treinada desde o início para não aprender com algum viés - e esse é um trabalho interminável, de acordo com Dias. Ela não analisa gênero, etnia, orientação sexual ou que universidade os candidatos cursaram, por exemplo, e sempre aplica o mesmo peso a todos os fatores (experiências, formação e resultados de testes, entre outros). “Assim ela é menos sujeita a um viés cognitivo e não se influencia com aspectos específicos de uma pessoa para beneficiá-la”, ele atesta.

Ainda assim, o executivo aponta para a importância de os candidatos também montarem currículos assertivos e destaca questões que as IAs normalmente analisam. Uma delas é o “fit” do perfil do profissional com a vaga - ou seja, o quanto a pessoa combina com os requisitos. Outra são as preferências da empresa (por exemplo, se ela dá mais peso à formação técnica ou à experiência profissional). 

“Muitas pessoas criam um currículo e um perfil em sites de empregos e o mantêm estático, sem nenhuma modificação, e isso é um dos erros mais comuns que levam à perda de oportunidades”, afirma. "É importante fazer com que o currículo reflita as experiências, conhecimentos e habilidades que realmente serão relevantes para cada vaga.”

Testes psicométricos para evitar vieses

A Mindsight busca evitar os currículos na triagem de candidatos e aposta em testes psicométricos que avaliam personalidade, valores, habilidades cognitivas, sociais e emocionais para ajudar seus clientes no recrutamento. “Esses critérios independem de qualquer background das pessoas. Se uma empresa está procurando uma pessoa comunicativa, é possível ignorar formação, status social, cor, gênero, orientação sexual, idade e qualquer outra questão que possa trazer vieses”, afirma o CEO, Thaylan Toth. 

Ele explica que um teste psicométrico com validade estatística exige uma amostra grande de pessoas para ajustar os parâmetros, já que a ideia é justamente que tenha critérios livres de vieses. Para isso, além da quantidade, é necessário que as pessoas sejam diversas. “No caso da Mindsight, levamos cerca de um ano e meio para lançar oficialmente a primeira bateria de testes, que foram validados com base em milhares de pessoas”, revela. 

  • Quer debater assuntos de Carreira e Empreendedorismo? Entre para o nosso grupo no Telegram pelo link ou digite @gruposuacarreira na barra de pesquisa do aplicativo

Com o alcance atual da ferramenta (centenas de milhares de candidatos realizando os testes todo mês), o processo ficou mais fácil, mas o executivo fala que ainda exige muito cuidado. “Existem critérios de confiabilidade e validade estatística dos testes que são necessários para que ele realmente funcione, e vemos muitas ferramentas no mercado com pouca consistência nessas frentes e desenvolvimento em tempo recorde”, observa. “É preciso que as empresas se atentem a essas questões para não acabarem utilizando critérios pouco confiáveis na seleção.”

Cautela com a tecnologia

Desenvolvedora de um software de recrutamento baseado na psicologia organizacional, a Kenoby não usa IA em seus processos. “No geral, a IA busca padrões no currículo, mas se aquilo é bom ou ruim vai de acordo com o input da pessoa recrutadora e isso retroalimenta a tecnologia. Aquelas características passam a ser excluídas pela IA”, explica Felipe Sobral, diretor de marketing da empresa. “A gente quer cada vez mais desconstruir o uso do currículo no recrutamento para incluir, não excluir pessoas.”

Segundo o executivo, a psicologia organizacional mapeia questões psíquicas para traçar o perfil do profissional em três pilares. O primeiro é o cultural: se os valores, atitudes e estilos de trabalhar estão alinhados à personalidade da empresa. O segundo é um mapeamento comportamental, para o qual usam a metodologia Big Five. “São 16 construtos, como iniciativa individual, criatividade, trabalho em equipe e se a pessoa está disposta a adotar tecnologias novas, por exemplo”, explica. 

O mapeamento situacional fecha o tripé. É uma maneira de medir as competências técnicas através da simulação de situação. “São testes em que a pessoa responde às perguntas e tira uma nota”, ele conta. “Isso não diz se o profissional é melhor ou pior, só mostra se é mais de um jeito ou de outro. E é a pessoa recrutadora que vai decidir, de acordo com a psicologia organizacional, que perfil é mais indicado.”

Encontrou algum erro? Entre em contato

Comentários

Os comentários são exclusivos para assinantes do Estadão.

O Estadão deixou de dar suporte ao Internet Explorer 9 ou anterior. Clique aqui e saiba mais.