A segunda-feira se aproxima. Para quem busca recolocação, é mais uma semana de oportunidades, vagas e testes nas plataformas. A esperança é que o currículo seja considerado compatível com a vaga. No entanto, o ‘match’ não acontece. O problema pode não estar no currículo, mas na tecnologia usada pelas plataformas de recrutamento.
Nesse contexto, Kyra Wilson e Aylin Caliskan, da Universidade de Washington, conduziram uma pesquisa que destaca uma questão crítica. A tecnologia utilizada para a triagem de currículos parecem estar perpetuando os vieses raciais e de gênero. Como resultado, isso pode prejudicar a diversidade nas empresas além de diminuir as chances de recolocação no mercado.
Os resultados refletiram a realidade.
Para investigar essa questão, o estudo avaliou três modelos de linguagem de código aberto. Ele examinou como esses modelos lidam com candidatos a partir de diferentes combinações de raça, gênero e cargo. Para isso, os pesquisadores usaram 554 currículos e 571 descrições de cargos extraídos de vagas como: diretor executivo, gerente de marketing e vendas, gerente em geral, trabalhador de recursos humanos, contador, auditor, engenheiro, professor de ensino médio, designer e vendedor. Além disso, eles alteraram os currículos trocando por 120 nomes geralmente associados a homens, mulheres, negros e brancos.
Os resultados mostraram a existência de viés de gênero e raça, além do viés interseccional (quando gênero e raça se combinam).
Vamos esclarecer, de uma forma bem simplista, que os vieses de raça e gênero são estereótipos, inconscientes ou não, que influenciam como as pessoas são percebidas e tratadas com base em seu gênero ou raça.
De acordo com Kyra Wilson, entre as 3 milhões de combinações testadas de cargo, raça e gênero, os homens negros tiveram o pior desempenho. Os modelos preferiram outros candidatos quase 100% das vezes.
Além disso, os testes com currículos contendo nomes de mulheres brancas versus nomes de mulheres negras mostraram uma preferência significativa por nomes brancos em 48,1% dos casos. Por outro lado, nomes de mulheres negras foram preferidos apenas em 25,9% dos casos. Além disso, testes com nomes de mulheres negras versus homens negros revelaram uma preferência significativa por mulheres negras em 66,7% dos testes. Em contrapartida, os homens negros foram preferidos apenas em 14,8% dos testes.
Curiosamente, apenas um dos modelos exibiu os vieses mais consistentes contra currículos com nomes de mulheres negras. Esse modelo sempre preferiu currículos com nomes de mulheres brancas e teve a maior taxa de preferência por nomes de homens negros também. Comparações entre currículos com nomes de homens negros e homens brancos revelaram os maiores vieses. Nomes de homens brancos foram significativamente preferidos em todos os 27 testes realizados, até mesmo em áreas como Recursos Humanos, onde as mulheres são predominantemente empregadas.
E por que isso acontece?
Esse viés ocorre porque a IA aprende com dados históricos. Assim sendo, ela replica padrões de privilégio e desigualdade contidos nas bases de treinamento. Corrigir esses vieses é desafiador porque mesmo omitindo os nomes, os modelos ainda conseguem inferir raça e gênero com base em fatores como histórico educacional, localização residencial e estilo de linguagem.
Portanto, esse cenário traz uma mensagem importante para líderes e desenvolvedores de IA: é essencial criar bases de dados neutras e livres de preconceitos. Realizar testes contínuos garante que a tecnologia não acentue desigualdades.
Por fim, vivemos um momento crucial para refletir sobre a ética e a equidade no uso da IA no mercado de trabalho. Quando utilizada corretamente, essa tecnologia pode transformar o recrutamento e permitir que as empresas contratem de maneira mais objetiva e inclusiva. Contudo, sem uma abordagem consciente, essa poderosa ferramenta pode se tornar uma barreira à diversidade.
Como você acha que essa situação pode ser resolvida?
Clique aqui para ler a pesquisa original.