
Vieses Algorítmicos: Como a IA Perpetua Desigualdades Corporativas (parte I de II)
Análise sobre como sistemas de IA em RH podem discriminar sem que percebamos
1. O Paradoxo da Neutralidade Tecnológica
Imagine se sua próxima promoção fosse decidida por um algoritmo. Parece justo? Afinal, máquinas não têm preconceitos, certo? Errado. E esse é exatamente o problema que precisamos urgentemente discutir.
Empresas ao redor do mundo estão adotando Inteligência Artificial em seus processos de Recursos Humanos, prometendo mais “objetividade” e “eficiência”. De acordo com dados da Gartner, 76% das organizações de grande porte já usam ou planejam usar IA em recrutamento até 2025. O argumento é sedutor: se é tecnologia, é imparcial.
Mas aqui está a realidade inconveniente: algoritmos aprendem e amplificam preconceitos humanos históricos. A inteligência artificial em recursos humanos, longe de eliminar vieses, pode estar criando uma forma mais sofisticada e invisível de discriminação — uma que é mais difícil de detectar, questionar e combater.
2. Como a IA “Aprende” Preconceitos
2.1 O Princípio do Espelho Digital
Para que possamos entender como a IA pode ser discriminatória, precisamos compreender seu funcionamento básico. Algoritmos de IA são treinados com dados históricos. Se no passado uma empresa contratou majoritariamente mulheres para cargos de liderança, a IA “aprende” que mulheres equivalem a um bom fit para liderança. O sistema não está fazendo julgamentos morais — está simplesmente replicando e amplificando padrões do passado.
- Caso Real: Amazon (2018): Um dos casos mais emblemáticos ocorreu na Amazon. A empresa desenvolveu uma IA para filtrar currículos automaticamente, mas logo descobriu que o sistema penalizava currículos que continham palavras como “mulheres” (exemplo: “capitã do time de xadrez feminino”) e desfavorecia graduadas de universidades exclusivamente femininas.
- O motivo? A IA foi treinada com dados de contratações dos últimos 10 anos, que eram predominantemente masculinas na área de tecnologia. O sistema estava simplesmente fazendo seu trabalho: identificando padrões. O problema é que esses padrões refletiam uma discriminação histórica.
- O resultado? O projeto foi descontinuado, mas quantos outros sistemas similares estão operando agora mesmo, sem que ninguém tenha detectado os vieses?
2.2 Os Tipos de Vieses Algorítmicos em RH
a) Viés de Seleção de Dados: Dados históricos refletem discriminações passadas. Se uma empresa nunca contratou pessoas acima de 50 anos para tech, a IA aprende que idade é um “fator negativo”.
b) Viés de Proxy (Correlação Espúria): IA usa variáveis aparentemente neutras e as correlacionam com características protegidas. Por exemplo, o CEP pode ser proxy para raça ou classe social; o nome pode indicar etnia ou gênero.
c) Viés de Confirmação Automatizada: O sistema privilegia candidatos similares aos que já tiveram “sucesso”, perpetuando assim a falta de diversidade por meio do princípio “mais do mesmo”.
d) Viés de Rotulagem: Quando as pessoas rotulam dados de treinamento com seus próprios preconceitos. Por exemplo, avaliadores podem marcar mulheres assertivas como “agressivas” enquanto classificam homens com o mesmo comportamento como “líderes natos”.
3. Onde os Vieses Se Manifestam no Ciclo de RH
3.1 Recrutamento e Seleção
a) Análise de Currículos:
- Sistemas ATS (Applicant Tracking Systems) filtram por palavras-chave e podem penalizar gaps no currículo, afetando desproporcionalmente mulheres que tiraram licença-maternidade;
- Desfavorecem formações não-tradicionais como bootcamps ou autodidatas.
b) Entrevistas por Vídeo com Análise Facial:
Tecnologias como HireVue analisam expressões faciais e tom de voz. O problema? Algoritmos treinados majoritariamente com rostos brancos têm dificuldade de “ler” expressões em tons de pele mais escuros. Além disso, há viés contra neurodiversidade (pessoas no espectro autista podem ter padrões de expressão diferentes) e penalização de sotaques regionais ou estrangeiros.
c) Testes de Personalidade Automatizados:
Avaliam “fit cultural”, mas podem discriminar contra introvertidos, pessoas com ansiedade ou culturas diferentes.
3.2 Avaliação de Desempenho
Sistemas de Performance Management baseados em métricas históricas podem, por exemplo, penalizar quem teve menos acesso a oportunidades de desenvolvimento. O “Efeito Mateus” entra em ação: quem já é bem avaliado recebe mais oportunidades, mantendo dessa maneira o ciclo.
Análise Preditiva de Potencial usa IA para prever quem será “high performer”, mas baseada em quem foi considerado high performer no passado — geralmente homens brancos em posições seniores.
3.3 Promoções e Sucessão
Algoritmos de “detecção de liderança” são baseados em perfis históricos, criando viés contra estilos de liderança menos tradicionais (mais colaborativos vs. autoritários). Sistemas de mapeamento de sucessão recomendam sucessores similares aos líderes atuais, perpetuando homogeneidade na liderança.
3.4 Remuneração
Sistemas de banda salarial que usam IA para analisar o mercado podem perpetuar gaps históricos. Algoritmos que decidem quem recebe ajustes podem penalizar quem não pediu aumentos.
4. Casos Reais que Expõem o Problema
Caso 1: LinkedIn – Viés de Gênero em Sugestões
Estudo do MIT (2019) revelou que o algoritmo de recomendação de vagas do LinkedIn mostrava oportunidades de alta remuneração mais frequentemente para homens. Mesmo com qualificações idênticas, homens recebiam 20-30% mais sugestões para cargos seniores.
Caso 2: Programa de Benefícios da Saúde (EUA)
Um algoritmo usado por hospitais para alocar recursos de saúde preventiva desfavorecia sistematicamente pacientes negros. O motivo? Usava “gastos históricos com saúde” como proxy de “necessidade de cuidados”. Pacientes negros historicamente têm menos acesso e gastam menos, não porque precisam menos, mas porque enfrentam barreiras sistêmicas.
Caso 3: Sistema de Agendamento da Amazon
IA utilizada para criar escalas de trabalho penalizava funcionários que pediam ajustes (mulheres com filhos, pessoas com deficiência). O sistema otimizava “produtividade” sem de fato considerar necessidades individuais.
Caso 4: Análise de Sentimento em Redes Sociais
Empresas usam IA para analisar perfis sociais de candidatos, criando viés contra dialetos, expressões culturais bem como contextos socioeconômicos diferentes.
5. Por Que Isso É Tão Perigoso?
5.1 Ilusão de Objetividade
“Decisão técnica, logo neutra” — mas não é. Gestores se sentem menos responsáveis: “foi o sistema que decidiu”. É muito mais difícil questionar uma máquina do que uma pessoa.
5.2 Escala e Velocidade
Um viés humano afeta decisões individuais. Um viés algorítmico pode afetar milhares de decisões simultaneamente, amplificando assim desigualdades em escala industrial.
5.3 Invisibilidade e Opacidade
“Black box” — nem os criadores entendem completamente como o algoritmo decide. Falta de transparência significa que candidatos não sabem por que foram rejeitados, dificultando assim a auditoria e a correção.
5.4 Legitimação Técnica do Preconceito
Vieses ganham verniz de “ciência” e “dados”, tornando-se mais difíceis de combater. A frase “Mas os números mostram…” naturaliza desigualdades estruturais.
5.5 Círculo Vicioso
IA discrimina → menos diversidade → dados futuros mais enviesados → IA aprende vieses mais fortes. É a perpetuação e amplificação geracional de desigualdades.
6. Sinais de Alerta: Como Identificar Vieses
a) Indicadores Quantitativos
- Disparidade estatística: Grupos demográficos têm taxas de aprovação/reprovação significativamente diferentes?
- Taxa de falsos positivos/negativos: Erros são distribuídos igualmente entre grupos?
- Representatividade nos dados: Base de treinamento reflete diversidade populacional?
b) Perguntas Críticas para Fazer:
- Quais dados históricos estão alimentando este sistema?
- Quem treinou este algoritmo e qual era a composição demográfica da equipe?
- Este sistema foi testado em diferentes grupos demográficos?
- Há transparência sobre quais fatores pesam nas decisões?
- Existe processo de auditoria e correção regular?
- Candidatos/funcionários podem contestar decisões automatizadas?
c) Red Flags Organizacionais:
- Empresa não consegue explicar como o sistema toma decisões;
- Nenhuma auditoria de viés foi realizada;
- Fornecedor de tecnologia não oferece garantias de equidade;
- Dados de treinamento são de períodos/contextos não-diversos;
- Não há diversidade na equipe que desenvolveu/implementou a IA.
Na Parte II, mostraremos como auditar, governar e humanizar algoritmos antes que eles decidam o futuro das pessoas.
Gostou do artigo?
Quer saber mais sobre como os sistemas de IA usados no RH da sua empresa podem estar reproduzindo vieses e dessa forma perpetuando desigualdades sem que isso seja percebido? Então, entre em contato comigo. Terei o maior prazer em conversar a respeito.
Até o próximo artigo!
Um abraço.
Marcelo Farhat
https://www.meetnetwork.net
https://www.linkedin.com/in/araujomf/
Confira também: O Poder da Parceria: Como Ecossistemas e Plataformas Redefinem Valor e Competitividade
Palavras-chave: vieses algorítmicos, inteligência artificial no RH, discriminação algorítmica, IA em recursos humanos, desigualdades corporativas, como a IA perpetua desigualdades corporativas, vieses algorítmicos em processos de RH, discriminação em algoritmos de recrutamento, impacto da IA nas decisões de RH, o que são vieses algorítmicos, o que são vieses algorítmicos no RH
REFERÊNCIAS BIBLIOGRÁFICAS
Artigos Científicos e Estudos
- BUOLAMWINI, J.; GEBRU, T. Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of Machine Learning Research, v. 81, p. 1-15, 2018. Disponível em: https://proceedings.mlr.press/v81/buolamwini18a.html. Acesso em: 07 nov. 2025.
- DASTIN, J. Amazon scraps secret AI recruiting tool that showed bias against women. Reuters, 10 out. 2018. Disponível em: https://www.reuters.com/article/us-amazon-com-jobs-automation-insight. Acesso em: 07 nov. 2025.
- GARTNER. Gartner Survey Reveals 76% of HR Leaders Believe Their Organization Must Adopt and Implement AI Solutions in the Next 12 to 24 Months. Gartner Press Release, 2024. Disponível em: https://www.gartner.com/en/newsroom/press-releases. Acesso em: 07 nov. 2025.
- OBERMEYER, Z. et al. Dissecting racial bias in an algorithm used to manage the health of populations. Science, v. 366, n. 6464, p. 447-453, 2019. DOI: 10.1126/science.aax2342.
- RAGHAVAN, M. et al. Mitigating bias in algorithmic hiring: Evaluating claims and practices. Proceedings of the 2020 Conference on Fairness, Accountability, and Transparency, p. 469-481, 2020. DOI: 10.1145/3351095.3372828.
- WILSON, H. J.; DAUGHERTY, P. R.; BIANZINO, N. The jobs that artificial intelligence will create. MIT Sloan Management Review, v. 58, n. 4, p. 14-16, 2017.
Livros
- BENJAMIN, R. Race After Technology: Abolitionist Tools for the New Jim Code. Cambridge: Polity Press, 2019. 172 p.
- EUBANKS, V. Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. New York: St. Martin’s Press, 2018. 288 p.
- NOBLE, S. U. Algorithms of Oppression: How Search Engines Reinforce Racism. New York: NYU Press, 2018. 256 p.
- O’NEIL, C. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. New York: Crown Publishing, 2016. 272 p.
Relatórios e Documentos Institucionais
- DELOITTE. State of AI in the Enterprise, 5th Edition. 2022. Disponível em: https://www2.deloitte.com/us/en/pages/consulting/articles/state-of-ai-2022.html. Acesso em: 07 nov. 2025.
- EUROPEAN COMMISSION. Proposal for a Regulation on a European Approach for Artificial Intelligence. Brussels: European Commission, 2021. (EU AI Act).
- MIT-IBM WATSON AI LAB. AI Fairness in Practice: Challenges, Solutions, and Future Directions. Cambridge: Massachusetts Institute of Technology, 2019.
- WORLD ECONOMIC FORUM. The Future of Jobs Report 2023. Geneva: World Economic Forum, 2023. Disponível em: https://www.weforum.org/reports/the-future-of-jobs-report-2023. Acesso em: 07 nov. 2025.
Legislação
- BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Diário Oficial da União, Brasília, DF, 15 ago. 2018. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm. Acesso em: 07 nov. 2025.
- EUROPEAN UNION. Regulation (EU) 2016/679 of the European Parliament and of the Council. General Data Protection Regulation (GDPR). Official Journal of the European Union, 27 Apr. 2016. Disponível em: https://eur-lex.europa.eu/eli/reg/2016/679/oj. Acesso em: 07 nov. 2025.
- NEW YORK CITY. Local Law 144 of 2021: Automated Employment Decision Tools. New York City Administrative Code, 2021. Disponível em: https://www.nyc.gov/site/dca/about/automated-employment-decision-tools.page. Acesso em: 07 nov. 2025.
Documentários e Recursos Audiovisuais
- CODED BIAS. Direção: Shalini Kantayya. Produção: 7th Empire Media. Estados Unidos: Netflix, 2020. 1 documentário (90 min).
Ferramentas e Recursos Técnicos
- BELLAMY, R. K. E. et al. AI Fairness 360: An extensible toolkit for detecting and mitigating algorithmic bias. IBM Journal of Research and Development, v. 63, n. 4/5, p. 4:1-4:15, 2019. DOI: 10.1147/JRD.2019.2942287.
- BIRD, S. et al. Fairlearn: A toolkit for assessing and improving fairness in AI. Microsoft Technical Report, MSR-TR-2020-32, 2020. Disponível em: https://www.microsoft.com/en-us/research/publication/fairlearn-a-toolkit-for-assessing-and-improving-fairness-in-ai/. Acesso em: 07 nov. 2025.
- SALEIRO, P. et al. Aequitas: A Bias and Fairness Audit Toolkit. arXiv preprint arXiv:1811.05577, 2018. Disponível em: https://arxiv.org/abs/1811.05577. Acesso em: 07 nov. 2025.
Sites e Plataformas
- AI NOW INSTITUTE. Research Institute examining the social implications of artificial intelligence. New York University. Disponível em: https://ainowinstitute.org/. Acesso em: 07 nov. 2025.
- ALGORITHMIC JUSTICE LEAGUE. Organization combining art and research to illuminate the social implications of AI. Disponível em: https://www.ajl.org/. Acesso em: 07 nov. 2025.

Participe da Conversa