
Vieses Algorítmicos: Como a IA Perpetua Desigualdades Corporativas (parte II de II)
Análise sobre como sistemas de IA em RH podem discriminar sem que percebamos
Dando continuidade à parte I (leia aqui) sobre a análise de como os sistemas de IA em RH podem discriminar sem que percebamos, vamos então concluir com uma chamada à ação sob o aspecto de que a IA em RH não é vilã nem heroína — é ferramenta.
7. O Que Pode Ser Feito? Soluções e Boas Práticas
7.1 No Nível Técnico
Auditoria Algorítmica: Testes regulares de viés em diferentes grupos demográficos, análise de disparate impact (impacto desproporcional). Ferramentas disponíveis: AI Fairness 360 (IBM), Fairlearn (Microsoft), What-If Tool (Google).
Dados Diversos e Representativos: Garantir que dados de treinamento incluam diversidade real. Não usar apenas dados históricos enviesados. Aplicar técnicas de balanceamento de dataset.
Explicabilidade (XAI – Explainable AI): Usar modelos mais interpretáveis quando possível, documentar fatores de decisão e permitir que humanos entendam o ‘por quê’.
Técnicas de Debiasing
- Pre-processing: limpar vieses dos dados de entrada;
- In-processing: ajustar algoritmo durante treinamento;
- Post-processing: corrigir outputs enviesados.
7.2 No Nível Organizacional
Governança de IA: Criar comitês de ética em IA, incluir diversidade de perspectivas e estabelecer políticas claras de uso responsável.
Transparência: Informar candidatos/funcionários quando IA é usada, garantir direito de explicação sobre decisões e, além disso, possibilidade de contestação com revisão humana.
Humanos no Loop (Human-in-the-Loop): IA deve ser utilizada como ferramenta de apoio, mas não como decisor único. Revisão humana de decisões críticas e empoderamento de pessoas para que possam questionar o sistema.
Treinamento: Educar RH sobre vieses algorítmicos, desenvolver consciência crítica sobre limitações da tecnologia e, além disso, não terceirizar responsabilidade ética para máquinas.
7.3 No Nível Regulatório/Legal
Legislações Emergentes:
- LGPD (Brasil): direito a não ser submetido a decisões automatizadas;
- GDPR (Europa): direito a explicação do resultado;
- EU AI Act: classificação de risco de sistemas de IA;
- NYC Local Law 144: auditoria obrigatória de ferramentas de contratação automatizadas.
Responsabilização: Empresas devem ser responsáveis por discriminação algorítmica, assim como já são por discriminação humana. Por isso, são necessárias políticas claras, ações de compliance e mecanismos de prestação de contas sobre a análise de imparcialidade dos sistemas de IA.
8. O Paradoxo: IA Pode Reduzir Vieses?
O Lado Otimista
Sim, IA BEM FEITA pode ajudar:
- Remover informações identificadoras (blind hiring);
- Analisar padrões de linguagem enviesada em descrições de vaga;
- Detectar inconsistências em avaliações humanas;
- Expandir pool de candidatos além de networks tradicionais;
- Monitorar equidade salarial em tempo real.
Exemplos Positivos:
- Textio: IA que reescreve descrições de cargos para eliminar linguagem enviesada;
- GapJumpers: auditoria cega para habilidades, não currículos;
- Pymetrics: jogos neurocientíficos que avaliam competências sem viés de background.
Mas…
Esses sistemas funcionam porque foram INTENCIONALMENTE desenhados para combater vieses. Não acontece automaticamente. Requer vigilância constante e, sem dúvida, atualização.
9. Conclusão — Chamada à Ação
A IA em RH não é vilã nem heroína, mas uma ferramenta. O problema não é a tecnologia em si, mas a ilusão de que ela nos isenta de responsabilidade moral. Vieses algorítmicos são, em última análise, vieses humanos sistematizados e amplificados.
Não podemos terceirizar justiça para algoritmos. A responsabilidade por equidade, diversidade e inclusão continua, sem dúvida alguma, sendo humana, ética e política — não técnica.
- Sua empresa usa IA em processos de RH? Você sabe como funciona?
- Já questionou decisões automatizadas que pareciam injustas?
- Como líder/profissional de RH/coach, você está de fato preparado para identificar e combater vieses algorítmicos?
- Que papel você pode desempenhar na criação de sistemas mais justos?
Gostou do artigo?
Quer saber mais sobre como combater vieses algorítmicos no RH e usar IA com responsabilidade, transparência bem como justiça nas decisões corporativas? Então, entre em contato comigo. Terei o maior prazer em conversar a respeito.
Até o próximo artigo!
Um abraço.
Marcelo Farhat
https://www.meetnetwork.net
https://www.linkedin.com/in/araujomf/
Confira também: Vieses Algorítmicos: Como a IA Perpetua Desigualdades Corporativas (parte I)
Palavras-chave: vieses algorítmicos no RH, IA em RH, discriminação algorítmica, governança de IA, equidade e diversidade, como combater vieses algorítmicos no RH, auditoria algorítmica em recrutamento, IA ética em processos de RH, human-in-the-loop em decisões automatizadas, explicabilidade em sistemas de IA corporativos
REFERÊNCIAS BIBLIOGRÁFICAS * Artigos Científicos e Estudos BUOLAMWINI, J.; GEBRU, T. Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of Machine Learning Research, v. 81, p. 1-15, 2018. Disponível em: https://proceedings.mlr.press/v81/buolamwini18a.html. Acesso em: 07 nov. 2025. DASTIN, J. Amazon scraps secret AI recruiting tool that showed bias against women. Reuters, 10 out. 2018. Disponível em: https://www.reuters.com/article/us-amazon-com-jobs-automation-insight. Acesso em: 07 nov. 2025. GARTNER. Gartner Survey Reveals 76% of HR Leaders Believe Their Organization Must Adopt and Implement AI Solutions in the Next 12 to 24 Months. Gartner Press Release, 2024. Disponível em: https://www.gartner.com/en/newsroom/press-releases. Acesso em: 07 nov. 2025. OBERMEYER, Z. et al. Dissecting racial bias in an algorithm used to manage the health of populations. Science, v. 366, n. 6464, p. 447-453, 2019. DOI: 10.1126/science.aax2342. RAGHAVAN, M. et al. Mitigating bias in algorithmic hiring: Evaluating claims and practices. Proceedings of the 2020 Conference on Fairness, Accountability, and Transparency, p. 469-481, 2020. DOI: 10.1145/3351095.3372828. WILSON, H. J.; DAUGHERTY, P. R.; BIANZINO, N. The jobs that artificial intelligence will create. MIT Sloan Management Review, v. 58, n. 4, p. 14-16, 2017. * Livros BENJAMIN, R. Race After Technology: Abolitionist Tools for the New Jim Code. Cambridge: Polity Press, 2019. 172 p. EUBANKS, V. Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. New York: St. Martin's Press, 2018. 288 p. NOBLE, S. U. Algorithms of Oppression: How Search Engines Reinforce Racism. New York: NYU Press, 2018. 256 p. O'NEIL, C. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. New York: Crown Publishing, 2016. 272 p. * Relatórios e Documentos Institucionais DELOITTE. State of AI in the Enterprise, 5th Edition. 2022. Disponível em: https://www2.deloitte.com/us/en/pages/consulting/articles/state-of-ai-2022.html. Acesso em: 07 nov. 2025. EUROPEAN COMMISSION. Proposal for a Regulation on a European Approach for Artificial Intelligence. Brussels: European Commission, 2021. (EU AI Act). MIT-IBM WATSON AI LAB. AI Fairness in Practice: Challenges, Solutions, and Future Directions. Cambridge: Massachusetts Institute of Technology, 2019. WORLD ECONOMIC FORUM. The Future of Jobs Report 2023. Geneva: World Economic Forum, 2023. Disponível em: https://www.weforum.org/reports/the-future-of-jobs-report-2023. Acesso em: 07 nov. 2025. * Legislação BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Diário Oficial da União, Brasília, DF, 15 ago. 2018. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm. Acesso em: 07 nov. 2025. EUROPEAN UNION. Regulation (EU) 2016/679 of the European Parliament and of the Council. General Data Protection Regulation (GDPR). Official Journal of the European Union, 27 Apr. 2016. Disponível em: https://eur-lex.europa.eu/eli/reg/2016/679/oj. Acesso em: 07 nov. 2025. NEW YORK CITY. Local Law 144 of 2021: Automated Employment Decision Tools. New York City Administrative Code, 2021. Disponível em: https://www.nyc.gov/site/dca/about/automated-employment-decision-tools.page. Acesso em: 07 nov. 2025. *Documentários e Recursos Audiovisuais CODED BIAS. Direção: Shalini Kantayya. Produção: 7th Empire Media. Estados Unidos: Netflix, 2020. 1 documentário (90 min). *Ferramentas e Recursos Técnicos BELLAMY, R. K. E. et al. AI Fairness 360: An extensible toolkit for detecting and mitigating algorithmic bias. IBM Journal of Research and Development, v. 63, n. 4/5, p. 4:1-4:15, 2019. DOI: 10.1147/JRD.2019.2942287. BIRD, S. et al. Fairlearn: A toolkit for assessing and improving fairness in AI. Microsoft Technical Report, MSR-TR-2020-32, 2020. Disponível em: https://www.microsoft.com/en-us/research/publication/fairlearn-a-toolkit-for-assessing-and-improving-fairness-in-ai/. Acesso em: 07 nov. 2025. SALEIRO, P. et al. Aequitas: A Bias and Fairness Audit Toolkit. arXiv preprint arXiv:1811.05577, 2018. Disponível em: https://arxiv.org/abs/1811.05577. Acesso em: 07 nov. 2025. *Sites e Plataformas AI NOW INSTITUTE. Research Institute examining the social implications of artificial intelligence. New York University. Disponível em: https://ainowinstitute.org/. Acesso em: 07 nov. 2025. ALGORITHMIC JUSTICE LEAGUE. Organization combining art and research to illuminate the social implications of AI. Disponível em: https://www.ajl.org/. Acesso em: 07 nov. 2025.
Participe da Conversa