Quarta-feira, 29 de outubro de 2025 - 17h51

Sob a promessa de eficiência e neutralidade, a Inteligência
Artificial (IA) avança sobre decisões importantes, desde a aprovação de um
empréstimo até a chance de conseguir um emprego. Empresas brasileiras, em busca
de otimização, abraçam essa tecnologia: segundo o Gartner, mais de 60% das grandes
corporações já a utilizam em seus processos de recrutamento e gestão de
talentos. No entanto, por trás da fachada de imparcialidade, esconde-se um
risco potencial: o de um preconceito invisível, codificado e automatizado.
O viés em sistemas de IA não nasce de uma má intenção, é um
reflexo direto das informações que os alimentam. Algoritmos aprendem a partir
de dados históricos e, se eles estão impregnados pelos preconceitos estruturais
da nossa sociedade, a IA não apenas os reproduzirá, mas os ampliará em uma
escala industrial. É um espelho que não só reflete, mas distorce e amplifica
nossas piores falhas.
Esses preconceitos se manifestam de formas sutis e
devastadoras. Um estudo da Universidade de São Paulo (USP) alerta que
algoritmos tendem a favorecer candidatos com nomes associados a grupos
historicamente privilegiados. O caso da Amazon, nos Estados Unidos, que
precisou descontinuar seu sistema de recrutamento ao descobrir que ele
penalizava currículos com a palavra "feminino", é um exemplo emblemático.
O software, treinado com dados de uma década de contratações majoritariamente
masculinas, aprendeu a ser machista.
No Brasil, a realidade não é diferente. Uma pesquisa da FGV
revelou que 57% das empresas brasileiras admitem sofrer com o viés de dados, e
61% de seus executivos temem danos à reputação. São sistemas que excluem
pessoas por sotaques, faculdade ou até mesmo pelo bairro onde moram. Critérios
ocultos que, como aponta a pesquisa da USP, reduzem a diversidade e desumanizam
os processos seletivos.
Como
mitigar os riscos
As consequências desse viés são as piores possíveis. Para o
indivíduo, é a negação de oportunidades de emprego, crédito e crescimento
profissional com base em marcadores de identidade.
Já para as empresas, além do risco iminente de processos e
multas, há a perda de talentos. A marca que se vende como moderna e inclusiva
pode ser desmascarada como uma organização que utiliza "robôs
preconceituosos", um dano de imagem quase irreparável.
O Ministério Público do Trabalho (MPT), em um denso
relatório de 2022, já destacava a discriminação algorítmica como um dos
principais riscos da IA nas relações de trabalho, ao lado da violação de
direitos fundamentais. E a questão não é se a discriminação acontece, mas como
podemos combatê-la. Mitigar esses riscos exige um esforço consciente e
multifacetado, como:
●Auditoria e transparência: Realizar auditorias constantes
nos algoritmos para identificar e corrigir vieses. As empresas devem ser
capazes de explicar por que uma decisão foi tomada.
●Diversidade nos dados e nas equipes: Garantir que os dados de treinamento sejam representativos da diversidade da população. Equipes de desenvolvimento plurais são capazes de identificar preconceitos inconscientes.
●Supervisão humana: Manter um ser humano no ciclo de
decisões críticas, especialmente naquelas que podem ter um impacto
significativo na vida das pessoas. A tecnologia deve ser uma ferramenta de
apoio, não o juiz final.
A Inteligência Artificial é uma ferramenta muito útil, mas
não resolve todos os problemas de uma vez só. Se não formos proativos na
construção de uma IA ética e justa, corremos o risco de criar um futuro onde a
discriminação não é apenas um ato humano, mas um sistema automatizado, impessoal
e implacável. E essa é uma falha que não poderemos simplesmente deletar.
*por João Roncati, CEO da People+Strategy - consultoria
brasileira reconhecida e respeitada por seu trabalho estratégico com a alta
liderança de grandes companhias. Mais informações no site.
Quarta-feira, 17 de dezembro de 2025 | Porto Velho (RO)
Como encontrar o caimento perfeito da calça para o homem moderno
No universo do vestuário masculino, a calça é o verdadeiro alicerce da silhueta. Enquanto camisas e blazers definem o tom do torso, é a calça que esta

O potencial bélico das usinas nucleares
"Se os reatores fossem seguros, as indústrias nucleares não exigiriam proteção de responsabilidadecontra acidentes garantidos pelo governo, como cond

A maioria das pessoas tóxicas ou abusivas traz a inveja na pele – Ligue o seu alerta
Não tem venda de repelente para inveja, por este motivo, se puder, afaste-se imediatamente ou você será sugada energética e materialmente. A maioria

Estratégias de Expansão Geográfica: Caminhos para Crescer e Gerar Valor Competitivo
A expansão geográfica é uma das formas mais eficazes de aumentar escala, diversificar riscos e ampliar o alcance comercial da empresa. Em um cenário d
Quarta-feira, 17 de dezembro de 2025 | Porto Velho (RO)