O mito da neutralidade tecnológica
Quando falamos em inteligência artificial, a narrativa dominante é a da eficiência. As empresas prometem algoritmos que tomam decisões rápidas, racionais e sem emoção. Mas eu aprendi cedo que neutralidade é um mito.
A IA não nasce de uma consciência própria: ela é treinada com dados produzidos por pessoas. E pessoas carregam vieses. Logo, não é difícil perceber que aquilo que chamamos de “erro da máquina” muitas vezes é apenas a repetição de preconceitos humanos.
Eu mesma já testei geradores de imagem pedindo para criar mulheres negras em cargos de liderança. O resultado? Estereótipos distorcidos ou hipersexualizados. Como se o algoritmo não conseguisse imaginar a minha pele em lugares de poder sem recorrer à caricatura.
Dados que expõem a desigualdade
Esse não é apenas um relato pessoal. Pesquisas confirmam essa distorção. Em 2018, a pesquisadora Joy Buolamwini, do MIT, revelou que sistemas de reconhecimento facial tinham uma taxa de erro de apenas 0,8% para homens brancos, mas de 34,7% para mulheres negras.
O número me atravessa porque traduz uma experiência que conheço bem: a de não ser vista, a de ser confundida, a de ser reduzida.
Outro levantamento, do World Economic Forum (2023), aponta que 44% das empresas já utilizam IA para filtrar candidatos a emprego. Mas quem garante que esses filtros não reforçam o sexismo e o racismo presentes nos dados históricos? Currículos de mulheres podem ser desvalorizados, candidaturas de pessoas negras podem ser invisibilizadas, e o processo segue mascarado de eficiência.
Quando a máquina reforça estereótipos
O problema não é que a IA “odeia” mulheres ou pessoas negras. O problema é que ela aprende com dados enviesados.
Se as fotos disponíveis na internet associam “liderança” a homens brancos e “cuidado” a mulheres, o algoritmo vai reproduzir exatamente isso. Se os dados históricos de empresas contratam mais homens para cargos de chefia, a IA entende que esse padrão é “normal” e o perpetua.
Na prática, isso significa cristalizar desigualdades. A tecnologia, que poderia ser ferramenta de mudança, se torna espelho do que temos de mais atrasado.
Por que precisamos discutir poder e autoria
Eu não sou contra a tecnologia. Pelo contrário: acredito no potencial da IA para democratizar o acesso à informação e abrir novas portas. Mas não dá para tratar esse debate como se fosse apenas técnico.
É uma questão política:
- Quem programa os algoritmos?
- Quem decide quais dados entram no sistema?
- Quem lucra com essas escolhas?
- Quem é apagado no processo?
O silêncio sobre essas perguntas é perigoso. No Brasil, um país com a maior população negra fora da África e com uma das desigualdades mais persistentes do mundo, deixar a tecnologia avançar sem questionamento é correr o risco de consolidar o racismo estrutural em escala digital.
Eu, mulher negra, diante das máquinas
Escrevo este artigo não como especialista em programação, mas como mulher negra, mãe e futura jornalista.
Eu sei o que é não ser vista. Eu sei o que é ter minha fala interrompida. E quando vejo algoritmos que reproduzem os mesmos apagamentos, sinto que preciso falar. Porque se eu não levantar essa pauta, talvez ela continue sendo ignorada.
A tecnologia pode nos libertar. Mas, enquanto insistir em carregar preconceitos, eu vou continuar alerta: converso com as máquinas, mas não abaixo a guarda diante do viés que elas ainda carregam.