Imagem & Poder

Quando a tecnologia também carrega preconceitos

O mito da neutralidade tecnológica

Quando falamos em inteligência artificial, a narrativa dominante é a da eficiência. As empresas prometem algoritmos que tomam decisões rápidas, racionais e sem emoção. Mas eu aprendi cedo que neutralidade é um mito.

A IA não nasce de uma consciência própria: ela é treinada com dados produzidos por pessoas. E pessoas carregam vieses. Logo, não é difícil perceber que aquilo que chamamos de “erro da máquina” muitas vezes é apenas a repetição de preconceitos humanos.

Eu mesma já testei geradores de imagem pedindo para criar mulheres negras em cargos de liderança. O resultado? Estereótipos distorcidos ou hipersexualizados. Como se o algoritmo não conseguisse imaginar a minha pele em lugares de poder sem recorrer à caricatura.


Dados que expõem a desigualdade

Esse não é apenas um relato pessoal. Pesquisas confirmam essa distorção. Em 2018, a pesquisadora Joy Buolamwini, do MIT, revelou que sistemas de reconhecimento facial tinham uma taxa de erro de apenas 0,8% para homens brancos, mas de 34,7% para mulheres negras.

O número me atravessa porque traduz uma experiência que conheço bem: a de não ser vista, a de ser confundida, a de ser reduzida.

Outro levantamento, do World Economic Forum (2023), aponta que 44% das empresas já utilizam IA para filtrar candidatos a emprego. Mas quem garante que esses filtros não reforçam o sexismo e o racismo presentes nos dados históricos? Currículos de mulheres podem ser desvalorizados, candidaturas de pessoas negras podem ser invisibilizadas, e o processo segue mascarado de eficiência.


Quando a máquina reforça estereótipos

O problema não é que a IA “odeia” mulheres ou pessoas negras. O problema é que ela aprende com dados enviesados.

Se as fotos disponíveis na internet associam “liderança” a homens brancos e “cuidado” a mulheres, o algoritmo vai reproduzir exatamente isso. Se os dados históricos de empresas contratam mais homens para cargos de chefia, a IA entende que esse padrão é “normal” e o perpetua.

Na prática, isso significa cristalizar desigualdades. A tecnologia, que poderia ser ferramenta de mudança, se torna espelho do que temos de mais atrasado.


Por que precisamos discutir poder e autoria

Eu não sou contra a tecnologia. Pelo contrário: acredito no potencial da IA para democratizar o acesso à informação e abrir novas portas. Mas não dá para tratar esse debate como se fosse apenas técnico.

É uma questão política:

  • Quem programa os algoritmos?
  • Quem decide quais dados entram no sistema?
  • Quem lucra com essas escolhas?
  • Quem é apagado no processo?

O silêncio sobre essas perguntas é perigoso. No Brasil, um país com a maior população negra fora da África e com uma das desigualdades mais persistentes do mundo, deixar a tecnologia avançar sem questionamento é correr o risco de consolidar o racismo estrutural em escala digital.


Eu, mulher negra, diante das máquinas

Escrevo este artigo não como especialista em programação, mas como mulher negra, mãe e futura jornalista.

Eu sei o que é não ser vista. Eu sei o que é ter minha fala interrompida. E quando vejo algoritmos que reproduzem os mesmos apagamentos, sinto que preciso falar. Porque se eu não levantar essa pauta, talvez ela continue sendo ignorada.

A tecnologia pode nos libertar. Mas, enquanto insistir em carregar preconceitos, eu vou continuar alerta: converso com as máquinas, mas não abaixo a guarda diante do viés que elas ainda carregam.