Justiça de Dados e Python Como lutar contra o racismo algorítmico com código [Seu Nome] – [Seu Contato]
O que é racismo algorítmico? Sistemas treinados com dados enviesados podem reproduzir discriminações raciais. Exemplos: Crédito da Apple, reconhecimento facial.
Exemplos reais de racismo algorítmico - COMPAS: Justiça criminal (EUA) - Amazon: Recrutamento - Erros em reconhecimento facial com rostos negros
E no Brasil? Algoritmos usados na segurança pública e justiça com pouca transparência. Falta de diversidade aumenta riscos.
Onde entra o Python? Python permite explorar, auditar e questionar sistemas automatizados. Ferramenta acessível e poderosa.
Bibliotecas para justiça algorítmica - pandas: análise de dados - scikit-learn: modelagem - fairlearn: avaliação de viés - aequitas: auditoria de fairness
Demonstração prática (exemplo) Dataset de crédito com viés racial Auditoria com fairlearn Identificação de disparidades
Caminhos para soluções - Diversidade nas equipes - Justiça de dados como princípio - Regulação e auditorias - Educação crítica em tecnologia
Papel das pessoas negras Protagonismo na construção de sistemas justos. Justiça algorítmica exige vozes diversas e conscientes.
Conclusão Código é poder. Usado com consciência, pode libertar. Não podemos automatizar injustiças.
Perguntas e contato Obrigada por estarem aqui! [Seu Nome] – [Seu Contato] Vamos continuar essa conversa.