POR UMA INTELIGÊNCIA ARTIFICIAL FEMINISTA NO STF: UMA PROPOSTA DE JUSTIÇA EM PERSPECTIVA DE GÊNERO

Christine Peter

Carolina Gomide

A Inteligência Artificial (IA) está cada vez mais presente no sistema judicial brasileiro, refletindo um aumento significativo de sua aplicação. Em 2023, o uso de IA nos tribunais cresceu 26%, totalizando 140 projetos desenvolvidos ou em desenvolvimento.

Esses sistemas prometem otimizar o processamento de dados, acelerar o trâmite de processos e reduzir o tempo de resposta judicial. No entanto, apesar do grande potencial para aumentar a eficiência, a utilização de IA em um ambiente complexo como o judiciário brasileiro levanta preocupações importantes quanto aos vieses algorítmicos e seus impactos nas decisões judiciais.

Historicamente, o judiciário brasileiro é reconhecido como uma instituição marcada por práticas machistas e racistas, o que é evidenciado tanto pelo conteúdo das decisões judiciais quanto pelo comportamento institucional. Um exemplo disso é o reconhecimento pelo Conselho Nacional de Justiça (CNJ) da necessidade de adotar o Protocolo de Julgamento em Perspectiva de Gênero para corrigir essas distorções. 

Assim, a questão que surge é: como podemos garantir que os sistemas de IA adotados pelo judiciário, e aqui se recorta no Supremo Tribunal Federal (STF), não perpetuem essas desigualdades e, em vez disso, promovam julgamentos mais justos e igualitários?

Este artigo propõe a adoção de uma Inteligência Artificial feminista pelo STF, um modelo que não apenas evite a reprodução de estereótipos e preconceitos, mas que ativamente promova a igualdade de gênero e a justiça social. Esse modelo seria capaz de identificar decisões judiciais que envolvam questões de gênero e aplicar o Protocolo de Julgamento em Perspectiva de Gênero, garantindo um tratamento mais justo para mulheres e grupos historicamente marginalizados. 

A seguir, discutiremos a categorização que nós desenvolvemos sobre os três principais modelos de IA e a importância de adotar um modelo afirmativo ou feminista, além de detalhar a construção de uma base de dados específica que poderia ser utilizada para treinar uma IA feminista no STF.

Os Três Modelos de IA: Estereótipos, Agnóstico e Feminista

Com base nas nossas pesquisas, desenvolvemos uma classificação que divide os sistemas de IA em três modelos: o modelo de estereótipos, o modelo agnóstico (ou neutro) e o modelo feminista (ou afirmativo). Essa categorização foi criada para entender como as IAs operam nas tomadas de decisões e o impacto dessas escolhas na promoção de justiça social.

O modelo dos estereótipos: impacto desproporcional em razão das desigualdades reais

No modelo dos estereótipos, os sistemas de IA fazem predições com base em padrões encontrados nos dados de treinamento. Se esses dados contêm vieses, como preconceitos relacionados ao gênero, raça ou classe, os sistemas de IA inevitavelmente reproduzirão esses vieses. Isso ocorre porque a IA aprende a partir de exemplos históricos, e, se os dados utilizados para o treinamento refletem uma sociedade marcada por desigualdades, a IA reproduzirá esse cenário.

Diversos casos ilustram os perigos desse modelo. Um exemplo emblemático envolve o algoritmo do LinkedIn, que, durante um período, sugeria erroneamente versões masculinas de nomes femininos comuns, como sugerindo “Stephen Williams” ao se procurar por “Stephanie Williams”. Outro exemplo envolve o Twitter, cujo algoritmo de recorte automático de imagens favorecia rostos brancos e destacava partes sexualizadas do corpo feminino. 

Em outra situação, uma pesquisa da Carnegie Mellon revelou que o sistema de recomendação do Google Ads, por exemplo, encaminhava mais frequentemente para homens do que para mulheres as posições mais bem pagas no mercado de trabalho. Também na plataforma do Google, no que tange aos sistemas de reconhecimento de imagem, conhecido caso é a confusão de rostos de pessoas negras com a imagem de gorilas, mostrando a dificuldade do sistema. 

Sobre acesso ao mercado de trabalho, conhecido caso sobre predição no sistema de recrutamento aconteceu no processo seletivo da empresa Amazon em que descobriu-se que o algoritmo estaria automaticamente dando preferências ao currículos masculinos em razão do fato de que a base de dados utilizada para treinamento continha informações do padrão de contratação da companhia por um período de dez anos em que se observava, majoritariamente, a presença de homens.

Um outro caso notório de tomada de decisão a partir de vieses raciais é o caso COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), um sistema que foi utilizado pelo Departamento de Correções em alguns estados dos Estados Unidos para prever riscos de reincidência e ajudar juízes na tomada de decisões sobre a possibilidade do réu responder o processo em liberdade.  Pesquisa da ProPublica, no entanto, descobriu que o sistema, além de possuir baixíssima taxa de acerto, considerava pessoas mais velhas automaticamente como de menor risco e possuía duas vezes mais chance de atribuir uma nota perigosa a uma pessoa negra do que a uma pessoa branca. 

Em todos esses exemplos relacionados com o modelo dos estereótipos, têm-se que os sistemas acabaram por fazer predições enviesadas considerando associações automáticas baseadas em preconcepções. Diante desse cenário, pesquisadores buscam aperfeiçoar o sistema para tomar decisões que não tenham vieses, melhorando e treinando os seus dados em buscas das melhores formas matemáticas e classificações mais objetivas. Indo nessa linha, busca-se alcançar o que aqui se chama de sistema agnóstico e que se passa a detalhar. 

O Modelo Agnóstico: decisões sem vieses e manutenção das desigualdades reais

O modelo agnóstico ou neutro surge como uma resposta ao problema dos vieses, propondo um sistema que ignore informações sensíveis, como gênero ou raça, na tomada de decisões. A ideia é que, ao remover essas variáveis, as decisões seriam mais imparciais e justas. No entanto, esse modelo carrega consigo um problema fundamental: a desconsideração das desigualdades estruturais.

Mesmo que, até o momento, não existam pesquisas empíricas que comprovem vieses nos sistemas de IA atualmente utilizados no judiciário brasileiro, acredita-se que a opção por sistemas ditos neutros é uma escolha pela manutenção do status quo. E o status quo do sistema judiciário brasileiro, por sua vez, é reconhecidamente machista e racista, o que justificou, inclusive, a necessidade da elaboração de um protocolo em perspectiva de gênero pelo CNJ.

Assim, ao ignorar as diferenças entre os grupos, a IA neutra perpetua as desigualdades existentes. Um sistema de IA agnóstico poderia não discriminar diretamente mulheres, mas também não faria nada para corrigir a sub-representação feminina em certas áreas profissionais ou reconhecer casos de violência de gênero em processos judiciais. Em suma, a neutralidade não é suficiente para alcançar uma justiça mais equitativa.

O Modelo Feminista: decisões enviesadas e um impacto proporcional às desigualdades reais

O modelo afirmativo, ou feminista, propõe uma abordagem diferente. Ao invés de ignorar as diferenças, ele reconhece as desigualdades históricas e trabalha ativamente para corrigi-las. Assim como políticas afirmativas são implementadas em diferentes esferas para equilibrar desigualdades, a IA feminista seria uma ferramenta para promover a justiça social no judiciário.

Por exemplo, uma IA feminista aplicada no STF seria treinada para identificar padrões de violência de gênero e reconhecer quando uma decisão judicial ignora ou minimiza a questão. Essa IA poderia alertar os juízes para a necessidade de aplicar o Protocolo de Julgamento em Perspectiva de Gênero, por exemplo. Além disso, uma IA feminista seria treinada para analisar a linguagem utilizada nas decisões, identificando termos que perpetuam estereótipos de gênero e sugerindo alternativas mais inclusivas.

IA Feminista no STF: Uma Proposta

O Supremo Tribunal Federal já adota sistemas de IA no seu funcionamento diário, sendo elas: Victor, Rafa e VitórIA. Cada uma dessas ferramentas desempenha um papel na modernização da gestão de processos no STF, contribuindo para a celeridade do julgamento de casos.

O Projeto Victor, lançado em 2017 durante a presidência da Ministra Carmen Lúcia, foi o primeiro sistema de IA do STF. Desenvolvido em parceria com a Universidade de Brasília, o nome “Victor” é uma homenagem a Victor Nunes Leal, o primeiro ministro do STF a sistematizar os precedentes do tribunal. O Victor é uma IA focada em linguagem natural, com a capacidade de converter imagens em textos, classificar peças processuais e identificar os temas de repercussão geral mais frequentes. Embora o objetivo principal do Victor não seja tomar decisões, ele organiza recursos extraordinários e agravos, promovendo consistência e celeridade no sistema de triagem, além de detectar correlações entre os temas de diferentes processos.

O segundo sistema de IA, RAFA (Redes Artificiais Focadas na Agenda 2030), foi desenvolvido para classificar os processos do STF com base nos 17 Objetivos de Desenvolvimento Sustentável (ODS) da ONU. RAFA utiliza redes neurais e comparação semântica para identificar quais objetivos de desenvolvimento são pertinentes a cada processo. Esse sistema reforça a importância dos direitos fundamentais e humanos, oferecendo um novo olhar sobre como as controvérsias constitucionais são analisadas pela Suprema Corte, especialmente sob a ótica dos direitos humanos.

Por fim, a terceira ferramenta de IA do STF é a VitórIA, que se destaca por sua capacidade de identificar processos que tratam de temas constitucionais similares e sugerir seu agrupamento. A VitórIA facilita a gestão do acervo processual ao classificar processos com base nos temas constitucionais de mérito e também é essencial na identificação de novos temas de repercussão geral.

Desses três sistemas, a VitórIA é o principal expoente para se tornar uma IA feminista, dado seu papel central na classificação de processos e temas constitucionais. Ela pode ser adaptada para incorporar o Protocolo de Julgamento em Perspectiva de Gênero, contribuindo para a identificação de processos que envolvem questões de gênero e garantindo que esses casos sejam tratados com a devida atenção. A seguir, delineamos o passo a passo dessa adaptação.

Para treinar a VitórIA na identificação de processos que abordam pautas de gênero, algumas bases de dados já estão disponíveis e podem servir de ponto de partida. Essas bases incluem:

  • Uma base de dados colhida manualmente por nós de decisões relacionadas com a pauta de gênero nas decisões do STF.
  • O banco de dados de decisões do Conselho Nacional de Justiça que aplicam o Protocolo de Julgamento em Perspectiva de Gênero. Essas decisões colecionadas pelo CNJ podem servir como uma fonte rica de dados para treinar a IA feminista, ajudando-a a reconhecer e classificar processos que exigem uma análise sob essa perspectiva.
  • A base de dados do sistema RAFA, que já realiza a catalogação de processos com base nos Objetivos de Desenvolvimento Sustentável (ODS), também pode ser uma fonte de inspiração para o treinamento da IA feminista, pois filtra processos com base no ODS 5, que trata da igualdade de gênero. Até o momento, a RAFA já identificou 89 processos relacionados ao ODS 5, e essa base de dados pode ser utilizada para treinar a IA feminista no reconhecimento de processos que tangenciam questões de gênero.

Os sistemas Victor, Rafa e VitórIA já oferecem uma infraestrutura robusta no STF, o que facilitaria a integração das funções feministas. Esses sistemas, que atualmente focam em triagem de processos e apoio administrativo, poderiam ser treinados para reconhecer casos em que a perspectiva de gênero é necessária. A função de triagem, por exemplo, poderia ser aprimorada para identificar processos que envolvem violência de gênero ou discriminação e dar prioridade a esses casos, alertando os ministros para a necessidade de um julgamento em perspectiva de gênero.

O sistema VitórIA, já voltado para a análise de processos que envolvem direitos fundamentais, seria um candidato ideal para liderar essa transformação. A IA poderia ser treinada para aplicar o Protocolo de Gênero de forma mais ampla, tanto nos direitos individuais quanto nos coletivos, garantindo que decisões que afetam desproporcionalmente as mulheres sejam tratadas com o devido cuidado.

Uma IA feminista pode ser capaz de identificar automaticamente processos que envolvem questões de gênero. Para isso, a IA seria treinada para reconhecer termos, expressões e padrões que historicamente estão associados à discriminação ou violência contra mulheres. Isso poderia incluir palavras-chave, como “violência doméstica”, “assédio”, “licença-maternidade” ou expressões que sugiram padrões de tratamento discriminatório.

Além disso, a IA poderia identificar padrões de julgamento que frequentemente negligenciam o gênero como um fator relevante. Isso seria especialmente útil em um sistema como o brasileiro, onde a tradição somada à alta carga de trabalho pode levar a decisões que ignoram nuances de gênero. A IA feminista ajudaria a destacar esses casos e garantir que eles recebam a devida atenção.

Como qualquer sistema de IA, a IA feminista precisaria ser monitorada e atualizada continuamente. O STF, por exemplo, em parceria com o CNJ, poderia criar um comitê de especialistas em gênero e tecnologia para supervisionar o funcionamento da IA feminista. Esse comitê seria responsável por revisar regularmente as decisões e o comportamento da IA, ajustando seu treinamento quando necessário para garantir que o sistema esteja sempre alinhado com as melhores práticas e com os princípios constitucionais de igualdade e não discriminação.

Conclusão

O avanço da Inteligência Artificial no STF oferece uma oportunidade única de promover julgamentos mais justos e equitativos, especialmente no que tange às questões de gênero. Ao adaptar os sistemas já existentes – Victor, Rafa e VitórIA – para incorporar uma abordagem feminista, o STF estaria na vanguarda de um judiciário que não apenas evita a discriminação, mas que ativamente promove a igualdade de gênero.

Essa IA feminista teria o poder de identificar, prevenir e corrigir desigualdades, garantindo que as decisões judiciais estejam em conformidade com o Protocolo de Julgamento em Perspectiva de Gênero e com os princípios constitucionais de igualdade material. A implementação desse modelo é não apenas viável, mas essencial para um futuro em que o judiciário brasileiro, historicamente marcado por práticas discriminatórias, se torne um exemplo de justiça social e igualdade para todos.

Do solo da justiça:
por uma IA com raiz Feminista |

Fem. IA

Rolar para cima