VIGILÂNCIA POR ALGORITMOS E DISCRIMINAÇÃO AUTOMATIZADA: CRÉDITO, EMPREGO E LIMITES CONSTITUCIONAIS

O uso crescente de algoritmos para tomada de decisões em larga escala — especialmente nas áreas de concessão de crédito, seleção de candidatos a emprego, avaliação de desempenho e monitoramento comportamental — inaugura uma nova forma de poder decisório, caracterizada pela automação, pela opacidade e pela assimetria informacional.

Trata-se de fenômeno que desloca escolhas tradicionalmente humanas para sistemas tecnológicos que, embora aparentem neutralidade, reproduzem e amplificam vieses sociais, econômicos e raciais historicamente existentes.

Esse cenário impõe ao Direito o desafio de enfrentar práticas discriminatórias que não se manifestam de forma explícita, mas são produzidas por modelos matemáticos baseados em dados pretéritos, correlações estatísticas e padrões comportamentais, muitas vezes inacessíveis ao controle do indivíduo afetado.

DISCRIMINAÇÃO ALGORÍTMICA E DIREITOS FUNDAMENTAIS

A discriminação automatizada ocorre quando decisões algorítmicas produzem efeitos desiguais injustificados entre pessoas ou grupos, ainda que sem intenção direta do programador ou do operador do sistema.

No contexto do crédito, isso se revela em negativas sistemáticas a determinados perfis socioeconômicos; no emprego, em filtros automáticos que excluem candidatos por idade, gênero, local de residência ou histórico profissional atípico.

Sob a ótica constitucional, tais práticas confrontam diretamente os princípios da igualdade material, da dignidade da pessoa humana e da vedação a discriminações arbitrárias. A Constituição não exige apenas igualdade formal, mas impõe ao Estado e aos particulares o dever de evitar mecanismos que perpetuem desigualdades estruturais, inclusive quando mediadas por tecnologia.

VIGILÂNCIA DIGITAL, PERFILIZAÇÃO E AUTODETERMINAÇÃO INFORMATIVA

A vigilância algorítmica está intrinsecamente ligada à coleta massiva de dados pessoais, à construção de perfis comportamentais e à classificação automática de indivíduos. Esse processo compromete a autodeterminação informativa, pois o titular dos dados perde controle sobre como suas informações são utilizadas e sobre os critérios que impactam diretamente sua vida econômica e profissional.

O Supremo Tribunal Federal, ao julgar o RE 1.010.606/RJ (Tema 786), reconheceu que a proteção de dados pessoais decorre diretamente dos direitos fundamentais à intimidade, à vida privada e à dignidade humana. Posteriormente, o Tribunal consolidou o entendimento de que a proteção de dados possui estatura de direito fundamental autônomo, o que reforça a necessidade de limites rigorosos à vigilância digital e à tomada de decisões automatizadas sem transparência.

Esse entendimento constitucional impõe que a utilização de algoritmos decisórios observe critérios de proporcionalidade, finalidade legítima e mínima interferência na esfera individual, sob pena de invalidação jurídica.

CRÉDITO, CONSUMIDOR E DECISÕES AUTOMATIZADAS

No campo das relações de consumo, a utilização de algoritmos para análise de risco e concessão de crédito tem sido objeto de crescente escrutínio judicial. O Superior Tribunal de Justiça já firmou entendimento no sentido de que a negativa de crédito, quando baseada em critérios obscuros ou discriminatórios, pode configurar prática abusiva, sobretudo se impedir o consumidor de compreender os motivos da decisão.

No julgamento do REsp 1.419.697/RS, o STJ reconheceu que cadastros, pontuações e classificações automatizadas devem observar os deveres de transparência, correção e boa-fé, sendo ilícito o uso de informações excessivas ou desatualizadas que prejudiquem o consumidor. Embora o caso não trate diretamente de inteligência artificial, o raciocínio é plenamente aplicável aos sistemas algorítmicos contemporâneos, que operam como verdadeiros “juízes privados” do acesso ao crédito.

EMPREGO, ALGORITMOS E DISCRIMINAÇÃO OCULTA

No âmbito das relações de trabalho, a automação decisória vem sendo utilizada para triagem de currículos, avaliação de produtividade e até desligamentos automáticos. Esse modelo amplia o risco de discriminação indireta, pois critérios aparentemente neutros podem excluir grupos vulneráveis de forma sistemática.

A jurisprudência do STF reconhece que a vedação à discriminação no trabalho possui eficácia horizontal e alcança práticas privadas que produzam exclusão injustificada. Em precedentes como o RE 658.312/SC, a Corte reafirmou que a igualdade material deve orientar as relações laborais, vedando mecanismos que, ainda que formalmente neutros, resultem em discriminação estrutural.

Esse entendimento fornece base sólida para questionar juridicamente decisões automatizadas que impactem acesso ao emprego, progressão profissional ou manutenção do vínculo laboral sem possibilidade de contestação humana.

REGULAÇÃO JURÍDICA E CONTROLE DOS VIESES ALGORÍTMICOS

No plano infraconstitucional, a Lei Geral de Proteção de Dados estabelece limites claros ao tratamento automatizado de dados pessoais, assegurando ao titular o direito de revisão de decisões tomadas unicamente com base em tratamento automatizado que afetem seus interesses. Esse direito dialoga diretamente com a jurisprudência constitucional e consumerista, reforçando a exigência de transparência e explicabilidade dos algoritmos.

A tendência regulatória, no Brasil e no direito comparado, aponta para a responsabilização objetiva ou semiobjetiva de agentes que utilizam sistemas algorítmicos de alto impacto, especialmente quando produzem discriminações sistemáticas ou violam direitos fundamentais.

CONSIDERAÇÕES FINAIS

A vigilância por algoritmos e a discriminação automatizada representam uma das mais sofisticadas formas contemporâneas de violação de direitos fundamentais, justamente por se ocultarem sob a aparência de neutralidade técnica. A jurisprudência do STF e do STJ, embora ainda não enfrentando diretamente todos os contornos da inteligência artificial, já fornece bases sólidas para o controle dessas práticas, a partir da dignidade humana, da igualdade material, da boa-fé e da proteção de dados pessoais.

O desafio do Direito não está em demonizar a tecnologia, mas em submetê-la aos limites constitucionais, assegurando que decisões automatizadas não substituam o juízo humano de forma acrítica nem perpetuem desigualdades incompatíveis com o Estado Democrático de Direito.

Gostou do Conteúdo? Compartilhe...

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *