Warning: file_exists(): open_basedir restriction in effect. File(/var/www/baldezadvogados.com/htdocs/wp-content/plugins/jetpack/extensions/extended-blocks/07a532b3.php/07a532b3.php.php) is not within the allowed path(s): (/var/www/:/usr/share/php/:/tmp/:/var/run/nginx-cache/:/dev/urandom:/dev/shm:/var/lib/php/sessions/) in /var/www/baldezadvogados.com/htdocs/wp-content/plugins/jetpack/class.jetpack-gutenberg.php on line 831

Warning: file_exists(): open_basedir restriction in effect. File(/var/www/baldezadvogados.com/htdocs/wp-content/plugins/jetpack/extensions/extended-blocks/ajax.php/ajax.php.php) is not within the allowed path(s): (/var/www/:/usr/share/php/:/tmp/:/var/run/nginx-cache/:/dev/urandom:/dev/shm:/var/lib/php/sessions/) in /var/www/baldezadvogados.com/htdocs/wp-content/plugins/jetpack/class.jetpack-gutenberg.php on line 831

Warning: file_exists(): open_basedir restriction in effect. File(/var/www/baldezadvogados.com/htdocs/wp-content/plugins/jetpack/extensions/plugins/1cb95e6f.php/1cb95e6f.php.php) is not within the allowed path(s): (/var/www/:/usr/share/php/:/tmp/:/var/run/nginx-cache/:/dev/urandom:/dev/shm:/var/lib/php/sessions/) in /var/www/baldezadvogados.com/htdocs/wp-content/plugins/jetpack/class.jetpack-gutenberg.php on line 831

Warning: file_exists(): open_basedir restriction in effect. File(/var/www/baldezadvogados.com/htdocs/wp-content/plugins/jetpack/extensions/plugins/ajax.php/ajax.php.php) is not within the allowed path(s): (/var/www/:/usr/share/php/:/tmp/:/var/run/nginx-cache/:/dev/urandom:/dev/shm:/var/lib/php/sessions/) in /var/www/baldezadvogados.com/htdocs/wp-content/plugins/jetpack/class.jetpack-gutenberg.php on line 831
Preconceito se combate também com dados – Baldez Advogados

Preconceito se combate também com dados

Preconceito se combate também com dados

Para o advogado Saymon Leão, algoritmos têm de ser desenvolvidos com responsabilidade

Advogado da área digital e proteção de dados do escritório SCA — Scalzilli Althaus alerta para a chamada discriminação algorítmica

Nos últimos anos, a tecnologia passou a integrar definitivamente o cotidiano das pessoas. Sistemas de inteligência artificial (IA) que até pouco tempo tinham seu acesso restrito, hoje são aplicados em inúmeras áreas, algumas em maior ou menor medida e grau de consciência dos consumidores. Mecanismos de busca, redes sociais e plataformas de streaming, por exemplo, usam algoritmos para personalizar a experiência do usuário, direcionando anúncios e recomendando conteúdos. Serviços de saúde realizam diagnósticos preditivos de forma recorrente. Empresas têm adotado processos de seleção automatizados e há até mesmo o Judiciário está testando sistemas que otimizam os trâmites processuais, viabilizando inclusive a expedição automática de sentenças e outras decisões.

O emprego massivo da IA tem como objetivo explorar ao máximo o potencial dos serviços e facilitar a resolução de problemas. No entanto, já há registro de IA que reproduz preconceitos da sociedade: a chamada discriminação algorítmica. Isso ocorre quando sistemas de IA são treinados e alimentados com dados “viciados”, ampliando inadvertidamente vieses pré-existentes, fazendo com que o algoritmo replique preceitos e perpetue padrões discriminatórios. Imagine — grosso modo — uma IA de triagem de currículos baseada em dados históricos de uma empresa. Se para determinado cargo essa empresa historicamente contratasse mais homens do que mulheres, a tendência é que o algoritmo passe a reproduzir esse padrão.

A partir da expansão do uso desse tipo de tecnologia em atividades que têm impactos práticos na vida das pessoas, é crucial que a regulação e fiscalização sejam ampliadas. Algoritmos têm de ser desenvolvidos e treinados com responsabilidade, por meio de abordagens éticas, que considerem a gama de dados e reflitam a sua diversidade — respeitando as desigualdades — do mundo. Se a equidade é um desafio prático, real, para grupos historicamente oprimidos, estender essa luta para a esfera virtual é também um passo importante para a construção de uma sociedade mais justa e inclusiva.

*Advogado da área digital e proteção de dados do escritório SCA — Scalzilli Althaus

Para o advogado Saymon Leão, algoritmos têm de ser desenvolvidos com responsabilidade

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.

Generated by Feedzy