Ainda é tempo de falarmos sobre a regulação dos algoritmos?

O mundo é big data, mas há a discussão sobre o uso abusivo dos algoritmos para a personalização de publicidade e até mesmo sobre como a automação pode ampliar discursos nocivos à sociedade

Muitos pensadores da tecnologia têm uma visão sombria, quase apocalíptica, quando o assunto é o futuro da humanidade. Yuval Noah Harari, por exemplo, afirma que a fusão entre a revolução biotecnológica (o conhecimento supremo sobre o corpo humano) e a revolução da tecnologia (o aumento exponencial da capacidade de processamento de dados) provavelmente será o último dia do domínio humano sobre o livre arbítrio. No lugar, entra a máquina.

De certa forma, esse domínio da máquina sobre algumas decisões humanas já ocorre no cotidiano. Hoje, ao acessar o Facebook, já existe um algoritmo com o seu nome e sobrenome dedicado a oferecer um conteúdo na sua linha do tempo que você vai amar ou odiar e, sobretudo, interagir. O mesmo ocorre com as compras feitas na Amazon e no AliExpress.

Regulação

Há quem diga que o jeito seria contra-atacar por meio da chamada regulação algorítmica, um termo autoexplicativo que foi popularizado pelo empresário do Vale do Silício Tim O’Reilly.

O Velho Mundo deu o primeiro passo na direção da regulação em dezembro de 2020. A Comissão Europeia apresentou o que nomeou de Digital Services Act, uma norma que limita a atuação dos algoritmos a valores europeus. Os EUA já cogitam criar uma norma contra esse crescente movimento de decisões automatizadas.

O Brasil também flerta com uma norma similar. O ex-ministro Hélio Costa, então senador, apresentou um projeto de lei sobre o tema em 2017, engavetado em 2018. No ano passado, o deputado Bosco Costa (PL-SE) mostrou o que seria o mais recente PL, que disciplina o uso de algoritmos pelas plataformas digitais na internet.

“Processos computacionais desenhados com o intuito de influenciar a tomada de decisões humanas não são neutros, pois incorporam elementos que materializam os valores e a visão de mundo dos seus desenvolvedores, contribuindo, assim, para a geração de resultados tendenciosos e, não raro, discriminatórios”, afirma o deputado na justificativa do projeto.

Por ora, o projeto tramita na Comissão de Ciência e Tecnologia, Comunicação e Informática (CCTI) da Câmara e não há nenhum sinal de que esteja próximo de uma aprovação. O motivo é que não temos uma cultura algorítmica, e as empresas que realizam um tratamento de dados mais robusto fazem isso bem longe do Brasil.

Para Enrico Roberto, pesquisador do InternetLab e doutorando em Filosofia do Direito pela Faculdade de Direito da Universidade de São Paulo (USP), as propostas ainda carecem de um amadurecimento sob o aspecto da regulação. “Temos, tramitando no Congresso, alguns projetos de lei que buscam regular a inteligência artificial. A principal crítica a esses projetos é que eles são muito amplos e possuem uma aplicabilidade prática bastante limitada.”

Segundo a opinião de Marcela Mattiuzzo, ex-chefe de Gabinete da presidência do Conselho Administrativo de Defesa Econômica (CADE), a regulação, quando vier, deverá considerar fatores como transparência e evitar estereótipos. “Tem de ser feito de maneira menos nebulosa para a pessoa que está sendo objeto daquele algoritmo. Para tanto, é preciso evitar a reprodução de estereótipos. No entanto, isso é complexo não só por questões jurídicas mas também de compreensão. Não basta abrir um código de machine learning para alguém que é leigo. É preciso explicar o que acontece ali dentro do código para uma pessoa leiga conseguir entender.”

O preconceito algorítmico no consumo

Nas relações de consumo, o preconceito algorítmico tem-se manifestado mais frequentemente de duas maneiras: o geoblocking e o geopricing. O primeiro é a prática de impedir que consumidores de locais diferentes visualizem uma oferta ou um desconto. Já o segundo é a conduta de oferecer um produto ou serviço de acordo com a localização geográfica do comprador.

Um caso emblemático é o da Decolar, ocorrido em 2018, que foi multada em R$ 7,5 milhões pelo Departamento de Proteção e Defesa do Consumidor (DPDC) em razão da prática de discriminação.

A Decolar, por meio de algoritmos que se utilizavam de critérios geográficos, alterava o preço das acomodações, bem como negava o acesso a vagas. Tais práticas, além da questão de preconceito com base na localização, representam ainda um desrespeito ao consumidor.

O número de casos deve aumentar conforme avança a sociedade de consumo digital. Ainda dá tempo de mudar essa situação? Os especialistas dizem que sim. De certa forma, nessa história de regulação de algoritmo, somos as pobres crianças atraídas com migalhas por uma bruxa até a casa de doces. O objetivo é engolir as crianças – no nosso caso, o faminto aqui é a máquina.