Inteligência Artificial e Discriminação em Redes Sociais

Por Vinícios Costa

Introdução

A polêmica da ética dentro do mundo digital começa desde a amplificação de preconceitos, até situações que resultam em discriminação contra mulheres, negros, pobres, entre outros. É necessário que os usuários de internet tenham o pleno conhecimento de que a tecnologia não é neutra. Imaginar que o ambiente virtual é imparcial, é análogo a pensar que não existe racismo na atualidade. 

Os algoritmos seguem um padrão social, (o nosso),  eles são um espelho da realidade física, apenas transportando informações. Lembre-se, foram seres humanos que construíram a mídia digital, portanto, suas percepções de mundo estão nas “raízes” desse ambiente. Mediante a isso, fica um questionamento, estamos usando esse meio de forma positiva?

Conceituações

Se por um lado hoje é consenso no mundo da programação que o algoritmo é uma sequência de passos bem definidos que visam executar uma tarefa específica, a inteligência artificial (I.A) veio na contramão dessa ideia. Não existe uma concordância sobre o que é essa tecnologia, pois nem os criadores dela tinham dimensão do que se tornaria. Aliás a I.A tem várias faces, é um conjunto de tecnologias, foi criada na década de 50 e evoluiu a tal ponto, que hoje aprende sozinha, (através do deep learning) como uma rede neural humana. O fato de não sabermos o limite dela ou o seu funcionamento com exatidão, impossibilita sua definição. Isso porque, o próprio John McCarthy que cunhou a nomenclatura (I.A), afirmou que o termo inteligente só pode estar atrelado à inteligência humana. 

Tirando a formalidade do assunto, o indivíduo deve compreender que ao fazer uma pesquisa no Google, há um robô que detecta quais resultados são mais compatíveis com a busca e cria uma lista de acordo com a sua relevância, ranqueando-os. O problema é que esse comportamento seletivo é aprendido pela máquina e passa a incorporar o seu funcionamento. Por exemplo, se você pesquisa por mulheres bonitas na internet, existe um padrão fenotípico nas imagens, que são de mulheres: brancas, de cabelo liso e olhos claros e isso só comprova que esse é o modelo de beleza atual, já que, esse é o resultado mais procurado. 

Porém, enquanto o Google foca na busca do usuário em comparação com a dos demais, as redes sociais fazem um recorte específico para cada um, pois armazena tudo o que a pessoa pesquisa, posta e curte, usando essas preferências com a finalidade de mostrar mais postagens similares às que o sujeito mais interagiu. Dessa maneira, o algoritmo amplifica preconceitos presentes no mundo físico e incorpora-os na I.A.

A tendência desse cenário segregacionista nas mídias digitais é de piorar, já que não existe uma figura de poder para reprimir seu comportamento e ensinar o certo, o algoritmo não é um ser humano. Um exemplo para concretizar essa ótica seria, o de uma criança que comete um ato preconceituoso por ingenuidade, é reprimida por alguém e aprende com a situação.  Entretanto, quando as redes sociais agem de forma racista ao privilegiar pessoas brancas em fotos ou vídeos, ninguém pode chamar sua atenção ou coibir tal atitude como no caso mencionado; ainda que a I.A se aprimore com o deep learning (aprendizagem profunda).

A raiz do problema está na programação e nos vieses ligados à seleção e ao preparo de dados. Por fim, essa conduta velada (quando é percebida) vai criando uma nuvem de incertezas para os usuários lesionados. O que vai contra o artigo 9º da Lei Geral de Proteção de Dados (LGPD – N º 13.709). A partir disso, eles ficam sob um dilema, ou param de usar a rede ou se adaptam ao seu modelo discriminatório. 

  • Art. 9º O titular tem direito ao acesso facilitado às informações sobre o tratamento de seus dados, que deverão ser disponibilizadas de forma clara, adequada e ostensiva acerca de, entre outras características previstas em regulamentação para o atendimento do princípio do livre acesso:

VII – direitos do titular, com menção explícita aos direitos contidos no art. 18 desta Lei.

Exemplificação

Casos que explicitam as parcialidades da web estão explodindo na mídia. Como foi a situação do Twitter, que foi acusado pelos usuários no fim de 2020, de que os algoritmos da rede estariam sendo racistas. Após tuítes com montagens de rostos de negros e brancos viralizarem, a ferramenta da plataforma destacou a pessoa branca em todos as postagens. 

Foto original sem recorte
Foto original sem recorte

Postagem após o recorte do próprio Twitter.

Foto original sem recorte
Foto original sem recorte

Postagem após o recorte do próprio Twitter.

Só foi a partir dessa visibilidade no caso, que a empresa divulgou como o recorte automático de imagens era feito. Segundo a explicação, as imagens são cortadas para focar em regiões de maior “saliência”, ou seja, as áreas com mais chances de serem observadas primeiro. Só por essa declaração já houve um alvoroço, pois de acordo com o algoritmo então, pessoas brancas seriam mais “salientes” que negras? ou mereciam mais destaque? 

O ponto é que algoritmos não tem raciocínio como os humanos, eles agem de acordo com uma fórmula, isso quer dizer que o software recebeu informações enviesadas em sua base de dados para ter chegado a esses resultados. A empresa afirma que fez inúmeros testes para detectar parcialidades na programação da ferramenta, mas ficou claro que foram falhos. Por fim, a rede reconheceu que o instrumento tem erros e que vai tentar reduzir a problemática, mas diz ser impossível deixá-lo neutro. 

Aspecto Jurídico

Partindo para um aspecto jurídico sobre esse tema muitas perguntas surgem, quem são os culpados de fato por essas discriminações? os programadores? Como fica o direito da pessoa lesionada pela própria ferramenta da rede? Qual a solução? 

Todos esses questionamentos por hora não têm resolução, pois é muito difícil regular os algoritmos e a I.A em vista de princípios éticos, já que é impossível se criar uma tecnologia com essa complexidade deixando-a neutra. Entretanto, é necessário reconhecer que a mídia digital não tem proporcionado uma equidade entre seus usuários, o que é sim um erro e em certos casos até crime. 

Dentre os dilemas supramencionados é necessário conceituar termos, e classificar o posicionamento do Direito Brasileiro acerca da discriminação. Segundo doutrinadores, um ato discriminatório é entendido, quando ocorre com intenção e arbitrariedade indo contra a previsão legal, ou seja, é a ação de segregar um indivíduo. Já o preconceito é um juízo pré-concebido sobre qualidade física, moral ou psíquica de alguém. Dessa forma, deve-se entender que a discriminação pressupõe um ato (ação ou omissão) e o preconceito não, mas ambas são proibidas expressamente pelo artigo 1º da lei 7.716/89:

  • Art. 1º Serão punidos, na forma desta Lei, os crimes resultantes de discriminação ou preconceito de raça, cor, etnia, religião ou procedência nacional.  

Em um parecer, a historiadora Lilia Schwarcz, já afirmava que “(…) Estamos diante de um tipo particular de racismo, um racismo silencioso e sem cara que se esconde por trás de uma suposta garantia de universalidade e da igualdade das leis, e que lança para o terreno do privado o jogo da discriminação. (O que ler na ciência Social brasileira (1970-1995)

Portanto, se hoje já existe uma legislação clara acerca das discriminações no mundo físico, manifesta-se uma incerteza. Por que o mesmo direito não é aplicado no meio virtual? Afinal, discriminação independe do meio.

No que tange a essa problemática, em 2020, entrou em vigor a Lei Geral de Proteção de Dados Pessoais (LGPD), apesar de ser algo recente são muito poucos os usuários que têm conhecimento acerca de seus direitos no meio digital (isso quando sabem que têm direitos naquele ambiente). E no artigo 6º inciso IX da LGPD, fica claro que: 

  • Art. 6º As atividades de tratamento de dados pessoais deverão observar a boa-fé e os seguintes princípios:

IX – Não discriminação: impossibilidade de realização do tratamento para fins discriminatórios ilícitos ou abusivos;

Nesse viés, evidenciamos um problema entre a teoria jurídica e a prática, que encontram sua incompatibilidade máxima no artigo 5º (caput) da Constituição Federal, pois ela garante a igualdade civil de todos os indivíduos, ao afirmar que:

  • Art. 5º “Todos são iguais perante a lei, sem distinção de qualquer natureza, garantindo-se aos brasileiros e aos estrangeiros residentes no País a inviolabilidade do direito à vida, à liberdade, à igualdade, à segurança e à propriedade..”

Contudo, a Lei Geral de Proteção de Dados, vai oferecer diretrizes com relação ao tratamento de dados. Ou seja, estabelece princípios gerais para a utilização desses, e garante os direitos dos titulares. Mas ela não versa sobre o que um ente privado (como o Instagram, Facebook, Twitter) pode fazer com esses materiais. Sendo assim, existe um vácuo jurídico sobre a tipificação dos algoritmos e da I.A no que se refere às informações pessoais no ambiente virtual.

Conclusão

Foi relativamente a esse vazio legislativo e a carência de uma ética em sistemas baseados em Inteligência Artificial, que foi criado em 2019 o projeto de lei 5051/19. Ele tem por finalidade estabelecer princípios para o uso dessa tecnologia. Entretanto, o projeto é medíocre e raso quando comparado com as problemáticas que já estão em vigência na internet.

Por fim, a sociedade não pode ser ingênua e achar que os seus dados não são valiosos, deixando-os desprotegidos ou com fácil acesso. A população – principalmente a da web –  deve levantar o debate sobre a construção de uma Inteligência Artificial ética, e exigir que diretrizes claras sejam dadas aos algoritmos. Assim, pode-se concluir que não estamos fazendo um bom uso das redes sociais, já que, estamos espelhando nossos preconceitos para esse ambiente. Porém, essa culpa também recai sobre os programadores, e nas grandes empresas por falta de transparência. Então lembre-se, o mundo virtual não é e nem será neutro, mas nos cabe repensar em como estruturar esse novo “universo”.

Referências

  • “A transparência no centro da construção de uma IA ética”, por Glauco Arbix (2020, Novos Estudos, CEBRAP)  
  • “Usuários acusam Twitter de racismo após algoritmo de fotos priorizar brancos a negros”. Publicado em Gizmodo Brasil, em 21 de setembro de 2020
  • “Racismo e injúria racial: formas distintas de discriminação, enraizadas no preconceito”. Publicado em Jus.com.br, em novembro de 2020
  • “Após ter algoritmo acusado de racismo, Twitter muda recorte de fotos”. Publicado em Uol, em 11 de março de 2021
  • “O que ler na ciência Social brasileira” (1970-1995), por Lilia Schwarcz (1999, Sumaré/ANPOCS/CAPES)

Imagem: Reprodução/Twitter

Publicado por Maria Fernanda Marinho


Siga o JP3!

Instagram: @jornalpredio3

Facebook: fb.com/jornalpredio3


Mais notícias e mais informações:


Jornal Prédio 3 – JP3 é o periódico online dos alunos e dos antigos alunos da Faculdade de Direito da Universidade Presbiteriana Mackenzie, organizado pelo Centro Acadêmico João Mendes Júnior e pela Associação dos Antigos Alunos da Faculdade de Direito da Universidade Mackenzie (Alumni Direito Mackenzie). Participe!

Deixe um comentário

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair /  Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair /  Alterar )

Conectando a %s

Crie um site ou blog no WordPress.com

Acima ↑

%d blogueiros gostam disto: