Por Larissa Oliveira

O Legal Hackers Mackenzie, Liga Acadêmica de estudos na interface entre Direito e Tecnologia, da Faculdade de Direito do Mackenzie, traz um Informativo abordando algumas considerações sobre a governança e ética nos algoritmos. 

Qual a importância do tema? 

Uma pesquisa realizada em 2004 pelo Global Environmental Management Initiative indicou que 50 a 90% do valor de mercado das companhias são atribuíveis a fatores intangíveis, bem como que 81% dos executivos do Global 500 consideram as questões sobre intangíveis entre os dez mais importantes determinantes de valor do seu negócio (Who Cares Wins, 2003).

Por ‘ativos intangíveis’ entende-se aqueles bens que não são representados por dinheiro ou direitos a serem recebidos em uma quantia fixa ou determinável. Vale dizer ativos como marcas, softwares, títulos e periódicos, patentes, licenças, receitas, fórmulas, projetos, dentre outros. 

Dito isso, ante a crescente valorização dos ativos intangíveis de uma empresa, o papel de ESG – Environmental, Social and Governance – ganhou relevância por atribuir uma métrica qualitativa da responsabilidade social corporativa, conferindo uma espécie de selo de qualidade ao negócio. Impacta, desse modo, diretamente na perenidade e lucratividade da empresa. 

Assim, é relevante reconhecer que a inteligência artificial passou a ocupar papel significativo como ativo intangível nas companhias. É certo, ainda, reconhecer que passaram a desempenhar papel coadjuvante na busca por sustentabilidade e governança. A exemplo disso, a plataforma de robôs traders SmarttBot, em setembro de 2020, inaugurou uma nova plataforma, SmarttInvest, baseadas em ativos ESG, com ações que fazem parte do Índice de Sustentabilidade Empresarial (ISE) da B3, a Bolsa de Valores Brasileira. Desse modo, a proposta foi a seleção das ações com melhores índices de governança e sustentabilidade, utilizando a inteligência artificial para a criação de uma carteira de ativos somente com aqueles de melhor desempenho no ISE.

Nesse mesmo raciocínio, o endowment fund da Harvard University assumiu o compromisso de ser neutro em carbono até 2050, assim como o fundo soberano da Noruega, que deixou de investir em combustíveis fósseis, gás natural e carvão em razão de sua pegada de carbono.  

Por outro lado, o astrofísico Stephen Hawkings, em 2014, já alertava para os riscos que acompanham os benefícios provenientes da utilização da inteligência artificial.

A Amazon, por exemplo, adotou um software de recrutamento para auxiliar na seleção de seus funcionários. No entanto, descobriu-se que o programa apresentava um viés discriminatório no algoritmo em relação às mulheres. Uma falha no algoritmo também colocou em cheque a reputação da Knight Capital’s, uma das maiores corretoras de valores dos Estados Unidos, por provocar a perda de 460 milhões de dólares em 45 minutos e levar a sua insolvência.  

Considerando a recorrências dessas falhas da IA, em especial relação a ética e a governança, a equipe de pesquisa da Microsoft produziu um tutorial intitulado “A practitioner translation tutorial – Challenges of incorporating algorithmic ‘fairness’ into practice”. O trabalho assinala a observância de dois tipos de ofensas exercidas pelos algoritmos: (1) harms of allocation, ofensas que impedem ou prejudicam o acesso de oportunidades ou recursos e (2) harms of representation, reforçando práticas discriminatórias e de estereótipos. 

Por harms of allocation, tem-se como exemplo o algoritmo de viés discriminatório utilizado para seleção de candidatos pela Amazon. Nessa mesma categoria, insere-se o caso envolvendo a câmera 2009 Nikon S630 que emitia a mensagem “ alguém piscou?” quando a fotografia retratava um rosto asiático, degradando a experiência do usuário.

Nesse diapasão, outra falha nos algoritmos que chama a atenção é a criação e utilização de robograders, isto é, inteligência artificial utilizada para avaliar redações de alunos no âmbito escolar. Nesse ponto, Les Perelman, Diretor de Redação do MIT, junto a Louis Sobel, Damien Jiang e Milo Beckman, destacam o desacerto e as distorções implicadas na utilização da IA para essa finalidade com a criação da BABEL (Basic Automatic B.S. Essay Language Generator), um programa capaz de gerar uma redação a partir de uma única palavra a ele fornecida, constituindo, no entanto, 500 palavras de “pura asneira” que logravam notas satisfatórias nas IA’s de robograding. 

Desse modo, desmascaram softwares com a promessa de uma correção tão boa quanto a de uma professor, por menor custo, que, ao final, conferiam melhores notas com base em critérios irrelevantes como o tamanho da redação, uso de palavras longas e incomuns, em detrimento de qualquer análise da argumentação jurídica ou até mesmo de crassos erros gramaticais. E, afinal, nas palavras de Peter Greene, que significado teria dizer ao aluno para se esforçar em comunicar boas ideias e argumentos para uma inteligência artificial que não entende nenhuma delas? Esse caso evidencia, assim, o dever de imposição de limites aos usos da IA observando-se contexto, finalidade e eticidade. 

Por fim, os algoritmos podem efetuar harms of representation, ofensas de teor discriminatório que também ensejam a observância de de governança e ética algorítma, como foi o caso, constatado pelo professor Latanya Sweeney de Harvard, de discriminação nos resultados de busca do Google por associar nomes típicos à cultura negra com resultados de registros criminais.

Em que pé o Brasil está em termos de regulação da IA?

No aspecto jurídico da inteligência artificial, há de se destacar que a regulação no Brasil, até o momento, é bastante primitiva. Encontra tímidos fundamentos no art. 20 da LGPD, no que concerne a produção de decisões automatizadas no Judiciário. Além disso, não custa lembrar que os artigos 3º, IV; 5º, XLI e 7º, XXXI, da Constituição Federal de 1988 vedam qualquer meio de discriminação, o que evidentemente aplica-se aos usos da inteligência artificial. 

Mas para uma regulação, de fato, do assunto, há projetos de lei em trâmite no Congresso Federal, envolvendo desde a criação de uma lei geral ao estabelecimento de princípios para seu uso, mas todos ainda em fase inicial. São eles os PL 240/2020, PL 21/2020 e PL 4120/2020 na Câmara dos Deputados e PL 5691/2019 e PL  5051/2019 Senado Federal. Os projetos convergem em torno da adoção dos princípios da transparência, segurança, proteção da privacidade e dados pessoais, respeito à ética, aos seres humanos e aos valores democráticos.

No tema da transparência, por exemplo, há um projeto para criação de um Relatório de Impacto de IA, semelhante ao Relatório de Impacto à Proteção de Dados previsto na LGPD, para acompanhamento do ciclo de vida da inteligência artificial. A ideia é que as empresas que utilizassem a IA passassem a realizar uma auditoria do sistema mapeando os fluxos e adotando medidas de mitigação de riscos com base nessas análises. 

Já no que toca a responsabilização, também objeto dos projetos de lei em comento, observa-se a inclinação dos legisladores para a adoção da teoria da responsabilidade objetiva, isto é, independente de dolo, a ser imputada às empresas utilizadoras da IA. Desse modo, seriam responsabilizadas em todos os casos de forma indiscriminada, excetuados apenas os casos de culpa exclusiva da vítima ou de força maior, posicionamento esse que já encontra fortes críticas que chamam a atenção para um possível desincentivo ao desenvolvimento tecnológico do País. 

Ademais, não há, até o momento, a adoção de uma estratégia nacional no assunto. Em 2019, o Ministério da Ciência, Tecnologia, Inovações e Comunicações (MCTIC) abriu uma consulta pública, colhendo subsídios na construção de uma Estratégia Nacional de IA, mas aguarda-se, ainda, a divulgação do relatório final.

Assim, vê-se que, embora o Brasil faça parte dos países signatários dos princípios para desenvolvimento da IA da OCDE, a regulação anda de forma vagarosa.

Referências

  • Investimentos sustentáveis: Um estudo sobre a família de Índices ESG“, por Gabriela Elzi Andrade Gontijo
  • O que é ativo intangível e como avaliá-lo corretamente. Publicado em Investor Consulting Partners
  • Plataforma une investimentos em ESG à inteligência artificial. Publicado na Revista Exame Invest, em 2 de setembro de 2020
  • Harvard endowment is on the path to net-zero greenhouse gas emissions. Publicado em The Boston Globe, em 26 de fevereiro de 2021
  • Norway’s Sovereign-Wealth Fund Boosts Renewable Energy, Divests Fossil Fuels. Publicado em The Wall Street Journal, em 12 de junho de 2019
  • A practitioner translation tutorial – Challenges of incorporating algorithmic ‘fairness’ into practice. Publicado em Microsoft Research
  • No, Software Still Can’t Grade Student Essays. Publicado na Forbes, em 25 de maio de 2020
  • Google searches expose racial bias, says study of names. Publicado em BBC News, em 4 de fevereiro de 2013
  • A Inteligência Artificial e os caminhos regulatórios. Publicado em Revista Jota, em 26 de fevereiro de 2021

Imagem: Pixabay

Publicado por Maria Fernanda Marinho Vitório


Siga o JP3!

Instagram: @jornalpredio3

Facebook: fb.com/jornalpredio3


Mais notícias e mais informações:


Jornal Prédio 3 – JP3 é o periódico online dos alunos e dos antigos alunos da Faculdade de Direito da Universidade Presbiteriana Mackenzie, organizado pelo Centro Acadêmico João Mendes Júnior e pela Associação dos Antigos Alunos da Faculdade de Direito da Universidade Mackenzie (Alumni Direito Mackenzie). Participe!