Por Luiza Berger von Ende

Nesta semana, a Cepediana Luiza Berger von Ende realizou uma contribuição à matéria “Recrutamento por inteligência artificial: funciona como prometido?” à repórter Bianca Zanatta do Jornal Estadão. A matéria ouviu gestores de RH de grandes empresas brasileiras sobre suas considerações no uso da inteligência artificial em processos seletivos, com posicionamentos a favor da rapidez da seleção e também contra sua capacidade de discriminação.

Alguns afirmam que o trabalho de triagem dos algoritmos não substitui o trabalho do administrador de recursos humanos, muito embora auxilie no grande volume de currículos recebidos e no mapeamento de dados; seriam capazes, então, de indicar profissionais que mais se encaixam na vaga pretendida, conforme parâmetros acadêmicos e de experiência prévia. Muitos dos programas utilizados, inclusive, são feitos explicitamente para não analisar certos atributos do candidato, como raça, sexo e orientação sexual, a fim de evitar realizar discriminações, como é o caso da IA Gaia, da empresa Gupy. Por outro lado, empresas que não utilizam essa tecnologia também têm seus argumentos, entre os quais está a capacidade de exclusão de pessoas que não se encaixam necessariamente nos padrões buscados. Isso pode, além de gerar alguma discriminação, fazer com que se “percam” candidatos diferentes, mas competentes.

A partir do contexto delineado pela reportagem, e também seguindo na linha das últimas reflexões publicadas aqui no site do CEPEDI, como é o caso do texto sobre a utilização de inteligência artificial no poder judiciário e do texto sobre reconhecimento facial e racismo algorítmico, pode-se pensar sobre a construção da inteligência artificial e a sua utilização nas decisões cotidianas, como é o caso das seleções de emprego, no poder judiciário e em outras searas da vida que têm influência direta nos direitos fundamentais da população. Que a tecnologia não é neutra já se sabe – tal como todos os construtos feitos por seres humanos – e é necessário compreender o porquê e como essas decisões tem efeito nos nossos direitos fundamentais, bem como a necessidade de protegê-los.

A inteligência artificial pode ser compreendida como um algoritmo, isto é, uma sequência de passos lógica e finita, programada por uma pessoa, com um objetivo específico, e realizada por um computador. A diferença é que a inteligência artificial se refere a um algoritmo mais complexo, que é programado para encontrar a melhor maneira de atingir aquele objetivo por si só – como é o caso das redes neurais supervisionadas, em que a pessoa que programou dá feedbacks ao algoritmo que tentou encontrar a resposta ao problema proposto; dado um feedback negativo, ele entende que o caminho tomado para atingir o objetivo deve ser descartado, e que o caminho que percorreu até chegar a uma informação sobre a qual recebeu feedback positivo deve ser continuado e aprimorado.

Ilustração de rede neural. Fonte: Wikipedia.

As maravilhas que esses algoritmos fazem, como reconhecimento de imagem, tradução de texto, reconhecimento de voz e até mesmo a capacidade de bater um papo com uma pessoa de verdade chegam até a assustar, e muitos temem que um dia seremos dominados pelas máquinas e obedeceremos a uma soberana inteligência artificial. Contudo, já disse o matemático David Sumpter, não há de se preocupar com isso (por enquanto). No livro Dominados Pelos Números, ele afirma que a inteligência artificial de hoje, na verdade, sabe fazer bem uma única coisa – ou seja, é incapaz de realizar uma tarefa levemente diferente da qual foi programada. Assim, compara a inteligência da máquina à inteligência de uma bactéria.

Entretanto, não quer dizer que não devemos nos preocupar completamente com a utilização da inteligência artificial. A crença na imparcialidade e neutralidade nessas ferramentas as confere um poder bastante grande, capaz de mascarar desigualdades, discriminações e processos arbitrários. Há extensos relatos de como a automatização de processos decisórios, seja por utilizarem bases de dados enviesados, seja por terem uma programação que cria um ciclo de retroalimentação pernicioso, acaba violando direitos de dignidade, liberdade, saúde, segurança, igualdade, moradia e muitos outros. Em Automating Inequality, Virgina Eubanks narra casos em que, nos EUA, algoritmos realizavam correlações discriminatórias e prejudicais que dificultavam o acesso à saúde, que punham sob vigilância e sob risco de separação famílias pobres e que, em vez de facilitar o acesso à moradia a pessoas sem casa, afastavam ainda mais as possibilidades por conta de perfis estatísticos falhos. Cathy O’Neil também enche de exemplos reais a perpetuação de desigualdades e condições precárias por algoritmos, que podem ser lidas na resenha de seu livro Weapons of Math Destruction, publicada aqui no site.

Por isso, cada vez mais é urgente a reflexão sobre a criação das tecnologias, que operam a partir de um ponto de vista específico e que contêm muitas limitações, as quais têm poder para violar direitos em prol da eficiência na tomada de decisões, sem que as decisões, de fato, sejam melhores. Isso se aplica tanto no sistema judiciário, em políticas públicas e políticas privadas. Sumpter, citando Kathleen Richardson, pesquisadora de ética e cultura de robôs e IA, diz que o verdadeiro perigo “não é que a inteligência de computador exploda, mas, em vez disso, que estamos utilizando as ferramentas que temos atualmente para melhorar a vida de uns poucos, em vez da vida de muitos”. Assim, precisamos reivindicar o acolhimento e o respeito aos direitos fundamentais e princípios éticos em todas as mínimas intervenções da inteligência artificial na vida humana: por auditorias, pela criação dessas tecnologias a partir de times com diversidade, pela transparência dos motivos por que a máquina decidiu de tal forma, pela possibilidade de questionamento e revisão por interventores humanos e, principalmente, pela percepção de que todo esse contexto está tratando de seres humanos reais, dotados de dignidade e de direitos, e que merecem serem tratados como tal.

Deixe um comentário

Faça o login usando um destes métodos para comentar:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair /  Alterar )

Foto do Google

Você está comentando utilizando sua conta Google. Sair /  Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair /  Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair /  Alterar )

Conectando a %s