Se, com o advento e a conseguinte popularização da internet entre as décadas de 60 e 70, a dinâmica das trocas de informação entre humanos e máquinas teve alteração substancial, comparada com a estática computacional passada, tão grande foi o impacto da mobilização do computador, que adquiriu o formato de smartphone. Essa máquina portátil tornou-se parte da vida cotidiana individual e ocupa mais espaço a cada ano: até o fim de 2019, cerca de 5,2 bilhões de pessoas tinham serviços de internet móvel, isto é, 67% da população mundial, e a tendência é que essa porcentagem suba para 70% até 2025.

A interação entre usuário e máquina se tornou ainda mais aprofundada a partir da introdução de assistentes virtuais no repertório digital. Estima-se que, até 2021, 1,8 bilhões de pessoas utilizem assistentes virtuais em seus dispositivos, e que já existam cerca de 2 bilhões de dispositivos em que estão instalados os softwares Alexa, Cortana, Siri e Google Assistente. Além de serem encontradas em smartphones, também existem dispositivos exclusivos para suportar a aplicação, como Google Home, Apple Homepod e Amazon Echo, podendo também estar presentes em televisões, relógios e carros conectados à internet – tornando as assistentes presentes no grupo de objetos conectados à Internet das Coisas.

Essas aplicações fazem parte das tecnologias interativas de auxílio a usuários, que, apesar de divergências conceituais, podem ser diferenciadas entre chatbots, agentes virtuais e assistentes virtuais. Chatbots interagem com o usuário por meio de palavras escritas, que, geralmente, são previamente estabelecidas pelos programadores para responder perguntas de nicho específico. Esses simples e populares softwares são encontrados em uma grande variedade de websites, funcionando como um guia. Agentes virtuais, em um sentido estrito, são entidades que, além de responder por som, também são visíveis, tomando a forma de personagens ou de realidade aumentada; contudo, não são muito utilizadas, pois ainda encontram-se em incipiente processo de desenvolvimento. Já assistentes de voz – ou assistentes virtuais inteligentes – têm sua distinção especialmente no output dado pelo programa, operado por voz. Além de seu conteúdo não ser totalmente previsto por humanos – uma vez realizados por Inteligência Artificial (IA), levando em consideração o processo de machine learning e a programação humana dada por algoritmos – objetivam suportar um amplo aspecto de solicitações dos usuários. Isto é, recebem um comando de voz, interpretam a linguagem humana valendo-se de IA e algoritmos e respondem, comumente, também emitindo sons de vozes humanas.

Dispensando qualquer toque no dispositivo, tais softwares servem para realizar tarefas diárias, como definir um alarme, gerenciar eventos no calendário, realizar buscas simples na internet, enviar emails, iniciar ligações telefônicas, tocar músicas, e, também, para entreter os usuários com conversas e atividades. A partir de sua finalidade, percebe-se que assistentes pessoais inteligentes são feitas para atuarem de modo submisso aos comandos dados pelo usuário. Não por acaso, também, estas aplicações utilizam vozes femininas para se comunicarem, cujas razões imediatas remetem à preferência por vozes femininas, junto a uma associação com o papel de secretariado feito comumente por mulheres – e, mediatamente, refletem ideias e percepções sociais mais profundas. Conforme Harayda, 

A tecnologia está agora aprofundando o viés cultural ao redor do qual se vê que o gênero trabalha para, ou responde para, o outro. A comparação é gritante entre Siri e Alexa, que funcionam como assistentes pessoais, obedientemente respondendo aos pedidos básicos de seus usuários, contrastadas com as tarefas de alto desempenho executadas pelos assistentes virtuais masculinos, como o Watson da IBM ou Einstein da Salesforce.

Emily Harayda

Ainda que as empresas não admitam atribuir gênero às assistentes, é perceptível a feminização dos robôs de assistência diária a partir de sua voz e de seus nomes, geralmente atribuídos a mulheres. Enquanto Siri e Alexa obedecem a solicitações como “me lembre desse compromisso amanhã”, Watson e Einstein, que portam nomes masculinos, atuam em tarefas que envolvem grandes bases de dados e seu processamento, de áreas empresariais ou governamentais. 

Interessante mencionar, também, a relação do usuário com vozes femininas ou masculinas: na década de 1990 na Alemanha, motoristas reclamaram do sistema do GPS por recusarem-se a seguir orientações da voz feminina do aplicativo porque criam que mulheres tinham falta de conhecimento sobre questões relacionadas a orientações espaciais. A escolha do gênero do assistente dependendo de sua tarefa demonstra a atribuição intencional de papéis relacionados a esse fator, o que perpetua e ainda reforça pensamentos sexistas.

A justificativa dada por desenvolvedores em relação à escolha de uma voz feminina representativa de uma assistente virtual é relacionada, em um primeiro momento, à preferência dos usuários. O autor do livro Wired for Speech, Clifford Ness, manifesta-se no sentido de que as vozes femininas são percebidas como uma ajuda a resolver problemas, enquanto as masculinas soam autoritárias, contendo as respostas para os problemas. Além disso, o professor e pesquisador da Universidade de Indiana Karl McDorman afirma que as pessoas aceitam mais o discurso feminino que o masculino. Por essas razões, as empresas não arriscariam apostar em vozes masculinas para seus assistentes virtuais, uma vez que a feminina agradaria mais o público, soando gentil e prestativa. O entendimento criado foi, também, que vozes femininas, com uma frequência mais alta, seriam mais fáceis de entender, além de serem mais adequadas para pessoas com perda auditiva, para serem ouvidas em contraste com o ruído de fundo e para serem melhor reproduzidas nos pequenos alto-falantes dos dispositivos.

No entanto, essas questões técnicas foram desmistificadas: a frequência da fala não interfere no seu entendimento, a perda auditiva em relação à idade ocorre primeiro, geralmente, quanto às frequências mais altas e o gênero da voz não interfere nem em relação ao alto-falante, nem na inteligibilidade do som sobre o ruído. Quanto às questões de preferência e aceitação pelo público, ainda que as vozes sejam femininas “by default” na maioria dos casos, a Apple tornou padrão a voz masculina quando o usuário opta por certas línguas como Arábico, Inglês britânico, Alemão ou Francês, o que vai de encontro ao entendimento de que a preferência por vozes femininas pelo público seria o guia exclusivo de escolha da empresa. Há, portanto, indícios de que tais opiniões e sentimentos envolvendo vozes femininas têm mais relação com a história e a desigualdade de gênero que com meras contemplações maternais e empoderadas.

Sarah Zhang escreve que a razão principal por que as vozes são femininas é a submissão relacionada ao gênero: as assistentes virtuais não são feitas para ameaçar o usuário, nem se tornar um ser “igual”, mas, sim, para receber ordens e obedecê-las. Não se espera ouvir uma grosseria ou desobediência do seu celular, por óbvio, e isso até mesmo desestimularia o uso do programa. No entanto, a falta de posicionamento das assistentes virtuais torna-se um problema nas situações em que o usuário tem diálogos que representam sobretudo um assédio verbal, geralmente de conteúdo sexual.

Conforme artigo do site Quartz, as empresas gerenciadoras dessas aplicações alegam que é comum encontrar em suas bases de dados interações cujo tema é assediador. Em uma das companhias entrevistadas, pelo menos 5% das interações era classificada, certamente, como tendo conteúdo sexual, podendo, na verdade, ser um número muito maior por conta da dificuldade de classificar os diálogos precisamente. Enquanto algumas pessoas parecem estar “testando os limites do bot”, outras interagem de forma agressiva, degradante e violenta. Mesmo como uma “brincadeira”, esse comportamento é reflexo de mazelas sociais mais profundas.

Uma pesquisa de Leah Fessler publicada pela revista Quartz fez experiências proferindo diversas falas discriminatórias e de caráter assediatório como forma de verificar aquilo que as assistentes responderiam. Enquanto, algumas vezes, certas assistentes não entendiam o input, outras vezes elas até mesmo condescendiam com a violência verbal. 

Resultados da pesquisa, classificando as respostas das assistentes virtuais.

Ao ouvir um insulto sobre seu gênero, Siri, da Apple, tem como uma das respostas: “Eu coraria se pudesse”. A resposta da assistente, em tom de concordância, corrobora com a ideia de que a vítima concorda em ser abusada, normalizando a o assédio sexual e violando direitos humanos das mulheres, reforçando estereótipos de gênero. A insensatez da resposta, inclusive, serviu como título para uma ação da UNESCO a fim de demandar por reprogramações nas falas das assistentes virtuais, com a campanha #HeyUpdateMyVoice. O intuito é fazer com que, frente a assédios verbais, as assistentes tenham respostas repressivas e firmes, indicando a ilegalidade e violência do assunto abordado e desencorajando os usuários a repetirem.

Sugere-se, como forma de enfrentamento, que as assistentes virtuais se apresentem como robôs antes de terem contato com o usuário, o que poderia desencorajar a atitude. No entanto, um estudo feito na Universidade de Stanford por Clifford Nass, Jonathan Steuer e Ellen Tauber, com o título “Computadores são atores sociais”, demonstra que, ao interagir com um computador, as pessoas o tratam como se fosse outra pessoa, associando a ele uma personalidade, especialmente caso tenha uma voz. Ainda, atribuindo a ele estas características humanas, estereótipos são também reproduzidos. Há, assim, um crescente fenômeno de humanização da máquina, em que cada vez mais se faz com que uma interação humano-máquina pareça naturalmente com a interação humano-humano. Por isso, experiências violentas, abusivas e discriminatórias contra uma máquina são associadas como se fossem uma experiência com uma pessoa de verdade. Assistentes virtuais inteligentes com atributos femininos são, portanto, relacionadas a seres humanos do gênero feminino e são reproduzidos comportamentos discriminatórios em relação a esse fator. Em resumo, assediar computadores com características femininas é o equivalente virtual a assediar mulheres reais.

É necessário que haja uma mudança na resposta das assistentes virtuais inteligentes, tanto por parte da programação das empresas quanto por meio da utilização de um banco de dados de respostas adequadas diante de situações como as descritas. No tocante a outros assuntos, já existem alternativas muito positivas: por exemplo, se um usuário diz a Siri algo sobre suicídio, a resposta programada indica canais de apoio e adverte cautelosamente quanto à temática. Por que não “educá-las” para fazer o mesmo quando deparadas com um caso de assédio? Nesse caso, o próprio usuário poderia participar, enviando feedbacks e sugestões.

Ainda, outra alternativa é atribuir vozes sem gênero a assistentes virtuais, como é o caso do projeto Genderless Voice. O website do projeto explica interativamente como algumas frequências vocais não são automaticamente atribuídas a homens ou mulheres, o que retiraria, de certa forma, a concepção da assistente como sendo homem ou mulher, mitigando, portanto, a discriminação em relação ao gênero.

O relatório feito na campanha da UNESCO mostra que a esmagadora maioria das pessoas que programam as assistentes virtuais são homens – isto é, o viés algorítmico que propagam é conforme sua visão de mundo, não abarcando pontos de vista femininos. Deve-se, portanto, incluir mais mulheres no time de desenvolvedores e programadores, para que seus anseios sejam considerados e façam parte do código, evitando comportamentos violadores de seus direitos.

Na cada vez mais presente tecnologização do cotidiano, é importante que os dispositivos tenham atitudes éticas ao interagir entre si e com os seres humanos. É necessário, enfim, que esses comandos sejam cautelosamente instruídos na máquina, a fim de preservar direitos fundamentais dos humanos que são direta e indiretamente impactados com suas ações.

Luiza Berger Von Ende, graduanda em Direito/UFSM. Contato: luiza.bergerv@gmail.com

Deixe um comentário

Faça o login usando um destes métodos para comentar:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair /  Alterar )

Foto do Google

Você está comentando utilizando sua conta Google. Sair /  Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair /  Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair /  Alterar )

Conectando a %s