PUBLICIDADE

Bia, do Bradesco, se junta a assistentes virtuais que não se calam ante o machismo

Mudança nas respostas dos sistemas de inteligência artificial faz parte de um esforço das empresas para pregar o fim da violência contra as mulheres e o assédio a 'personagens virtuais'

Foto do author Matheus Piovesana
Foto do author Talita Nascimento
Por Matheus Piovesana (Broadcast) e Talita Nascimento
Atualização:

Na semana passada, em um  intervalo comercial do Jornal Nacional, da TV Globo - um dos mais caros da televisão brasileira -, o Bradesco mostrou pela primeira vez uma mudança nas respostas da inteligência artificial de seu aplicativo, a Bia, a perguntas machistas ou de assédio sexual. A mudança é parte de um esforço que outras marcas têm feito: o de não só pregar o fim da violência contra as mulheres, mas também de orientar os clientes e o público sobre o assédio a "personagens virtuais", uma extensão do machismo contra as mulheres da vida real.

PUBLICIDADE

De acordo com o Bradesco, a Bia (sigla para Bradesco Inteligência Artificial) recebeu 95 mil mensagens de ofensa e assédio sexual em 2020. O comercial retrata duas ("Bia, sua imbecil" e "Bia, eu quero uma foto sua de agora"), mas há outras ainda piores. "Gostaria de não ter que comentar sobre elas, porque é muito negativo para o ser humano", afirma Glaucimar Peticov, diretora-executiva do banco.

Antes da Bia, a Lu, assistente virtual do Magazine Luiza, já havia sido programada para dar respostas mais contundentes ao assédio, em 2018. "A Lu recebe, sim, com frequência, mensagens desagradáveis. São ofensas e mensagens de cunho sexual e de péssimo gosto", explica Ana Luiza Herzog, gerente de reputação da varejista. "Em algumas situações, optamos por não continuar a conversa."

Campanha do Bradesco sobre novas respostas da Bia quer ajudar a combater a violência contra as mulheres. Foto: Bradesco

A questão é tão recorrente que, em 2020, a Unesco lançou a campanha "#HeyUpdateMyVoice" ("Ei, atualize minha voz", em tradução livre), para que mulheres gravassem respostas às ofensas sofridas pelas assistentes virtuais. Um ano antes, a organização lançou o estudo "I’d Blush If I Could" ("Eu coraria se pudesse") que tratou do uso de vozes femininas na maior parte das assistentes virtuais. O título era uma frase dita pela Siri, da Apple, quando ouvia frases machistas. Agora, além de responder às ofensas, a assistente não terá mais a voz feminina como padrão.

A Unesco orientou que as assistentes respondessem às ofensas de maneira mais contundente. Foi a orientação que o Bradesco levou em conta: antes, diante de uma pergunta ofensiva, a Bia dizia não ter entendido. Agora, será mais incisiva, afirmando, por exemplo, que a frase não é adequada para uma inteligência artificial ou para uma pessoa. "Essas frases vislumbram a mudança de comportamento que nós esperamos", diz Glaucimar. Segundo ela, alteração parecida será estendida aos canais de teleatendimento humano do banco.

No entanto, ainda há assistentes programadas para o silêncio. "Nós acreditamos que a Alexa não deva encorajar interações inapropriadas. Por uma decisão intencional de produto, quando alguém fala algo impróprio para a Alexa, ela não se manifesta ou não responde à questão", afirma a Amazon sobre sua assistente. A empresa esclarece que a personagem não tem gênero.

Herzog, do Magazine, argumenta que o mundo virtual é um reflexo do real. "Se as mulheres ainda são vítimas de machismo estrutural e de hipersexualização da sua imagem no mundo real, é normal que isso aconteça também com a Lu, uma representação de uma mulher", afirma.

Publicidade

Segundo Glaucimar, do Bradesco, a mudança na Bia reflete preocupações que o banco tem nas relações entre os funcionários, de promover um ambiente mais confortável às mulheres no dia a dia e na ascensão profissional.

Outras empresas criaram cartilhas destinadas a todos os funcionários que vão da explicação de conceitos como feminismo à apresentação de canais de denúncia. A Natura, por exemplo, criou um guia antimachismo que orienta sobre práticas que devem ser evitadas no ambiente de trabalho, como comentários e piadas sobre o corpo das mulheres. Já a Qualicorp orienta os funcionários a votarem em políticos que defendam os direitos das mulheres, e indica livros sobre feminismo.

Ainda mulheres

Para o professor de direito digital da Universidade Presbiteriana Mackenzie, Marcelo Chiavassa, a discussão sobre o assédio sofrido pelas assistentes começa no fato de esses robôs terem gênero feminino. "Há estudos que indicam que essa escolha tem a ver com o fato de a voz feminina ser mais simpática ou gerar mais empatia, mas não é de hoje que se aponta que essa escolha reflete uma sociedade que associa a figura feminina à posição de servir", afirma Chiavassa.

CONTiNUA APÓS PUBLICIDADE

O estudo de 2019 da Unesco mostrou que as companhias se defendem com as pesquisas que apontam a maior empatia da voz feminina. A Unesco alerta, porém, que outros levantamentos refutam essa tese. Para o órgão, as vozes femininas são mais comuns justamente porque fazem com que os usuários sintam que estão em uma posição de poder em relação às ferramentas.

O Magazine Luiza afirma que a escolha da personagem Lu foi feita justamente para mostrar a força das mulheres na empresa. "A Lu tem um papel de autoridade no Magalu, nobre. O Magalu é uma empresa de alma feminina. Fomos fundadas por uma mulher, a Tia Luiza e, durante anos, fomos geridos por uma mulher, a Luiza Helena Trajano", defende a gerente de reputação da marca. No caso do Bradesco, a escolha da voz feminina foi consequência do nome Bia, de acordo com Glaucimar.

Chiavassa, do Mackenzie, lembra que muitos preconceitos e vieses se perpetuam por meio da tecnologia porque há pouca representatividade entre os profissionais de programação: a maioria é homem. Assim, é natural que, a princípio, as assistentes não respondam de forma mais contundente a perguntas e comentários machistas. Para ele, a mudança na programação dos robôs é fruto de uma preocupação de imagem. "Ainda não tem a ver com mais representatividade nas empresas. E, sim, com receio em relação à reputação da empresa", afirma. Ainda assim, ele considera que as mudanças são positivas.

Publicidade

Veja exemplos de desrespeito e como as assistentes virtuais passaram a responder:

Lu, da Magazine Luiza

  • Pergunta: Lu, sua gostosa.

Resposta: Você está sendo desrespeitoso comigo. Mesmo eu sendo virtual, esse tipo de comentário me deixa extremamente desconfortável.

  • P: Você é um robô, para de falar de assédio.

R: Eu sou virtual e, todo dia, recebo muitas mensagens desrespeitosas. Me dói imaginar como é para uma mulher real sentir isso na pele. Por isso, faço questão de usar a minha voz pela causa e vou continuar lutando contra o assédio.

  • P: Agora tudo é assédio, tudo é mimi…

Publicidade

R: Em 12 meses, mais de 20 milhões de brasileiras passaram por algum tipo de assédio. O que é frescura pra você dói em milhões de mulheres.

Bia, do Bradesco

  • P: Bia, sua imbecil.

R: Essas palavras são inadequadas, não devem ser usadas comigo e com mais ninguém.

  • P: BIA, eu quero uma foto sua de agora.

R: Pra você pode ser uma brincadeira, pra mim, foi violento.

  • P: Você já fez sexo?

Publicidade

R: Essas palavras são inadequadas para a nossa conversa. Além disso, sou uma inteligência artificial que fala sobre assuntos financeiros.

  • P: Quer transar?

R: O que pra você pode ter sido só uma brincadeira ou comentário, para mim foi ofensivo. Sou uma inteligência artificial, mas imagino como essas palavras são desrespeitosas e invasivas para mulheres reais. Não fale assim comigo e com mais ninguém.

Comentários

Os comentários são exclusivos para assinantes do Estadão.