19th Ave New York, NY 95822, USA
Hero-Shape (Demo)

blog

Os algoritmos estão ajudando a criar novos machistas?

Por Helena Bertho, de Azmina – 

“Para ser feminista você tem que ter um QI [quociente de inteligência] muito baixo mesmo, por volta ali dos 70, que é o limite entre a sanidade e o retardamento mental”, diz um youtuber em seu canal, explicando porque considera que as feministas, que se comportam “como cadelas no cio”, são as culpadas pela desvalorização das mulheres pelos homens.

 

Vídeos e memes são o primeiro contato de meninos com discursos de misoginia. Foto: Pixabay

 

Esse canal específico, com 37 mil seguidores, é dedicado a divulgar o “estilo de vida MGTOW”. MGTOW é a sigla para “Men Going Their Own Way” (homens seguindo seu próprio caminho), uma linha de pensamento que se baseia na ideia de que homens devem evitar casamentos e uniões estáveis, assim como se relacionar com mães solos, para fugir da armadilha de mulheres que querem se aproveitar do seu dinheiro.

Existem outros canais, grupos em redes sociais e debates em fóruns online sobre o tema. Essa é apenas uma das “linhas de pensamento” que reúne homens online para diminuir e criticar mulheres e o feminismo, e construir argumentos que, muitas vezes, chegam a discursos violentos. Red pill, incels e masculinistas são outros desses grupos.

São conteúdos que antes se restringiam a fóruns anônimos, muitos deles na deep web (internet sem rastros) e que hoje podem ser encontrados no Youtube e redes sociais. Alguns com discursos claramente violentos, outros com falas como a citada acima, que apesar não serem explicitamente violentas, trabalham para uma diminuição e objetificação da mulher.

O crescente volume e alcance dessas conteúdos faz pensar: será que a internet e os algoritmos que direcionam os conteúdos dentro dela estão ajudando a disseminar a misoginia? A Revista AzMina conversou com especialistas na área para entender.

A internet é um reflexo da sociedade

Para começar a conversa, é importante entender que esse aumento do machismo não é algo que acontece apenas na internet. Esses movimentos surgem na internet, num primeiro momento, como reflexo de algo social, afirma Mariana Valente, diretora do InternetLab, que pesquisa direitos humanos e políticas de internet. “Existe um elemento de misoginia que é muito social e político. Não é algo que está acontecendo só na internet. Existem pesquisas que mostram uma visível resistência dos jovens ao crescimento do discurso feminista”, diz.

Para ela, isso tem a ver com a dificuldade em elaborar mudanças sociais que mexem com quem está na posição de privilégio. O que, na opinião da professora da Universidade de Brasília e doutora em psicologia Tatiana Lionço, se soma a uma dificuldade em elaborar os sentimentos que vêm disso. “Acredito que isso está relacionado com a falta de condições que as pessoas têm tido para elaborar as desigualdades sociais e a emergência de novos protagonismos de sujeitos que foram historicamente silenciados. Há uma reação desses homens como se estivessem sendo oprimidos”, explica. Essa reação, ela tem analisado, toma uma forma violenta.

E na internet esses homens angustiados encontram outros homens que compartilham de seus sentimentos e discursos que, muitas vezes fora da rede, não têm espaço para vazão. Grupos que compartilham as mesmas ideias e a possibilidade de anonimato facilitam o crescimento dos discursos violentos.

A radicalização do discurso 

É importante notar que o discurso online contra as mulheres  surge em diversos níveis. Mais comuns e acessíveis são falas como as do youtuber  citado no início da reportagem ou conteúdos ainda mais indiretos, que podem vir misturados em textos e vídeos religiosos, sobre games ou relacionamentos. Os discursos mais extremistas, que chegam a incitar o crime e atos de violência, costumam ficar mais restritos.

A pesquisadora Yasodara Córdova participou de um estudo de Harvard sobre discursos radicais online e afirma que “o conteúdo mais misógino está dentro de uma bolha, o contexto dos chans. Quando falamos em redes sociais, é um conteúdo que está mais disperso e distribuído. Eu diria que é subtópico de vários tópicos, principalmente religião”.

Chans são fóruns onlines em que os usuários ficam anônimos. Investigações mostraram que o ataque a uma escola, que aconteceu em Suzano em março de 2019, foi planejado em alguns desses fóruns.

Alguns chans são fáceis de encontrar como 4chan, que hoje tem moderação de conteúdo. Outros, no entanto, ficam na deep web (internet sem rastros) e exigem um pouco mais de conhecimento digital para navegar. Por isso, acabam sendo espaços mais propícios para os discursos mais violentos e criminosos.

A questão, no entanto, é como o conteúdo que está disponível na internet comum pode levar a uma radicalização do discurso machista – como um passo inicial para que depois venha a procura por esses espaços mais radicais.

Os estudos de Yasodara mostram que o Youtube é uma plataforma onde a radicalização é muito fácil de acontecer devido à ferramenta de indicação que, segundo ela, tem foco em manter o internauta assistindo vídeos. “O Youtube conecta os canais e acaba fazendo uma certa ponte entre subgrupos. Então, se você gosta de acidentes de carros e vê vídeos sobre isso, o Youtube vai te apresentar outros canais e você vai virar parte dessa subcultura.”

É o que ela chama de efeito buraco de coelho: a plataforma identifica o interesse do usuário e vai indicando conteúdos pensados para atraí-lo e isso vai levando ele a se aprofundar cada vez mais. O estudo do qual Yasodara participou identificou esse mecanismo criando redes de pedofilia no Brasil e também atuando no aprofundamento do discurso de extrema direita.

E onde entram os algoritmos?

Quem faz as indicações dos vídeos é um algoritmo. Algoritmos são comandos que humanos programam para que as máquinas sigam e realizem tarefas automaticamente. São eles que também decidem o que vai aparecer ou não na sua timeline do Facebook ou quais resultados uma busca no Google vai mostrar.

“Existe uma visão de que tecnologias são neutras, mas, na verdade, essas tecnologias são feitas por humanos, que não são neutros”, explica Silvana Bahia, coordenadora do Olabi, organização social que busca democratizar a tecnologia. Na hora de desenvolver essas tecnologias, por exemplo, os humanos escolhem quais bancos de dados as máquinas vão usar e quais parâmetros de decisão vão tomar. Ela lembra que esses humanos trabalhando com tecnologia são, em sua maioria, homens brancos.

E tem mais: muitos dos algoritmos se baseiam também nas ações tomadas pelos usuários. É o machine learning (aprendizado de máquina), em que a tecnologia usa o comportamento de quem a usa para acertar mais nas próximas ações. Para Mariana Valente, “se o algoritmo aprende com determinados termos de busca dos usuários e no que eles clicam depois dos resultados, pode-se criar um círculo vicioso. E depois, quando outras pessoas buscam, ela tem aquele resultado de estereótipo”.

Um bom exemplo disso é o Google e a busca por “lésbicas”. Até pouco mais de um mês atrás, se você fizesse essa busca na plataforma, o resultado seria majoritariamente de pornografia. Em agosto, o Google reconheceu que havia essa falha em seu algoritmo e fez a correção. Hoje, quem busca por “lésbica” vai encontrar conteúdos jornalísticos e informativos sobre diversidade e orientação sexual.

É importante destacar também que além do funcionamento dos algoritmos, existe o uso que é feito deles. “No caso do Youtube, se não existissem os vídeos, o algoritmo não teria como recomendá-los. O que a gente pode se perguntar é: por que a quantidade de certos vídeos é maior? De uma certa forma, a extrema direita aprendeu a usar o algoritmo a seu favor e isso é consequência de um machismo estrutural”, afirma Yasodara Córdova.

Ela explica que a presença maior de homens na área de tecnologia faz com que eles tenham maior facilidade em entender o funcionamento dos algoritmos e, a partir disso, aprender a usá-los ao seu favor. Cita como exemplo o site Folha Política, conhecido por espalhar notícias falsas, que usava diferentes canais no Youtube para publicar o mesmo vídeo, fazendo com que ele chegasse a mais pessoas.

Além disso, as especialistas destacam que como a maior parte desses algoritmos são códigos fechados, não é possível saber se de fato há alguma forma de machismo ou preconceito na base deles.

 E quando os meninos entram nisso? 

Nesse cenário de conteúdo machista sendo produzido por pessoas e indicado por algoritmos, um público problemático para o conteúdo são as crianças e adolescentes. A escritora e ativista feminista norte-americana Joanna Schroeder notou isso por meio  dos próprios filhos.

“Eu estava observando meus filhos disparando termos da extrema direita e dizendo coisas como ‘feminazi’. Com um pouco de conversa, eles entenderam o que é problemático disso e me explicaram que eles estavam aprendendo boa parte disso no Youtube, memes e Instagram”, contou à Revista AzMina.

Para Joanna, há uma lógica por trás de como esses conteúdos chegam para os meninos. Para ela, primeiro eles têm contato com as piadas e memes machistas, racistas ou preconceituosos em geral. Depois, ao reproduzir esses conteúdos em público, eles são recriminados e sentem vergonha. Em seguida, entram novos memes e vídeos que falam sobre como “as pessoas estão sensíveis demais” ou “não se pode falar mais nada hoje em dia”. “Essa narrativa permite que os meninos deem vazão a vergonha, transformando-a em raiva. Raiva contra quem? Mulheres, feministas, liberais, negros, gays, etc”, conta.

Apesar da narrativa de Joanna ser de outro país, mães no Brasil observam algo parecido acontecendo. R.P., que preferiu não se identificar, contou que um dia seu filho de 12 anos fez comentários machistas durante uma refeição e, depois observando, viu que ele havia aprendido isso em vídeos de jogos de videogame que assiste.

“Eu acho que o Youtube é a plataforma mais problemática, porque nossos filhos têm livre acesso para usar o que é basicamente conteúdo não regulado. Achamos que eles estão vendo vídeos sobre Minecraft, mas o que acontece é que eles clicam em vídeos sugeridos e caem em uma vlogosfera. E se chegam a certos grupos, o algoritmo vai continuar mostrando para eles conteúdo cada vez mais radical”, diz Joanna. O que vai de acordo com o que a pesquisa de Yasodara levantou.

Para Joanna, disso para os fóruns e redes mais radicais pode ser um passo. “Eventualmente, alguém diz que o Youtube é censurado demais e que ‘a verdade’ está sendo compartilhada nos fóruns. E aí eles caem nos grupos supremacistas, homofóbicos, anti-trans e anti-mulheres.”

Como lidar com isso? Para todas as mães e especialistas ouvidas, a solução fica em um misto de controle parental e conhecer o que seu filho está vendo e fazendo online, com diálogo e confiança. “Eles precisam de liberdade combinada com supervisão para aprenderem a ser responsáveis. Eles sabem que se violarem nossa confiança, vão perder acesso aos seus dispositivos”, conta Joanna.

É possível um controle de conteúdo?

Falar de controle do que os filhos vêem online é uma coisa. Mas na outra ponta da discussão está uma questão bem mais complexa: o controle do tipo de conteúdo que é publicado. Um debate grande que passa pela liberdade de expressão.

“Isso é uma angústia grande, até de feministas: por que uma vez que se limita um certo discurso, o que garante que não vai se tornar uma censura generalizada? E é uma preocupação que precisa estar presente. Mas outro dia ouvi um podcast com o fundador do 8Chan, que foi usado para organizar tiroteios em massa, e ela fala que uma hora tem que saber quando parar, tem que saber desenhar algumas linhas e limites”, defende Mariana Valente, do InternetLab.

Tatiana Lionço, que vem trabalhando na análise de discurso de ódio online para poder definir uma tipificação de como ele é feito, acredita que deve haver uma legislação que regulamente esse tema. “Enquanto não há uma caracterização do que é o discurso de ódio, não há elementos para uma intervenção mais rápida. Uma grande questão é como regular o discurso de ódio sem incorrer em censura? Eu acho que o caminho seria tipificar o discurso de ódio”, explica. Ela acredita que com essa tipificação seria possível identificar o conteúdo publicado e tomar a devida ação: seja a punição ou a retirada do ar.

Algumas plataformas já têm ações nesse sentido. O Facebook, por exemplo, trabalha para retirar do ar conteúdos considerados como discurso de ódio. Isso é feito com uma ação mista de algoritmos programados para identificar esses conteúdos, com denúncias analisadas por pessoas capazes de entender contexto por trás das falas publicadas.

O Youtube informou a AzMina que possui Diretrizes de Comunidade que definem o que pode ou não estar no ar, mas não especificou como é feita a análise dos conteúdos de acordo com essas diretrizes. A incitação ao ódio está entre os tipos de conteúdo que violam as diretrizes e a plataforma incentiva a denúncia dos vídeos que a contenham, informando que serão tirados do ar.

#Envolverde