Maus modos, não ideologia, motivam punições nas redes sociais
Não é raro ouvir pessoas – especialmente ditas “conservadoras” ou “de direita” – reclamarem que sofrem de “perseguição” nas redes sociais, vendo suas publicações removidas, contas suspensas ou sendo objeto de outras medidas de moderação de conteúdos. Mas, apesar das acusações de ações tendenciosas ou politicamente motivadas da parte das empresas de tecnologia, elas só podem culpar a si mesmas e seu próprio comportamento nas redes por isso, mostra estudo publicado recentemente da revista científica Nature.
Conduzido por pesquisadores do Instituto de Tecnologia de Massachusetts (MIT) e das universidades de Cornell e Yale (EUA) e Oxford (Reino Unido), o estudo analisou uma amostra de mais de 9 mil entre 100 mil contas no Twitter (hoje X) identificadas como politicamente ativas durante as eleições presidenciais de 2020 nos EUA, com metade tendo compartilhado pelo menos uma vez a hashtag #VoteBidenHarris2020 e a outra metade, a hashtag #Trump2020. Coletaram dados de atividade na plataforma – em especial o compartilhamento de notícias, com foco em veículos de baixa qualidade, mas também apoio à violência política e a probabilidade de serem robôs – um mês antes do pleito, e depois verificaram a situação das contas nove meses mais tarde.
Os pesquisadores observaram que as contas que compartilharam a hashtag #Trump2020 antes da eleição tinham uma chance cerca de 4,4 vezes maior de terem sido suspensas nos meses seguintes do que as que compartilharam a hashtag #VoteBidenHarris2020: 19,6% dos usuários da amostra de apoiadores do ex-presidente Donald Trump foram suspensos, contra apenas 4,5% dos partidários do atual presidente Joe Biden. Eles destacam, porém, que esta diferença não indica necessariamente um efeito causal entre a posição política e a suspensão, dado o potencial de a orientação ideológica se confundir com uma tendência em compartilhar desinformação e se engajar em outros comportamentos indesejados na rede.
“Nosso argumento se baseia na seguinte lógica: a assimetria partidária nos comportamentos pode levar a uma assimetria partidária no tratamento, mesmo quando a política (de moderação das redes sociais) é ideologicamente neutra e sem viés”, explicam. “Por exemplo, se amantes de cachorros compartilham mais desinformação que amantes de gatos, é de se esperar que mais amantes de cachorros sejam suspensos pelas empresas de mídia social do que amantes de gatos – e não iríamos interpretar este padrão como refletindo um viés contra os amantes de cachorros.”
E foi exatamente isso que os pesquisadores viram nos dados. Os partidários de Trump eram muito mais propensos a compartilhar notícias de veículos suspeitos ou não confiáveis do que os de Biden, tanto com base em diferentes avaliações de serviços profissionais de checagem de fatos quanto em um ranking de credibilidade elaborado em um estudo paralelo, a partir de uma amostra de não especialistas representativa da população americana, e equilibrada do ponto de vista ideológico.
Analisando o comportamento dos usuários na rede um mês antes das eleições, a qualidade média dos veículos compartilhados pelos eleitores de Trump era mais de dois desvios-padrão inferior à dos partidários de Biden, e em ambos os rankings. Mesmo quando levada em conta apenas a opinião dos não especialistas republicanos sobre os veículos no estudo paralelo, a diferença continuou significativa, acima de um desvio padrão.
“Para contextualizar ainda mais a magnitude da diferença, dividimos nosso ranking balanceado da população leiga para classificar cada um dos 60 domínios avaliados como de baixa ou alta qualidade, e vemos que o apoiador médio de Trump compartilhou quatro vezes mais links para veículos de baixa qualidade do que o apoiador médio de Biden”, acrescentam os pesquisadores.
Validação
Os pesquisadores ressaltam ainda que seus achados não são exclusivos quanto ao uso das hashtags de apoio a Trump ou Biden. Segundo eles, a correlação entre maior compartilhamento de notícias de veículos de baixa qualidade e orientação política “conservadora” se manteve mesmo quando esta última foi estimada com base nas contas do Twitter que os usuários seguiam, bem como as fontes que costumavam compartilhar fora do período do estudo.
Nem se restringem à amostra que usaram no contexto das eleições americanas de 2020. Aplicando os mesmos parâmetros em outros sete conjuntos de dados – uma pesquisa YouGov feita no Facebook em 2016 e diferentes levantamentos sobre hábitos de compartilhamento feitos no Twitter entre 2018 e 2023 –, os pesquisadores observaram a mesma relação negativa entre a qualidade das notícias compartilhadas e conservadorismo.
Essa conexão não é exclusividade da população americana. Em outra replicação em cima de dados de uma pesquisa com pessoas em 16 países – Brasil inclusive –, mais uma vez eles encontraram uma associação positiva entre posicionamentos tidos como “conservadores” e o compartilhamento de notícias falsas relativas à pandemia de COVID-19.
“Estas assimetrias no compartilhamento não implicam necessariamente uma assimetria psicológica na suscetibilidade à desinformação, mas podem surgir de fatores como assimetrias na exposição à desinformação (por exemplo, vinda de líderes políticos)”, comentam os autores do estudo na Nature. “Qualquer que seja sua fonte, estas assimetrias no comportamento significam que um tratamento diferenciado de um lado sobre o outro do espectro não constitui por si só evidência de um viés político da parte das empresas de mídias sociais.”
Suspensões previsíveis
Mais do que reacender as discussões em torno do ciclo político americano de 2020, os pesquisadores argumentam que seus dados permitem prever o que aconteceria se, teoricamente, as plataformas digitais implementassem políticas de combate à desinformação totalmente neutras. Para tanto, montaram simulações para investigar que usuários seriam suspensos se a ação fosse baseada apenas no compartilhamento de links para veículos jornalísticos considerados de baixa qualidade tanto no ranking montado pelos checadores de fatos profissionais quanto no estudo com não especialistas.
Para isso, os pesquisadores levaram em conta uma gama de políticas de suspensão com diferentes níveis de rigor, cada um deles especificando a probabilidade de o usuário ser suspenso a cada vez que compartilhasse um link para um veículo jornalístico de baixa qualidade, calculando então a probabilidade média de suspensão dos usuários apontados como democratas ou republicanos com base em seu uso das hashtags de apoio a Biden ou Trump. Observaram, por exemplo, que se os usuários tiverem 1% de risco de serem suspensos cada vez que compartilham um link considerado de baixa qualidade no ranking dos não especialistas, as suspensões atingiriam 2,41 vezes mais os que compartilharam as hashtags de apoio a Trump do que os de Biden, com resultados similares no ranking profissional de qualidade dos veículos de informação.
“Estas análises mostram que, mesmo na ausência de qualquer tratamento díspar (intencional) da parte das empresas de tecnologia, as assimetrias partidárias nos comportamentos sancionados vão levar a um impacto díspar (não intencional) em que os conservadores são suspensos a taxas mais altas”, apontam. “De uma perspectiva legal, a orientação política não é uma classe protegida nos EUA, então nenhuma forma de tratamento díspar é ilegal (embora potencialmente ainda normativamente indesejável). Embora impactos díspares possam razoavelmente constituir discriminação em alguns casos (por exemplo, discriminação no mercado de trabalho com base em fatores irrelevantes correlacionados a raça), no presente contexto reduzir a disseminação de desinformação e a prevalência de robôs é uma meta legítima e necessária das plataformas de mídia social. E isto é um argumento normativo para o impacto díspar com base na orientação política.”
Neutralidade ilusória
Os pesquisadores ressaltam que embora seu estudo tenha focado na qualidade dos veículos de comunicação, as empresas de mídias sociais geralmente atuam com base no conteúdo de publicações específicas, e não nos domínios compartilhados. Esta abordagem permite um controle mais refinado da moderação, já que mesmo veículos de baixa qualidade, por vezes, publicam informações que não são necessariamente falsas.
Este tipo de atuação sobre a publicação em si, e não os domínios, também desestimula o compartilhamento de conteúdos enganosos pelos usuários, tanto por receio de suspensão quanto pelo uso de outras ferramentas de moderação da parte das plataformas, como a rotulação e alertas sobre as publicações em si ou limitações à sua circulação via algoritmos. Ainda assim, argumentam, isso também acaba levando a acusações de viés político na moderação, mesmo que ela seja politicamente neutra.
“Em resumo, quando há assimetrias políticas no compartilhamento de desinformação (em qualquer direção), as plataformas vão enfrentar um balanço substancial entre reduzir a disseminação de desinformação e serem politicamente equilibradas em suas punições”, apontam. “Se um grupo político, social ou demográfico compartilha mais desinformação – sejam liberais, conservadores ou qualquer outro grupo – não é possível maximizar a eficácia do combate à desinformação sem agir preferencialmente contra integrantes deste grupo. Seja como for, dada a ampla (e bipartidária) demanda pela redução da desinformação online, tomadores de decisão devem atentar que algum nível de tratamento diferencial entre grupos é provável mesmo se as empresas de tecnologia trabalhem de maneira imparcial para manter a desinformação em xeque.”
Por Cesar Baima é jornalista e editor-assistente da Revista Questão de Ciência