Os algoritmos que alimentam o Facebook e o Instagram, responsáveis por determinar o que bilhões de pessoas veem nas redes sociais, têm sido alvo de legisladores, ativistas e reguladores há anos. Muitos têm exigido a abolição dos algoritmos para conter a disseminação de desinformação viral e prevenir o agravamento das divisões políticas.
No entanto, quatro novos estudos publicados na quinta-feira, 27, - incluindo um que examinou os dados de 208 milhões de americanos que usaram o Facebook nas eleições presidenciais de 2020 - complicam essa narrativa.
Nos artigos, pesquisadores da Universidade do Texas, Universidade de Nova York, Princeton e outras instituições descobriram que a remoção de algumas funções-chave dos algoritmos das plataformas sociais não teve “efeitos mensuráveis” nas crenças políticas das pessoas. Em um experimento com o algoritmo do Facebook, o conhecimento político das pessoas diminuiu quando sua capacidade de compartilhar postagens foi removida, disseram os pesquisadores.
Ao mesmo tempo, o consumo de notícias políticas no Facebook e Instagram estava altamente segregado por ideologia, de acordo com outro estudo. No período das eleições de 2020, 97% das pessoas que leram links de notícias “não confiáveis” nos aplicativos se identificaram como conservadoras e se envolveram principalmente com conteúdo de direita, descobriu a pesquisa.
Os estudos, publicados nas revistas Science e Nature, fornecem uma imagem contraditória e complexa de como os americanos têm usado - e foram afetados - duas das maiores plataformas sociais do mundo. Os resultados conflitantes sugerem que entender o papel das redes sociais na formação do discurso pode levar anos para ser desvendado.
Os artigos também se destacaram pelo grande número de usuários do Facebook e Instagram que foram incluídos e porque os pesquisadores obtiveram dados e formularam e conduziram experimentos em colaboração com a Meta, que é a proprietária dos aplicativos. Os estudos são os primeiros de uma série de 16 artigos revisados por pares. Estudos anteriores sobre mídia social dependiam principalmente de informações disponíveis publicamente ou eram baseados em pequenos números de usuários com informações “raspadas” ou baixadas da internet.
Talia Stroud, fundadora e diretora do Center for Media Engagement da Universidade do Texas em Austin, e Joshua Tucker, professor e cofundador do Center for Social Media and Politics da Universidade de Nova York, que ajudaram a liderar o projeto, disseram que “agora sabem o quão influente é o algoritmo na formação da experiência das pessoas na plataforma”.
Mas Stroud disse em uma entrevista que a pesquisa mostrou as “questões sociais bastante complexas com as quais estamos lidando” e que provavelmente não há “solução mágica” para os efeitos das redes sociais.
“Devemos ter cuidado com o que supomos estar acontecendo versus o que realmente está”, disse Katie Harbath, ex-diretora de política pública da Meta, que deixou a empresa em 2021. Ela acrescentou que os estudos desafiaram os “impactos presumidos das redes sociais”. As preferências políticas das pessoas são influenciadas por muitos fatores, disse ela, e “as redes sociais sozinhas não são responsáveis por todos os nossos problemas”.
A Meta, que anunciou que participaria da pesquisa em agosto de 2020, gastou US$ 20 milhões no trabalho do National Opinion Research Center da Universidade de Chicago, uma agência apartidária que auxiliou na coleta de alguns dos dados. A empresa não pagou os pesquisadores, embora alguns de seus funcionários tenham trabalhado com os acadêmicos. A Meta pôde vetar solicitações de dados que violassem a privacidade de seus usuários.
O trabalho não é um modelo para pesquisas futuras, pois exigia a participação direta da Meta, que detinha todos os dados e fornecia aos pesquisadores apenas determinados tipos de informação, disse Michael Wagner, professor de comunicações em massa da Universidade de Wisconsin-Madison, que foi um auditor independente no projeto. Os pesquisadores disseram que tinham a palavra final sobre as conclusões dos artigos.
Nick Clegg, presidente de assuntos globais da Meta, disse que os estudos mostraram “poucas evidências de que recursos-chave das plataformas da Meta sozinhos causem uma polarização prejudicial ou tenham efeitos significativos nesses resultados”. Embora o debate sobre mídia social e democracia não seja resolvido pelas descobertas, ele disse que “esperamos que isso avance a compreensão da sociedade sobre essas questões”.
Os artigos chegam em um momento tumultuado na indústria de mídia social. Neste mês, a Meta lançou o Threads, que concorre com o Twitter. Elon Musk, proprietário do Twitter, mudou a plataforma, renomeando-a recentemente para X. Outros sites como Discord, YouTube, Reddit e TikTok estão prosperando, com novos participantes como Mastodon e Bluesky parecendo ganhar alguma tração.
Nos últimos anos, a Meta também tentou desviar o foco de seus aplicativos sociais para seu trabalho no mundo digital imersivo chamado metaverso. Nos últimos 18 meses, a Meta registrou mais de US$ 21 bilhões em perdas operacionais em sua divisão Reality Labs, responsável pela construção do metaverso.
Pesquisadores têm levantado perguntas sobre os algoritmos de Facebook e Instagram, que determinam o que as pessoas veem em seus feeds nos aplicativos. Em 2021, Frances Haugen, ex-funcionária do Facebook que se tornou delatora, colocou ainda mais foco neles. Ela forneceu aos legisladores e à mídia milhares de documentos da empresa e testemunhou no Congresso que o algoritmo do Facebook estava “fazendo com que adolescentes fossem expostos a mais conteúdo de anorexia” e estava “incitando violência étnica” em países como Etiópia.
Legisladores, incluindo os senadores Amy Klobuchar, democrata de Minnesota, e Cynthia Lummis, republicana de Wyoming, mais tarde apresentaram projetos de lei para estudar ou limitar os algoritmos. Nenhum deles foi aprovado.
Das quatro pesquisas publicadas na quinta-feira, os usuários do Facebook e do Instagram foram convidados e consentiram em participar de três delas, com suas informações de identificação omitidas. Na quarta pesquisa, a empresa forneceu aos pesquisadores dados anonimizados de 208 milhões de usuários do Facebook.
Um dos estudos foi intitulado “Como os algoritmos de feeds de mídia social afetam as atitudes?”. Nessa pesquisa, que incluiu mais de 23 mil usuários do Facebook e 21 mil usuários do Instagram, os pesquisadores substituíram os algoritmos por feeds cronológicos invertidos, o que significa que as pessoas viam as postagens mais recentes primeiro em vez de postagens adaptadas aos seus interesses.
No entanto, as “polarizações” das pessoas, ou o conhecimento político, não mudaram, descobriram os pesquisadores. Nas pesquisas acadêmicas, as pessoas não relataram mudanças em seus comportamentos, como assinar mais petições online ou participar de mais comícios políticos, após a mudança em seus feeds.
Preocupantemente, um feed em ordem cronológica invertida aumentou a quantidade de conteúdo não confiável que as pessoas viram, de acordo com o estudo.
O estudo que analisou os dados de 208 milhões de usuários americanos do Facebook durante as eleições de 2020 descobriu que eles estavam divididos por ideologia política, sendo que os que se identificaram como conservadores viram mais desinformação do que os que se identificaram como liberais.
Os conservadores tendiam a ler muito mais links de notícias políticas que também eram lidos quase exclusivamente por outros conservadores, de acordo com a pesquisa. Das notícias marcadas por verificadores de fatos independentes como falsas, mais de 97% foram visualizadas por conservadores. Páginas e Grupos do Facebook, que permitem aos usuários seguir tópicos de interesse, compartilharam mais links para artigos hiperpartidários do que os amigos dos usuários.
Páginas e Grupos do Facebook eram uma “máquina de curadoria e disseminação muito poderosa”, dizia o estudo.
Ainda assim, a proporção de artigos de notícias falsas lidos pelos usuários do Facebook era baixa em comparação com todos os artigos de notícias visualizados, disseram os pesquisadores.
Em outro artigo, os pesquisadores descobriram que reduzir a quantidade de conteúdo nos feeds de 23 mil usuários do Facebook postados por conexões de “mesma opinião” não alterou mensuravelmente as crenças ou polarização política dos participantes.
“Essas descobertas desafiam narrativas populares que culpam as câmaras de eco das redes sociais pelos problemas da democracia americana contemporânea”, disseram os autores do estudo.
Em um quarto estudo que analisou 27 mil usuários do Facebook e Instagram, as pessoas disseram que seu conhecimento de notícias políticas diminuiu quando sua capacidade de compartilhar postagens foi retirada em um experimento. No entanto, remover o botão de compartilhamento de postagens não mudou as crenças ou opiniões das pessoas, concluiu o artigo.
Os pesquisadores alertaram que seus resultados foram afetados por muitas variáveis. Por exemplo, o momento de alguns dos experimentos logo antes das eleições presidenciais de 2020 poderia significar que as atitudes políticas dos usuários já haviam sido consolidadas.
Algumas descobertas podem estar desatualizadas. Desde que os pesquisadores iniciaram o trabalho, a Meta afastou-se de destacar o conteúdo de notícias nos feeds principais dos usuários no Facebook e Instagram. A empresa também ajusta regularmente seus algoritmos para manter os usuários engajados.
Os pesquisadores disseram, no entanto, que esperam que os artigos levem a mais pesquisas no campo, com a participação de outras empresas de mídia social.
“Esperamos muito que a sociedade, por meio de seus formuladores de políticas, tome medidas para que esse tipo de pesquisa possa continuar no futuro”, disse Tucker, da Universidade de Nova York. “Isso deveria ser algo que a sociedade considera em seu interesse.”
Comentários