Há quase dois meses o The Wall Street Journal começou a publicar uma série de relatórios baseados em dezenas de milhares de documentos internos que uma denunciante chamada Frances Haugen entregou ao jornal. “Os arquivos do Facebook”, como as histórias foram apelidadas, revelaram até que ponto a empresa estava ciente dos danos que suas plataformas estavam causando a tudo, desde o esforço para vacinar os americanos até a autoestima de adolescentes. 

A desinformação estava se espalhando. O discurso de ódio era galopante. As pessoas até usavam o Facebook para vender órgãos humanos. Os documentos que vazaram deixam claro que a empresa não se importou muito em impedi-lo e, em alguns casos, que encobriu deliberadamente pesquisas internas que revelavam o quão tóxica a rede social havia se tornado.

+ Facebook remove live de Bolsonaro com informação falsa sobre vacina contra Covid
+ Estudo aponta que Facebook não é bom lugar para postar notícias locais

No último domingo, Ben Smith, do The New York Times, relatou que dias depois que Haugen apareceu no 60 Minutes , ela concordou em compartilhar o tesouro de documentos com 17 outros veículos de notícias, desde que eles concordassem em manter qualquer notícia até uma data acordada mutuamente. Esses meios de comunicação passaram as semanas seguintes não apenas vasculhando as informações vazadas, mas também conduzindo suas próprias reportagens sobre as práticas do Facebook. O embargo foi levantado e, nesta segunda-feira, a internet explodiu com histórias bombásticas sobre o gigante da mídia social, muitas delas baseadas nos documentos fornecidos por Haugen.

Aqui está o que você pode ter perdido:

1. O Facebook ignorou reclamações internas sobre a disseminação de postagens com desinformação política que levaram à eleição de 2020

De acordo com um relatório do New York Times, documentos recentes mostram que o Facebook tem ignorado repetidamente reclamações internas sobre postagens políticas repletas de desinformação e teorias de conspiração de antes e depois da eleição de 2016. 

Poucos dias antes do dia da eleição em novembro passado, um funcionário acionou um alarme interno para informar aos membros da equipe que “os comentários com a mais incendiária desinformação eleitoral estavam sendo amplificados para aparecer no topo das sequências de comentários”, de acordo com o Times. Então, em 9 de novembro, um cientista de dados do Facebook enviou uma mensagem a colegas com uma estatística espantosa: 10% dos usuários americanos que postavam conteúdo político alegavam que a vitória de Joe Biden era fraudulenta e que o processo foi manipulado para impedir Donald Trump de retornar ao cargo. Além disso, algumas dessas postagens pareciam ter como objetivo incitar a violência. 

2. O Facebook não fez o suficiente para conter os grupos ‘Stop the Steal’ antes da insurreição: “A fiscalização foi fragmentada”

Depois que manifestantes que apóiam Trump invadiram o Capitólio dos Estados Unidos em 6 de janeiro, alguns funcionários reclamaram sobre o Facebook estar mal preparado para reagir com a agilidade necessária. O New York Times relatou recentemente que várias mensagens de funcionários citaram “dezenas” de grupos Stop the Steal (Pare de Roubar) empurrando mentiras sobre a eleição que estavam ativas até a insurreição. “Sempre achei que, no balanço geral, meu trabalho foi significativo e útil para o mundo em geral”, dizia uma mensagem. “Mas, honestamente, este é um dia muito escuro para mim aqui.”

Uma revisão interna em março, avaliando como a empresa lida com os grupos Stop the Steal, descobriu que “a fiscalização era fragmentada”.

3. O Facebook assistiu ao crescimento das teorias da conspiração QAnon

Muito antes da eleição, os funcionários perceberam os perigos da radicalização no Facebook, dizem os documentos, e anos se passaram sem mudanças substanciais o suficiente para desacelerar o efeito bola de neve. No verão de 2019, um dos pesquisadores da empresa criou uma conta falsa para uma mulher conservadora imaginária que morava na Carolina do Norte, chamada Carol Smith, informou a NBC NewsSemana Anterior. O perfil fictício do jovem de 41 anos não tinha foto, mas muitos interesses, incluindo Fox News, paternidade e cristianismo. Em poucos dias, o Facebook começou a recomendar páginas relacionadas ao QAnon para “Smith”. Em menos de um mês, seu feed “se tornou um fluxo constante de conteúdo enganoso, polarizador e de baixa qualidade”, escreveu o pesquisador”.

4. O Facebook “rotineiramente faz exceções para atores poderosos ao aplicar a política de conteúdo”

Um cientista de dados apontou que “as chamadas finais sobre a política de conteúdo são rotineiramente feitas por executivos seniores … às vezes, Mark Zuckerberg”. Eles acrescentaram que “não está claro por que os executivos seriam consultados” e questionados “se havia um aspecto não escrito em nossas políticas, a saber, para proteger constituintes sensíveis”. O analista fez referência a “muitas” comunicações com colegas da equipe de política de conteúdo do Facebook, sediada em Washington, DC, que se sentem “pressionados para garantir que suas recomendações estejam alinhadas com os interesses dos legisladores”.

De acordo com informações obtidas pelo Politico, a equipe de lobby e relações governamentais supervisionada pelo ex-operativo republicano Joel Kaplan regularmente pondera sobre questões relacionadas a comunicações ao lidar com figuras da direita e anúncios do ex-presidente Donald Trump, bem como “as consequências do Protestos de George Floyd em junho de 2020. ” O Facebook afirma que o grupo de Kaplan é “apenas um dos muitos” que o Facebook consulta na tomada de decisões de conteúdo.

5. Mark Zuckerberg cedeu às demandas de censura do Vietnã

O Washington Post noticiou que em 2020 Mark Zuckerberg concordou em reprimir a retórica crítica ao governo vietnamita depois que o Partido Comunista responsável pelo país o pediu. Se ele não cumprisse, o Facebook arriscava-se a perder a receita estimada de US $ 1 bilhão gerada pela presença da empresa no país do sudeste asiático. O próprio relatório de transparência do Facebook revelou o impacto da decisão. A empresa bloqueou 834 postagens de usuários vietnamitas no primeiro semestre de 2020, em comparação com mais de 2.200 no segundo semestre.

Zuckerberg supostamente defendeu a decisão argumentando que privar totalmente o povo vietnamita do Facebook seria pior para a liberdade de expressão do que censurá-los. Mas, de acordo com os defensores e ativistas entrevistados pelo Post, o Facebook deu “ao governo controle quase total sobre a plataforma”.

6. Documentos mostram que o Facebook não fez muito para impedir a propagação de uma retórica violenta em torno da guerra civil etíope

Por mais de um ano, a Etiópia tem sofrido com uma guerra civil turbulenta, e a negligência do Facebook em relação à nação africana tem piorado as coisas. Documentos revisados ​​pela CNN americana mostram que a empresa falhou em equipar as equipes locais com os recursos de pessoal necessários para navegar em um período tão frágil, apesar de vários casos de funcionários alertarem a empresa sobre uma variedade de organizações estrangeiras e grupos armados espalhando conteúdo de ódio e incitação à violência. 

Quando Haugen se apresentou, ela chamou especificamente “o quão mal o Facebook está lidando com lugares como a Etiópia” como uma de suas razões para fazê-lo, acrescentando que “a versão bruta [do Facebook] que perambula selvagem na maior parte do mundo não tem nenhum das coisas [relacionadas à segurança e curadoria online] que o tornam palatável nos Estados Unidos ”e expressando medo por“ muitas vidas na linha ”.

O Facebook destacou publicamente seus problemas com a Etiópia como um problema e prioridade, mas a empresa não parece estar se movendo rápido o suficiente ou com estratégias fortes o suficiente. Embora, por exemplo, os guardiões do Facebook tenham recomendado a retirada de contas oficiais de apoio à milícia Fano – um grupo no centro de muitas controvérsias, incluindo assassinatos, saques e estupros, de acordo com a CNN – outros funcionários dizem que os indivíduos que promovem as mensagens Fano ainda estão em alta Através dos.

No verão de 2020, um funcionário compartilhou um relatório interno que “encontrou lacunas significativas” na forma como o Facebook monitora acontecimentos na Etiópia, detecta discurso de ódio e sinaliza desinformação. Ainda assim, Haugen argumenta que o Facebook ofereceu apenas “’mesmo suporte de idioma leve’ em duas das muitas línguas nativas do país”, como relatou a CNN. Um pesquisador, Berhan Taye, escreveu uma carta aberta implorando ao Facebook para equipar adequadamente sua equipe local com pessoas com conhecimento cultural suficiente para responder adequadamente a horas de filmagens criadas por milhões de usuários diários da área. Taye disse que pouca coisa mudou em mais de um ano.

7. A Apple quase arrancou o Facebook e o Instagram da App Store porque não estava fazendo o suficiente para impedir o tráfico humano no Oriente Médio

O Facebook estava sendo usado para comprar e vender empregadas domésticas no Oriente Médio que sofriam abusos, uma violação de tráfico de pessoas sinalizada por funcionários que o Facebook não fez muito para corrigir. O Wall Street Journal  noticiou  a questão em setembro, e a Associated Press deu seguimento com  uma nova reportagem na segunda-feira . A situação ficou tão ruim, observaram os meios de comunicação, que a Apple ameaçou retirar o Facebook e o Instagram da App Store. O Facebook admitiu em documentos internos que estava “subestimando a atividade abusiva confirmada”, e a AP observa que ainda não é difícil encontrar anúncios de mulheres para empregadas domésticas na plataforma.

8. O Facebook permitiu que conteúdo de ódio árabe se espalhasse em suas plataformas … muito

No final de 2020, o Facebook percebeu que tinha um problema de algoritmo muito real: apenas 40% do conteúdo de ódio árabe estava sendo detectado de forma proativa. Foi ainda pior no Instagram, que detectou apenas 6% apesar de ter 95% “mais violações de discurso de ódio acionadas” do que o Facebook no Oriente Médio e na América do Norte (MENA), de acordo com um relatório interno criado por um funcionário do Facebook. Isso vai além das postagens e se estende também aos anúncios online, de acordo com o relatório, que cita “muitos” anúncios prejudiciais direcionados a mulheres e à comunidade LGBTQ. Esses anúncios, no entanto, raramente eram sinalizados pelo Facebook nos territórios MENA. Enquanto isso, o Facebook estava detectando incorretamente conteúdo terrorista em toda a região, resultando na exclusão de conteúdo árabe não violento em 77 por cento das vezes, de acordo com um Politico relatório publicado segunda-feira.

9. As milícias iraquianas têm postado nudez infantil nas páginas dos rivais no Facebook

Alguns apoiadores das milícias sunitas e xiitas têm postado imagens gráficas como a de nudez infantil nas páginas de seus rivais no Facebook com o objetivo de fazer com que as contas desses adversários sejam encerradas, informou o Politico na segunda-feira. Em outro post revisado pelo Politico , os combatentes do Estado Islâmico usaram uma foto de Mark Zuckerberg para ajudar um post que aplaudia a morte de 13 soldados iraquianos que passou despercebido pelo radar da empresa. Não está claro se o Facebook fez algo para responder a esses incidentes específicos.

10. O Facebook tem permitido que conteúdo de ódio anti-muçulmano se espalhe por toda a Índia

Quando os protestos religiosos inundaram a Índia, o maior mercado do Facebook, no final de 2019, o “conteúdo inflamatório” voltado principalmente para os muçulmanos no Facebook aumentou 300 por cento, relatou o Wall Street Journal no sábado. Documentos mostram que os pesquisadores do Facebook recomendaram que a empresa removesse um dos dois grupos nacionalistas hindus por postar conteúdo odioso e anti-muçulmano – e que o Facebook não deu ouvidos. (O outro não foi considerado perigoso o suficiente para remoção, devido a “sensibilidades políticas”, apesar de coisas como “desinformação alegando que o Alcorão pede que os homens estuprem seus parentes femininos”. O representante do Facebook Andy Stone respondeu ao Journal com uma declaração sobre os processos de banimento “cuidadosos, rigorosos e multidisciplinares” da empresa.

Assim como os pesquisadores etíopes, colegas indianos pediram mais recursos para detectar e policiar usuários que disseminam o ódio, de acordo com o Journal , que citou outro relatório em que os pesquisadores sinalizaram uma organização nacionalista hindu diferente, a Bajrang Dal, por supostamente usar o WhatsApp do Facebook para “organizar e incitar a violência”. Um porta-voz do Bajrang Dal negou essas afirmações ao Journal , antes de perguntar “Se eles dizem que quebramos as regras, por que não nos removeram?”

O Politico relatou na segunda-feira documentos de uma apresentação interna do Facebook, em que um cientista de dados fez referência a um político indiano que “postava regularmente um discurso de ódio”, mas “foi isento pela equipe de Políticas Públicas da Índia de punição normal explicitamente por considerações políticas”. Um porta-voz do Facebook “só iria mais longe ao dizer que este ‘não era o único fator’”, escreveu o analista.