A reportagem procurou a Meta, empresa responsável pelo Facebook, WhatsApp e Instagram, para ouvir o que é feito no combate à desinformação e na disponibilização de dados a pesquisadores independentes. Sobre o Facebook e o Instagram, a empresa informa que remove a desinformação prejudicial sobre saúde e quando há possibilidade de tal conteúdo contribuir diretamente para o risco de lesão corporal iminente e para interferência no funcionamento de processos políticos, além de “certas mídias manipuladas altamente enganosas”.
“Para determinar o que constitui desinformação nessas categorias, firmamos parcerias com especialistas independentes que têm conhecimento e experiência para avaliar a veracidade de um conteúdo e se é provável que ele contribua diretamente para o risco de dano iminente”, diz um texto produzido pelo centro de transparência da empresa. “Nos concentramos em reduzir a disseminação de boatos e a desinformação viral, além de direcionar usuários para informações oficiais”, acrescenta.
Sobre o WhatsApp, a Meta informa que estabeleceu parcerias com agências de checagem independentes, que o aplicativo tem sido uma das poucas plataformas de mensagens a se aprimorar para conter a viralidade de publicações e que vê tendência de queda com as medidas adotadas. Segundo a Meta, quando o aplicativo introduziu limites adicionais para o envio de mensagens em abril de 2020, viu imediatamente uma redução de 70% na viralidade das mensagens. Em maio de 2022, um novo limite de encaminhamento de mensagens para grupos trouxe uma redução de cerca de 20% no número de mensagens encaminhadas com frequência.
“Vale lembrar que as conversas trocadas em grupos específicos, com desinformação, de modo algum representam as conversas dos usuários brasileiros, ou a forma pela qual o WhatsApp é majoritariamente utilizado no país”, diz a Meta, que encoraja os usuários a denunciarem condutas inapropriadas na plataforma.
Já o Tik Tok diz que considera o trabalho dos pesquisadores importante para aprimorar os mecanismos de combate à desinformação. Sobre a pesquisa que aponta veiculação de vídeos com desinformação sobre vacinas, a rede afirma que suas diretrizes não permitem informações médicas enganosas que possam causar danos à saúde física. A rede afirma que atua para removê-las da plataforma quando as identifica e que a maior parte das remoções de conteúdo ocorre de forma proativa, isto é, antes que sejam denunciadas pelos usuários.
“Realizamos parcerias com especialistas para destacar o conteúdo confiável sobre temas relacionados à saúde pública e também com agências independentes de checagem de fatos que nos ajudam a avaliar a veracidade do conteúdo.”
A repostagem não conseguiu contato com o Telegram. Já o Twitter não tem representação de imprensa no Brasil desde as mudanças promovidas na empresa pelo proprietário da plataforma, Elon Musk. Ao entrar em contato com o e-mail global de imprensa da plataforma, a reportagem recebeu apenas a resposta automática com o emoji de fezes que tem sido enviada a todos os veículos de comunicação.
Fonte: Agência Brasil