Em 2009, Burgess e Green escreveram um estudo chamado YouTube: Online Video and Participatory Culture. Eles estavam tentando entender como o YouTube mudou o jeito de criar, consumir e espalhar conteúdo na internet. O que eles desdobraram basicamente foi como o YouTube parecia ser um espaço mais democrático, onde qualquer um podia falar e ser ouvido. Mas tinha um porém, apesar de dar voz a muita gente, ele é controlado pelo Google, uma das maiores empresas do mundo. Ou seja, o poder continua concentrado nas mãos de poucos. Além disso, os algoritmos criaram um problema que a gente sente até hoje: bolhas de conteúdo. Você vê só o que confirma o que já acredita, e isso aumenta a polarização.
Fast forward para 2020, quando rolou o movimento Stop Hate for Profit. Essa campanha cobrou das redes sociais, especialmente o Facebook (hoje Meta), mais responsabilidade na hora de moderar conteúdos de ódio e fake news. Grandes marcas como Coca-Cola, Unilever, Starbucks, Ford e Levi´s participaram do boicote, suspendendo temporariamente suas campanhas publicitárias. O movimento também estimulou debates globais sobre a ética das redes sociais, pressionando empresas como o Facebook a implementar novas políticas de moderação. A pressão foi tão grande que eles acabaram mudando várias coisas, como criar um programa de checagem de fatos e investir em moderação. Parecia que estávamos caminhando para um ambiente online mais seguro, né? Só que, olhando para 2025, o cenário mudou bastante, e não para melhor.
Na última semana, a Meta anunciou que vai acabar com o programa de checagem independente de fatos nos EUA. Eles querem substituir isso por “notas de contexto”, algo parecido com o que o X (ex-Twitter) já faz. E, como se isso não bastasse, as plataformas da Meta, Facebook, Instagram e Threads, vão permitir posts que associam pessoas LGBTQIAPN+ a doenças mentais, por exemplo. Isso é um retrocesso gigantesco! Enquanto em 2020 a Meta parecia mais preocupada com responsabilidade social, agora parece que eles só querem engajamento, mesmo que isso signifique deixar o ódio correr solto.
Pensa comigo: deixar conteúdos preconceituosos assim nas redes não é só antiético. É perigoso. A internet deveria ser um lugar onde todo mundo se sente seguro para ser quem é. Em uma argumentação feita recentemente pela Advocacia-Geral da União (AGU), as manifestações em plataformas digitais não podem ser realizadas para gerar desinformação sobre políticas públicas, nem minar a legitimidade das instituições democráticas, nem causar pânico na população. Mas quando grandes empresas priorizam lucro e cliques, elas mostram que o respeito pelos direitos humanos fica em segundo plano. Isso fica claro, não?
Isso tudo conecta muito com o que Burgess e Green já falavam sobre os desafios das plataformas digitais. As redes têm o poder de amplificar vozes, mas também podem criar espaços cheios de desinformação e preconceito. Por isso, a gente precisa de algo além de só “consumir conteúdo”. É aí que entra a alfabetização digital: entender como as redes funcionam, como os algoritmos manipulam o que a gente vê, e como a gente pode usar tudo isso de forma mais crítica.
Se a Meta continuar nesse caminho, as consequências vão ser graves: mais exclusão digital, mais discursos de ódio e menos espaço para minorias. A internet pode ser um lugar incrível para conectar pessoas e compartilhar ideias, mas a gente tem que lutar para que isso aconteça de verdade. No final, a pergunta que fica é: que tipo de internet a gente quer construir daqui para frente?
Leia mais:
/diversidade/necropolitica-digital-morte-no-ambiente-online/
/juventudes/influenciadores-influenciam-em-que/
/2022/senso-de-comunidade-na-era-da-influencia-digital/