A antropóloga Letícia Cesarino, pesquisadora e professora da Universidade Federal de Santa Catarina (UFSC), afirma que a internet nos moldes atuais têm submetido os usuários a mundos distintos, em que sequer os fatos são compartilhados. A infraestrutura da rede tem também privilegiado a desinformação, ecoando em episódios de extremismo e de violência política, como os ataques a Brasíla em 8 de janeiro.
Continua depois da publicidade
Receba notícias de Santa Catarina pelo WhatsApp
Para restabalecer um mundo compartilhado — com opiniões distintas, mas ao menos baseadas em fatos semelhantes — e desinflamar diferenças da vida offline, Cesarino propõe medidas de regulação da internet, o que deve apresentar ao recém-criado grupo de trabalho do Ministério dos Direitos Humanos e da Cidadania (MDHC) de combate ao discurso de ódio e ao extremismo, do último dia 22.
Ela é a única representante de Santa Catarina na equipe de caráter consultivo, com especialistas de todo o país e figuras públicas da internet, como o influenciador Felipe Neto.
Em janeiro, a pesquisadora da UFSC já havia sido convidada para outro grupo de trabalho para a formulação de políticas públicas, da Advocacia-Geral da União (AGU), com foco em desinformação.
Continua depois da publicidade
Cesarino é referência em pesquisa de ecossistemas de desinformação em aplicativos de mensagem, atuando no monitoramento da extrema-direita e de conspiracionistas no Telegram. Ela ainda reuniu recentemente reflexões sobre o tema no livro “O mundo do avesso – Verdade e política na era digital”, lançado em outubro de 2022, com o qual propõe um olhar à dimensão técnica desses fenômenos.
Confira a íntegra da entrevista
Diário Catarinense – Como foi o convite para a senhora integrar o grupo de trabalho do Ministério dos Direitos Humanos?
Letícia Cesarino – Eu já estava participando de um grupo da AGU, que teve um outro processo, que é mais da seara judicial. No caso do Ministério de Direitos Humanos, que é um outro GT [grupo de trabalho], foi um convite direto do ministro [Silvio Almeida], que é alguém que eu conheço, com quem já tenho uma interlocução acadêmica. A gente já vinha conversando há mais tempo sobre essa questão do impacto da internet na política, na pandemia, e, mais para frente, na questão eleitoral. Foi um convite mais direto, enquanto o da AGU foi mais institucional.
DC – Que tipo de estratégias e políticas públicas a senhora pretende propor ao grupo?
A gente ainda não se reuniu, então eu não sei exatamente qual vai ser o direcionamento dado pela coordenadora do GT [Manuela d’Ávila]. Mas, em todos os casos, o que eu pretendo trazer é essa abordagem do caráter infraestrutural, mais sistêmico, tanto da questão da desinformação quanto da questão do discurso de ódio e do extremismo. Ou seja, como que o próprio modo de operação algorítmica e o ambiente digital levam, sutilmente, muitos usuários a agirem de tal forma que não agiriam, por exemplo, no ambiente offline. São determinações de uma ordem mais técnica, mais material em relação à própria mídia, do que determinações sociais, que são da especialidade de outros colegas desse GT. A minha contribuição na área de antropologia digital seria essa, em dar visibilidade aos determinantes técnicos desse fenômeno.
Continua depois da publicidade
DC – A senhora pesquisa ecossistemas de desinformação. Como a desinformação se relaciona com o extremismo e o discurso de ódio?
Desse ponto de vista que eu adoto, nem toda a desinformação é nociva no sentido de estar causando um dano físico ou psicológico. Porém, um ambiente de desinformação generalizada aumenta a probabilidade de que eventos na linha mais extremista aconteçam, porque ela leva a uma quebra de confiança generalizada na sociedade. Não que no mundo pré-digital isso funcionasse de forma perfeita, mas existia um sistema de mídia organizado em torno de alguns mediadores, como os grandes canais de televisão e jornais, enquanto essas posições mais extremas, como teorias da conspiração, mentiras e visões inventadas sobre eventos públicos, ficavam na periferia do sistema.
Essa internet que a gente tem hoje faz com que processos mais periféricos e fragmentados venham caminhando para o centro do sistema e se conectando entre si, tanto no caso de extremismos como de teorias da conspiração e de violência política. E, além de tudo, ela oferece formas de monetizar isso. Claro que tudo isso já existia, mas esse ambiente das plataformas digitais gera vieses favoráveis à desinformação no sentido mais geral e à violência e ao extremismo em um sentido mais específico.
Então, por exemplo, nos eventos ali do 8 de janeiro, em Brasília, a maioria daquelas pessoas não pode ser classificada como extremista em um sentido estrito. Muitas das que entraram ali ou foram até a Praça dos Três Poderes não tinham essa intenção anterior de invadir e de quebrar, mas acabaram entrando, digamos assim, por aquele comportamento de manada. Ou seja, o ambiente de desinformação predispõe as pessoas a esse risco de entrar em um comportamento de violência política no offline, de extremismo político mais literal, porque o nível de violência discursiva que a gente vê online nesses públicos da extrema-direita é muito grande. As pessoas estão falando em espancar, em matar e eliminar.
Continua depois da publicidade
É claro que, na maioria das vezes, essa violência permanece no discurso e fica contida no online. Mas, à medida em que ela se dissemina, aumenta a chance de resvalar no offline. Então é uma perspectiva mais probabilística, onde o ambiente de mídia influencia nesse fenômeno que também é de ordem social.
DC – No seu livro “O mundo do avesso”, a senhora coloca fenômenos que aparentemente são distintos, como a radicalização política, o conspiracionismo e o receio com vacinas, como favorecidos por um mesmo ambiente digital. Chamou atenção a participação de um epidemiologista no grupo de trabalho do Ministério dos Direitos Humanos, que é o Pedro Hallal. A senhora acha que essa discussão faz total sentido, em ver extremismos não só dentro do campo político e eleitoral?
Sim, totalmente. Inclusive, nesse projeto de pesquisa que eu tenho com a Universidade Federal da Bahia para monitorar o Telegram, a gente vê claramente isso. A pandemia já passou tem um bom tempo, mas, mesmo com a substituição da pauta, que deixou de ser pandemia para ser eleição, esses grupos ligados a empreendedores de medicina alternativa, daquilo que ficou da pandemia, continuam até hoje. Embora parte desses grupos, usuários e influenciadores não tenham um discurso político explícito, de direita, computacionalmente, quando a gente vê a ecologia de conexão entre esses vários segmentos, os da área de saúde alternativa estão muito fortemente ligados a esses segmentos políticos mais explícitos.
Então, se as pessoas que estão nesses públicos já têm uma predisposição conspiratória, de que não acreditam no que a mídia diz, no que o sistema fala, elas já estão predispostas a passar de uma narrativa para outra, de uma narrativa conspiratória antivacina, por exemplo, para uma anti-TSE, porque estruturalmente é a mesma predisposição. E quando eu falo estruturalmente, é tanto no sentido da estrutura de rede, da conexão ecológica entre esses segmentos na internet, quando da própria predisposição cognitiva e afetiva dos indivíduos que já não confiam mais no sistema, digamos assim.
Continua depois da publicidade
A literatura é bastante consensual com relação a isso: quando você adota uma perspectiva conspiratória sobre um tema, a probabilidade de você passar de uma para outra é enorme. Tanto é que se usa essa metáfora da Alice no País das Maravilhas, a ideia do buraco da toca de coelho: quando entra em um, você vai se conectando com outros, porque é uma mesma predisposição cognitiva. Aí você junta com isso os algoritmos, que já constroem esse caminho para o usuário, porque eles fazem essas classificações através de temas e interesses que eles entendem ser similares, e a pessoa vai recebendo mais conteúdo sobre conspirações diferentes e vai entrando cada vez mais. Então, faz muito sentido ter pessoas de outras áreas também nesse GT, não só da área de direitos humanos ou de violência política.
DC – Também no seu livro, a senhora fala sobre propor uma perspectiva mais adequada para analisar todos esses fenômenos. Em linhas gerais, qual perspectiva é essa?
A ideia do livro é visibilizar um pouco mais para as pessoas essa atenção a alguns tipos de agência e causalidade que o senso comum costuma ignorar. Um deles é a causalidade não humana, que é a agência algorítmica. Ela fica atrás da tela, é feita para ser escondida, porque se ela é explícita, a influência não funciona. As plataformas são feitas para deixar o usuário comum no estado de influenciabilidade para clicar nos anúncios. Isso não tem nada a ver com política originalmente, mas, na medida em que essa tecnologia começa a circular na sociedade, ela vai sendo usada para outros fins.
Um outro nível de agência que eu acho importante também visibilizar é o dos influenciadores camuflados, que é algo que a gente vê muito em aplicativos de mensagens. Em rede social, geralmente, o influenciador é explícito, porque ele tem um canal, está monetizando, tem uma marca. No Telegram, e a gente acredita que pode ser o caso do WhatsApp também, o método computacional, que mede atividade dos diferentes usuários, mostra claramente que existe um teto de 20% de usuários que têm um nível de atividade muito maior do que os outros, mas que não se colocam explicitamente como influenciadores. Ou seja, são agentes que estão ali tentando conduzir os grupos e as pessoas em uma certa direção, mas sem se colocar como agentes de um comportamento mais orquestrado.
Continua depois da publicidade
E um terceiro elemento que eu colocaria é a questão do nível de causalidade que é pós-individual, que é algo trabalhado nas ciências sociais, mas com face mais palpável na internet: são os chamados efeitos de rede, ou seja, os efeitos não intencionais das pessoas que se acumulam e vão produzindo bolas de neve de desinformação e de segregação da esfera pública de forma extrema.
É normal as pessoas pensarem diferente, sempre foi assim, mas a ideia da democracia é que as pessoas pensem diferente em um mesmo mundo compartilhado, que tenham opiniões diferentes sobre o mesmo fato, mas que pelo menos compartilhem o fato. Só que a internet vai segregando tanto que, em alguns casos, acaba bifurcando mesmo. Então a ideia do título do livro é um pouco essa: “O mundo do avesso” seria uma forma extrema de bifurcação social em que as pessoas não estão vivendo no mesmo mundo. Literalmente, elas recebem mundos completamente diferentes pela internet e também invertidos, porque o inimigo que não é igual a mim se torna a forma mais extrema da bifurcação social. Vira uma lógica da guerra, sem diálogo e sem reconhecimento possível. A única relação possível com esse outro é eliminar ele, porque você vê ele como alguém que quer lhe eliminar. Eu proponho, com a regulação, que se encontrem meios de reconstruir esse mundo compartilhado, porque não existe democracia sem ele.
DC – A regulação de aplicativos pode coibir essas manifestações de ódio e de extremismo? E que regulação seria essa?
Pode. As frentes principais, a meu ver, não estão em agir no usuário comum, porque ele é seguidor, não tem uma autonomia. Ele é e pensa aquilo que recebe no ambiente em que está, e quem está entregando esse ambiente? O algoritmo. Eu, por exemplo, proponho que haja um regime especial para a época eleitoral, igual tem na televisão e no rádio, um regime que incida sobre o potencial de viralização de conteúdos, que torne a plataforma menos viralizável, talvez mais lenta, que haja um controle maior pelo menos contra a fraude eleitoral, que é um ponto mais pacífico.
Continua depois da publicidade
Além da infraestrutura, sobre a qual já é mais difícil de atuar, porque essas empresas sequer estão sediadas no Brasil, tem o nível também dos intermediários, que são os influenciadores que segmentam a rede. Isso já está avançado, mas tem que haver cuidado para não se cair em contradição, porque, se você começa a regular demais pelo conteúdo, uma hora você vai ter que estar decidindo o que é verdade e o que não é. E não é exatamente isso o que a gente quer, essa não é a regulação ideal.
O ideal é que você incida, por exemplo, nos mecanismos de monetização de qualquer conteúdo sensacionalista, independentemente de ser de direita ou de esquerda. É um pouco a tendência que já existe na Europa, sobre não precisar ter uma lei nova, mas tentar coibir comportamentos que firam leis que já existem, como em relação a difamação, violência, racism e leis eleitorais. É algo como adaptar para um ambiente digital as leis que já existem, cobrando mais transparência das plataformas e como elas estão fazendo essa autorregulação, porque acaba que são elas que fazem. Na Europa, está sendo cobrado uma maior feedback, relatórios de transparência, abertura de dados, compartilhamento disso com pesquisadores, para que possa haver auditorias independentes, por exemplo.
DC – Nas redes sociais, influenciadores de direita falaram que o grupo seria de caça às bruxas, e nomes de esquerda criticaram que seria um tom muito ameno falar em combate a extremismos de modo geral, uma vez que eles viriam apenas da extrema-direita. A senhora acha que essas manifestações de extremismo e discurso de ódio se limitam à extrema-direita e, mais especificamente, ao bolsonarismo?
É uma questão bem quantitativa. Todos os bancos de pesquisa que a gente conhece de monitoramento mostram que a desinformação e os discursos mais extremos tendem à direita, mas isso tem que ser controlado independentemente de onde venha. Claro que, proporcionalmente, a tendência é que a regulação irá impactar mais a direita.
Continua depois da publicidade
Mas eu vejo também um certo desconhecimento do que é um grupo de trabalho. Um agente público, o advogado-geral da União em um caso e um ministro em outro, quer pensar política pública e, então, ele chama um conjunto de especialistas e de stakeholders para subsidiar essa decisão. É só isso, a gente não tem poder de polícia, ou sequer de deliberação. A gente vai apresentar propostas, que vão passar por consulta pública e uma série de outras etapas. A direita aqui já começa com essas de campanhas de “é o Ministério da Verdade”, como fizeram nos Estados Unidos. Então tem que haver muito cuidado para fazer algo o mais institucional possível, em explicar muito claramente. Quando se fala em regulação, por exemplo, é muito fácil se colocar uma chave de censura, fazer um discurso de medo e ameaça. Mas regulação não se trata da pessoa comum, é algo sobre a plataforma e os grandes mediadores.
Na época das eleições, influenciadores de podcast falaram que uma eventual regulação da mídia cortaria canais do YouTube e que certos temas não poderiam ser tratados. A senhora disse que regulação não deveria incidir exatamente sobre o conteúdo…
Pelo menos não é o foco da regulação. É claro que tem certas linhas ali, casos de saúde pública ou de fraude nas urnas, por exemplo, que precisam ser limitadas, mas são poucos conteúdos. A maioria deles podem ter circulação, mas é preciso mexer na infraestrutura para maximizar um conteúdo de qualidade.
Leia mais
Democracia vive melhor na sua diferença, diz historiadora Lilia Schwarcz
Racismo produziu sistema de castas no Brasil, diz escritor Laurentino Gomes