Já estamos acostumados ao fato de que as redes sociais influenciam
eleições e política nos países ocidentais. Mas eles podem custar a vida às pessoas, e ainda não há solução.
Em março de 2019, 49 pessoas foram mortas
em duas mesquitas na Nova Zelândia . Os organizadores do massacre o transmitem nas redes sociais, a fim de atrair a atenção de tantas pessoas quanto possível. Patrick Crusius estava entre os espectadores do outro lado da tela, que, com a impressão do que viu,
realizaram um tiroteio em
massa na loja de departamentos Walmart em El Paso em 4 de agosto, matando 21 pessoas e ferindo outras 26. Os investigadores alegam que o suspeito
postou informações vários meses antes da tragédia.
suas intenções sobre um dos recursos extremistas da rede, onde expressou, entre outras coisas, apoio a um lutador da Nova Zelândia. Após uma investigação sobre as causas do desastre, a França e a Nova Zelândia procuraram outros países e empresas de tecnologia para encontrar tecnologias que impediriam a distribuição desse conteúdo. A iniciativa foi
apoiada por 17 países, a UE e 8 grandes empresas de tecnologia, incluindo Google e Facebook.
Em abril de 2019, uma
série de explosões no Sri Lanka matou mais de 200 pessoas. As autoridades dizem que
alertaram o Facebook sobre as possíveis consequências de alimentar a violência nas mídias sociais. O entendimento não foi alcançado e, como resultado de baixas humanas, foi decidido
bloquear o acesso a várias redes sociais e mensageiros instantâneos, incluindo o Facebook e o WhatsApp. Segundo as autoridades, a disseminação de informações erradas sobre os eventos poderia causar uma escalada de violência no país.
O bloqueio de redes sociais e mensageiros instantâneos durante surtos de violência ocorre com mais frequência. Por exemplo, no verão de 2018, a disseminação viral de
rumores de sequestro pelo WhatsApp provocou uma série de confrontos na Índia. E em fevereiro de 2019, a desinformação que se espalhou no Facebook, Instagram e WhatsApp
aumentou a tensão entre a Índia e o Paquistão. Agora, autoridades na Índia temem que a divulgação de notícias falsas via Facebook possa alimentar a situação durante as próximas eleições. Online
gera violência em países mais desenvolvidos: no
México ,
Estados Unidos e
Alemanha .
Por um lado, quando os governos bloqueiam as redes sociais, isso é percebido como uma tentativa de restringir a liberdade de expressão. Mas, por outro lado, os casos mencionados mostram que desconectar as redes sociais é a única ferramenta para os países evitarem a violência e a perda de vidas. Como as redes sociais se transformaram em um ambiente agressivo e existe uma maneira de parar a violência sem desligar a Internet?
De limpeza étnica a ataques terroristas
Estudos da
ONU mostraram que o Facebook desempenhou um "papel determinante" na ascensão do sentimento anti-muçulmano em Mianmar, vizinho Sri Lanka. A disseminação de rumores nas redes sociais
levou a baixas entre a população: a histeria anti-muçulmana nas redes sociais de Mianmar se transformou em uma limpeza étnica em larga escala. As forças do governo usam o Facebook há vários anos para se
propagar contra a etnia Rohingya no país. Pelo menos 6.700 pessoas foram vítimas no mundo real, de
acordo com um relatório da Médicos Sem Fronteiras. Em novembro de 2018, o Facebook publicou
uma avaliação independente do que estava acontecendo em Mianmar e
admitiu que a empresa não fez o suficiente para impedir que sua plataforma incitasse discordâncias e incitação à violência na vida real.
Um ano antes dos ataques terroristas no Sri Lanka, falsos rumores nas redes sociais provocaram os budistas a se manifestarem contra os muçulmanos: o feed de notícias do Facebook também teve um
papel fatal . Ao mesmo tempo, o governo do país aprecia as redes sociais por ajudar a estabelecer a democracia após muitos anos de guerra civil, de modo que suas críticas por incitar ao ódio racial podem ser consideradas objetivas. Representantes do Facebook não responderam às críticas do governo até o acesso aos seus recursos ser bloqueado no país. Somente depois disso, a empresa americana prometeu contratar mais moderadores e melhorar a interação com as autoridades locais.
Algoritmos de morte
A grande maioria dos editores e distribuidores de conteúdo extremo na Web não comete crimes de ódio na vida real. Mas os crimes de ódio que ocorrem geralmente estão relacionados às atividades dos instigadores online. O modelo matemático de comportamento social calculado pelos cientistas russos
mostra que há um ponto de virada, após o qual algumas pessoas ficam tão obcecadas com a versão distorcida da realidade criada pela Internet que ela começa a agir.
Um estudo da Universidade de Warwick, na Grã-Bretanha,
encontrou uma correlação entre ataques a refugiados na Alemanha entre 2015 e 2017 com áreas com alta popularidade no Facebook e a disseminação dos
posts do partido populista de extrema direita “Alternative for Germany” (AfD)
contra refugiados . Dos 3335 ataques, 3171 deles ocorreram em municípios com alta atividade de ameaças online. Em Chemnitz, Alemanha, rumores falsos sobre migrantes assassinos no Twitter e no Facebook levaram
a manifestações em massa , reunindo 6.000 participantes em agosto de 2018.
O acesso a tecnologias e plataformas que fornecem conteúdo viral não é tão difícil. Um estudo realizado pelo Instituto de Tecnologia de Massachusetts (MIT), com mais de 126.000 postagens escritas por cerca de 3 milhões de pessoas,
mostrou que as mentiras se espalham nas mídias sociais muito mais rápida e extensivamente do que a verdade em todas as categorias de informações. A influência das redes sociais é reforçada pelas chamadas bolhas ideológicas: para manter a atenção das pessoas em seus sites o maior tempo possível, empresas como o Facebook e o YouTube usam algoritmos que recomendam as postagens potencialmente mais interessantes para o usuário. Se o sistema captura a popularidade de um vídeo, ele o distribui mais e, como resultado, o conteúdo obtém mais visualizações, e o YouTube recebe mais dinheiro devido ao fato de que os usuários gastam mais tempo no recurso e visualizam mais publicidade.
Usuários em bolhas ideológicas veem uma versão do mundo em que suas opiniões nunca são contestadas, e opiniões opostas não são encontradas. O espectador do YouTube cai nas condições consideradas no modelo de "
confronto de informações " dos sociólogos russos: o usuário não encontra irritação na forma de pontos de vista alternativos. Isso cria um círculo extremamente unido e leal de seguidores que estão prontos para imitar uma agenda mais radical, se ela ocorrer. Bolhas como essas trazem "pontos críticos" nos quais a violência se espalha.
O engenheiro Guillaume Chaslo, que trabalhou nos sistemas de recomendação do YouTube por três anos, criou o site
Algotransparency em 2016, onde tenta desvendar algoritmos de hospedagem de vídeo: como um conteúdo é promovido em comparação com outros. Um dia antes das
filmagens na Sinagoga de Pittsburgh em 2018, a Algotransparency registrou que o algoritmo do YouTube distribui um vídeo do terapeuta da conspiração David Ike, no qual ele acusa o
bilionário judeu, filantropo e alvo querido do ultra-direito George Soros de "manipular eventos políticos no mundo". O vídeo tinha menos de 1.000 visualizações, quando o algoritmo começou a promovê-lo, agora possui mais de 70.000. Isso não prova uma relação causal entre o vídeo e a filmagem, mas fornece uma compreensão de como encontrar vídeos provocativos e combater sua distribuição.
Violência online
Outro problema relacionado à violência e à mídia em rede é a distribuição descontrolada de vídeos com massacres e suicídios.
Quatro anos atrás, um vídeo gravado de forma independente pelo assassino de dois repórteres na Virgínia foi distribuído no Facebook e no Twitter; três anos atrás, o
massacre em Dallas se tornou viral. As plataformas de mídia social podem fornecer uma audiência global para pessoas que desejam causar danos sérios a si mesmas ou a outras pessoas. Provavelmente não é com isso que o Facebook contava quando apresentou o Facebook Live ao público
há vários
anos .
Como o streaming de vídeo é uma ferramenta relativamente nova na Internet em que o Facebook, Twitter, Amazon e outras empresas continuam investindo, não está claro o que fazer em caso de transmissão de ataques terroristas no ar. Mesmo que o Facebook bloqueie rapidamente conteúdo violento, esses incidentes se tornam instantaneamente conhecidos, levando as pessoas a procurar vídeos originais através do Google e de outros mecanismos de pesquisa.
O ataque mencionado na Nova Zelândia, que matou 50 pessoas,
foi transmitido ao vivo no Facebook, republicado no YouTube e discutido no Reddit antes de qualquer uma dessas plataformas reagir. Muitos usuários conseguem colocá-lo em suas contas, o que requer uma segunda auditoria não apenas por meios automáticos, mas também com o envolvimento de moderadores para excluir todas as cópias. Por exemplo, quase dois meses após a tragédia de Christchurch, a CNN encontrou cópias das transmissões do massacre
ainda disponíveis em muitos sites.
Resgate do afogamento
Nos últimos anos, a desativação da Internet tornou-se cada vez mais
comum em todo o mundo, especialmente na Ásia e na África, após protestos ou outras atividades antigovernamentais.
No entanto, especialistas em políticas da Internet duvidam que os bloqueios impeçam os terroristas de cumprir suas intenções. O pesquisador da Universidade de Stanford, Jan Ridgak,
descobriu que o bloqueio de redes e sites sociais na Índia era acompanhado por uma
escalada de violência ... O bloqueio derrama notícias falsas e rumores através de canais alternativos, na ausência de comunicações rápidas na Internet em massa é mais difícil refutar.
De qualquer forma, as proibições só são eficazes até certo ponto, porque os usuários podem usar aplicativos conhecidos como VPNs ou redes privadas virtuais para ignorar o bloqueio ou mensageiros instantâneos que se comunicam com os dispositivos próximos via Wi-Fi se a Internet estiver desligada.
Em março, a comissão parlamentar indiana pediu a Joel Kaplan, chefe da política global do Facebook,
para reforçar o controle do WhatsApp e do Instagram, exigindo que as empresas verificassem as postagens dos usuários para garantir que não continham nada ilegal. Essa abordagem é ambígua por dois motivos: leva empresas como o WhatsApp, que usam criptografia de ponta a ponta, a mudar radicalmente suas plataformas e, por outro lado, levanta preocupações sobre confidencialidade e controle excessivo do estado.
Controle manual
Na China, um
exército de censores muito real
está lutando contra conteúdo inapropriado de mídia social com centenas de milhões de usuários. Pesquisadores
da Universidade de Harvard classificaram seu número em dezenas de milhares de participantes sem precedentes, incluindo blogueiros do governo e a chamada polícia da Internet, que filtram o conteúdo dos recursos da rede. Graças ao rápido desenvolvimento de aplicativos chineses, a influência dos censores se estende muito além das fronteiras do Reino Médio: o fundador do Facebook, Mark Zuckerberg,
acusou a rede social TikTok de bloquear conteúdo relacionado a protestos em Hong Kong, mesmo nos Estados Unidos.
Se conteúdo perigoso estiver localizado fora do Império Celestial, a
Grande Arma é usada , o que atrasa o trabalho de recursos questionáveis. Por exemplo, de acordo
com Pavel Durov, o governo chinês realizou um ataque DDoS para desacelerar o Telegram em 13 de junho, quando centenas de milhares de cidadãos de Hong Kong cercaram o prédio do governo para
protestar contra a lei , o que permite que as pessoas sejam extraditadas para o tribunal na China continental.
Mas mesmo um sistema tão poderoso e um exército de moderadores não conseguem visualizar manualmente cada arquivo baixado em um período de tempo razoável, e o crescimento da transmissão em streaming traz consigo novas dificuldades no reconhecimento de conteúdo cruel, já que o vídeo pode ser exibido antes que o censor saiba que foi transmitido.
As tecnologias automatizadas estão longe de serem perfeitas e oferecem a única oportunidade de sinalizar e impedir a repetição apenas do conteúdo mais flagrante da Web. Segundo as estatísticas do YouTube, apenas
73% dos vídeos com etiqueta automática são excluídos antes que pelo menos uma pessoa os veja.
Por muitos anos, o Facebook e o Google desenvolveram e implementaram ferramentas automatizadas que podem detectar e excluir fotos, vídeos e textos que violam suas políticas. Por exemplo, o Facebook usa o
PhotoDNA da Microsoft para detectar pornografia infantil. O Google desenvolveu sua própria
versão deste software de código aberto. Essas empresas também investiram em tecnologias para detectar mensagens extremistas, juntando-se a um grupo chamado
Fórum Global da Internet sobre Contraterrorismo, para trocar informações sobre conteúdo terrorista conhecido. Para o conteúdo ilegal detectado, são geradas assinaturas digitais que permitem o reconhecimento após o download repetido (e o proíbem).
Mas a moderação automatizada se torna muito mais difícil se não se trata de fotos e vídeos, mas de streaming de vídeo. Como o consultor geral do Google, Kent Walker, escreveu em seu
blog em 2017, "os carros podem ajudar a identificar vídeos problemáticos, mas o fator humano ainda desempenha um papel decisivo nas nuances de decisão da fronteira entre propaganda violenta e declarações religiosas". As empresas de tecnologia
ainda não foram capazes de criar IA eficaz para bloquear proativamente esse conteúdo, embora seja a indústria mais rica do mundo. Portanto, o Facebook e o YouTube têm equipes de censores que assistem a vídeos em todo o mundo e, ao mesmo tempo, enfrentam cada vez mais o problema do volume de dados. Talvez o YouTube e o Facebook tenham se tornado muito grandes para serem moderados.
Parece que o próprio Mark Zuckerberg não tem certeza sobre as capacidades dos sistemas automatizados: ele está pronto
para transferir o controle sobre ativos em dificuldades
para o estado , incluindo conteúdo "matador" e publicidade política. “Até recentemente, a Internet em quase todos os países fora da China era definida pelas plataformas americanas, nas quais os valores da liberdade de expressão são fortes. Não há garantia de que esses valores vencerão ”, disse o bilionário em discurso na Universidade de Georgetown. Mas existe alguma garantia de que, no caso de transferência de controle do conteúdo para o governo de qualquer país, não receberemos censura da Rede Global de acordo com o cenário chinês? Esse é o tipo de internet que queremos, Mark?
Nikita Tsaplin
Minuto de cuidados UFO
Esse material pode causar sentimentos conflitantes; portanto, antes de escrever um comentário, atualize algo importante em sua memória: