Este é o tipo de internet que queremos: como as mídias sociais se transformaram em uma arma mortal

Já estamos acostumados ao fato de que as redes sociais influenciam eleições e política nos países ocidentais. Mas eles podem custar a vida às pessoas, e ainda não há solução.

imagem

Em março de 2019, 49 pessoas foram mortas em duas mesquitas na Nova Zelândia . Os organizadores do massacre o transmitem nas redes sociais, a fim de atrair a atenção de tantas pessoas quanto possível. Patrick Crusius estava entre os espectadores do outro lado da tela, que, com a impressão do que viu, realizaram um tiroteio em massa na loja de departamentos Walmart em El Paso em 4 de agosto, matando 21 pessoas e ferindo outras 26. Os investigadores alegam que o suspeito postou informações vários meses antes da tragédia. suas intenções sobre um dos recursos extremistas da rede, onde expressou, entre outras coisas, apoio a um lutador da Nova Zelândia. Após uma investigação sobre as causas do desastre, a França e a Nova Zelândia procuraram outros países e empresas de tecnologia para encontrar tecnologias que impediriam a distribuição desse conteúdo. A iniciativa foi apoiada por 17 países, a UE e 8 grandes empresas de tecnologia, incluindo Google e Facebook.

Em abril de 2019, uma série de explosões no Sri Lanka matou mais de 200 pessoas. As autoridades dizem que alertaram o Facebook sobre as possíveis consequências de alimentar a violência nas mídias sociais. O entendimento não foi alcançado e, como resultado de baixas humanas, foi decidido bloquear o acesso a várias redes sociais e mensageiros instantâneos, incluindo o Facebook e o WhatsApp. Segundo as autoridades, a disseminação de informações erradas sobre os eventos poderia causar uma escalada de violência no país.

O bloqueio de redes sociais e mensageiros instantâneos durante surtos de violência ocorre com mais frequência. Por exemplo, no verão de 2018, a disseminação viral de rumores de sequestro pelo WhatsApp provocou uma série de confrontos na Índia. E em fevereiro de 2019, a desinformação que se espalhou no Facebook, Instagram e WhatsApp aumentou a tensão entre a Índia e o Paquistão. Agora, autoridades na Índia temem que a divulgação de notícias falsas via Facebook possa alimentar a situação durante as próximas eleições. Online gera violência em países mais desenvolvidos: no México , Estados Unidos e Alemanha .

Por um lado, quando os governos bloqueiam as redes sociais, isso é percebido como uma tentativa de restringir a liberdade de expressão. Mas, por outro lado, os casos mencionados mostram que desconectar as redes sociais é a única ferramenta para os países evitarem a violência e a perda de vidas. Como as redes sociais se transformaram em um ambiente agressivo e existe uma maneira de parar a violência sem desligar a Internet?

De limpeza étnica a ataques terroristas


Estudos da ONU mostraram que o Facebook desempenhou um "papel determinante" na ascensão do sentimento anti-muçulmano em Mianmar, vizinho Sri Lanka. A disseminação de rumores nas redes sociais levou a baixas entre a população: a histeria anti-muçulmana nas redes sociais de Mianmar se transformou em uma limpeza étnica em larga escala. As forças do governo usam o Facebook há vários anos para se propagar contra a etnia Rohingya no país. Pelo menos 6.700 pessoas foram vítimas no mundo real, de acordo com um relatório da Médicos Sem Fronteiras. Em novembro de 2018, o Facebook publicou uma avaliação independente do que estava acontecendo em Mianmar e admitiu que a empresa não fez o suficiente para impedir que sua plataforma incitasse discordâncias e incitação à violência na vida real.

Um ano antes dos ataques terroristas no Sri Lanka, falsos rumores nas redes sociais provocaram os budistas a se manifestarem contra os muçulmanos: o feed de notícias do Facebook também teve um papel fatal . Ao mesmo tempo, o governo do país aprecia as redes sociais por ajudar a estabelecer a democracia após muitos anos de guerra civil, de modo que suas críticas por incitar ao ódio racial podem ser consideradas objetivas. Representantes do Facebook não responderam às críticas do governo até o acesso aos seus recursos ser bloqueado no país. Somente depois disso, a empresa americana prometeu contratar mais moderadores e melhorar a interação com as autoridades locais.

Algoritmos de morte


A grande maioria dos editores e distribuidores de conteúdo extremo na Web não comete crimes de ódio na vida real. Mas os crimes de ódio que ocorrem geralmente estão relacionados às atividades dos instigadores online. O modelo matemático de comportamento social calculado pelos cientistas russos mostra que há um ponto de virada, após o qual algumas pessoas ficam tão obcecadas com a versão distorcida da realidade criada pela Internet que ela começa a agir.

Um estudo da Universidade de Warwick, na Grã-Bretanha, encontrou uma correlação entre ataques a refugiados na Alemanha entre 2015 e 2017 com áreas com alta popularidade no Facebook e a disseminação dos posts do partido populista de extrema direita “Alternative for Germany” (AfD) contra refugiados . Dos 3335 ataques, 3171 deles ocorreram em municípios com alta atividade de ameaças online. Em Chemnitz, Alemanha, rumores falsos sobre migrantes assassinos no Twitter e no Facebook levaram a manifestações em massa , reunindo 6.000 participantes em agosto de 2018.

O acesso a tecnologias e plataformas que fornecem conteúdo viral não é tão difícil. Um estudo realizado pelo Instituto de Tecnologia de Massachusetts (MIT), com mais de 126.000 postagens escritas por cerca de 3 milhões de pessoas, mostrou que as mentiras se espalham nas mídias sociais muito mais rápida e extensivamente do que a verdade em todas as categorias de informações. A influência das redes sociais é reforçada pelas chamadas bolhas ideológicas: para manter a atenção das pessoas em seus sites o maior tempo possível, empresas como o Facebook e o YouTube usam algoritmos que recomendam as postagens potencialmente mais interessantes para o usuário. Se o sistema captura a popularidade de um vídeo, ele o distribui mais e, como resultado, o conteúdo obtém mais visualizações, e o YouTube recebe mais dinheiro devido ao fato de que os usuários gastam mais tempo no recurso e visualizam mais publicidade.

Usuários em bolhas ideológicas veem uma versão do mundo em que suas opiniões nunca são contestadas, e opiniões opostas não são encontradas. O espectador do YouTube cai nas condições consideradas no modelo de " confronto de informações " dos sociólogos russos: o usuário não encontra irritação na forma de pontos de vista alternativos. Isso cria um círculo extremamente unido e leal de seguidores que estão prontos para imitar uma agenda mais radical, se ela ocorrer. Bolhas como essas trazem "pontos críticos" nos quais a violência se espalha.

O engenheiro Guillaume Chaslo, que trabalhou nos sistemas de recomendação do YouTube por três anos, criou o site Algotransparency em 2016, onde tenta desvendar algoritmos de hospedagem de vídeo: como um conteúdo é promovido em comparação com outros. Um dia antes das filmagens na Sinagoga de Pittsburgh em 2018, a Algotransparency registrou que o algoritmo do YouTube distribui um vídeo do terapeuta da conspiração David Ike, no qual ele acusa o bilionário judeu, filantropo e alvo querido do ultra-direito George Soros de "manipular eventos políticos no mundo". O vídeo tinha menos de 1.000 visualizações, quando o algoritmo começou a promovê-lo, agora possui mais de 70.000. Isso não prova uma relação causal entre o vídeo e a filmagem, mas fornece uma compreensão de como encontrar vídeos provocativos e combater sua distribuição.

Violência online


Outro problema relacionado à violência e à mídia em rede é a distribuição descontrolada de vídeos com massacres e suicídios. Quatro anos atrás, um vídeo gravado de forma independente pelo assassino de dois repórteres na Virgínia foi distribuído no Facebook e no Twitter; três anos atrás, o massacre em Dallas se tornou viral. As plataformas de mídia social podem fornecer uma audiência global para pessoas que desejam causar danos sérios a si mesmas ou a outras pessoas. Provavelmente não é com isso que o Facebook contava quando apresentou o Facebook Live ao público vários anos .

Como o streaming de vídeo é uma ferramenta relativamente nova na Internet em que o Facebook, Twitter, Amazon e outras empresas continuam investindo, não está claro o que fazer em caso de transmissão de ataques terroristas no ar. Mesmo que o Facebook bloqueie rapidamente conteúdo violento, esses incidentes se tornam instantaneamente conhecidos, levando as pessoas a procurar vídeos originais através do Google e de outros mecanismos de pesquisa.

O ataque mencionado na Nova Zelândia, que matou 50 pessoas, foi transmitido ao vivo no Facebook, republicado no YouTube e discutido no Reddit antes de qualquer uma dessas plataformas reagir. Muitos usuários conseguem colocá-lo em suas contas, o que requer uma segunda auditoria não apenas por meios automáticos, mas também com o envolvimento de moderadores para excluir todas as cópias. Por exemplo, quase dois meses após a tragédia de Christchurch, a CNN encontrou cópias das transmissões do massacre ainda disponíveis em muitos sites.

Resgate do afogamento


Nos últimos anos, a desativação da Internet tornou-se cada vez mais comum em todo o mundo, especialmente na Ásia e na África, após protestos ou outras atividades antigovernamentais.

No entanto, especialistas em políticas da Internet duvidam que os bloqueios impeçam os terroristas de cumprir suas intenções. O pesquisador da Universidade de Stanford, Jan Ridgak, descobriu que o bloqueio de redes e sites sociais na Índia era acompanhado por uma escalada de violência ... O bloqueio derrama notícias falsas e rumores através de canais alternativos, na ausência de comunicações rápidas na Internet em massa é mais difícil refutar.

De qualquer forma, as proibições só são eficazes até certo ponto, porque os usuários podem usar aplicativos conhecidos como VPNs ou redes privadas virtuais para ignorar o bloqueio ou mensageiros instantâneos que se comunicam com os dispositivos próximos via Wi-Fi se a Internet estiver desligada.

Em março, a comissão parlamentar indiana pediu a Joel Kaplan, chefe da política global do Facebook, para reforçar o controle do WhatsApp e do Instagram, exigindo que as empresas verificassem as postagens dos usuários para garantir que não continham nada ilegal. Essa abordagem é ambígua por dois motivos: leva empresas como o WhatsApp, que usam criptografia de ponta a ponta, a mudar radicalmente suas plataformas e, por outro lado, levanta preocupações sobre confidencialidade e controle excessivo do estado.

Controle manual


Na China, um exército de censores muito real está lutando contra conteúdo inapropriado de mídia social com centenas de milhões de usuários. Pesquisadores da Universidade de Harvard classificaram seu número em dezenas de milhares de participantes sem precedentes, incluindo blogueiros do governo e a chamada polícia da Internet, que filtram o conteúdo dos recursos da rede. Graças ao rápido desenvolvimento de aplicativos chineses, a influência dos censores se estende muito além das fronteiras do Reino Médio: o fundador do Facebook, Mark Zuckerberg, acusou a rede social TikTok de bloquear conteúdo relacionado a protestos em Hong Kong, mesmo nos Estados Unidos.

Se conteúdo perigoso estiver localizado fora do Império Celestial, a Grande Arma é usada , o que atrasa o trabalho de recursos questionáveis. Por exemplo, de acordo com Pavel Durov, o governo chinês realizou um ataque DDoS para desacelerar o Telegram em 13 de junho, quando centenas de milhares de cidadãos de Hong Kong cercaram o prédio do governo para protestar contra a lei , o que permite que as pessoas sejam extraditadas para o tribunal na China continental.

Mas mesmo um sistema tão poderoso e um exército de moderadores não conseguem visualizar manualmente cada arquivo baixado em um período de tempo razoável, e o crescimento da transmissão em streaming traz consigo novas dificuldades no reconhecimento de conteúdo cruel, já que o vídeo pode ser exibido antes que o censor saiba que foi transmitido.

As tecnologias automatizadas estão longe de serem perfeitas e oferecem a única oportunidade de sinalizar e impedir a repetição apenas do conteúdo mais flagrante da Web. Segundo as estatísticas do YouTube, apenas 73% dos vídeos com etiqueta automática são excluídos antes que pelo menos uma pessoa os veja.

Por muitos anos, o Facebook e o Google desenvolveram e implementaram ferramentas automatizadas que podem detectar e excluir fotos, vídeos e textos que violam suas políticas. Por exemplo, o Facebook usa o PhotoDNA da Microsoft para detectar pornografia infantil. O Google desenvolveu sua própria versão deste software de código aberto. Essas empresas também investiram em tecnologias para detectar mensagens extremistas, juntando-se a um grupo chamado Fórum Global da Internet sobre Contraterrorismo, para trocar informações sobre conteúdo terrorista conhecido. Para o conteúdo ilegal detectado, são geradas assinaturas digitais que permitem o reconhecimento após o download repetido (e o proíbem).

Mas a moderação automatizada se torna muito mais difícil se não se trata de fotos e vídeos, mas de streaming de vídeo. Como o consultor geral do Google, Kent Walker, escreveu em seu blog em 2017, "os carros podem ajudar a identificar vídeos problemáticos, mas o fator humano ainda desempenha um papel decisivo nas nuances de decisão da fronteira entre propaganda violenta e declarações religiosas". As empresas de tecnologia ainda não foram capazes de criar IA eficaz para bloquear proativamente esse conteúdo, embora seja a indústria mais rica do mundo. Portanto, o Facebook e o YouTube têm equipes de censores que assistem a vídeos em todo o mundo e, ao mesmo tempo, enfrentam cada vez mais o problema do volume de dados. Talvez o YouTube e o Facebook tenham se tornado muito grandes para serem moderados.

Parece que o próprio Mark Zuckerberg não tem certeza sobre as capacidades dos sistemas automatizados: ele está pronto para transferir o controle sobre ativos em dificuldades para o estado , incluindo conteúdo "matador" e publicidade política. “Até recentemente, a Internet em quase todos os países fora da China era definida pelas plataformas americanas, nas quais os valores da liberdade de expressão são fortes. Não há garantia de que esses valores vencerão ”, disse o bilionário em discurso na Universidade de Georgetown. Mas existe alguma garantia de que, no caso de transferência de controle do conteúdo para o governo de qualquer país, não receberemos censura da Rede Global de acordo com o cenário chinês? Esse é o tipo de internet que queremos, Mark?



Nikita Tsaplin

Minuto de cuidados UFO


Esse material pode causar sentimentos conflitantes; portanto, antes de escrever um comentário, atualize algo importante em sua memória:

Como escrever um comentário e sobreviver
  • Não escreva comentários ofensivos, não seja pessoal.
  • Abster-se de linguagem obscena e comportamento tóxico (mesmo de forma velada).
  • Para denunciar comentários que violam as regras do site, use o botão "Denunciar" (se disponível) ou o formulário de comentários .

O que fazer se: menos karma | conta bloqueada

Código dos autores Habr e habraetiket
Versão completa das regras do site

Source: https://habr.com/ru/post/pt473806/


All Articles