Ya estamos acostumbrados al hecho de que las redes sociales influyen en las
elecciones y la política en los países occidentales. Pero pueden costarles la vida a las personas, y todavía no hay una solución.
En marzo de 2019, 49 personas fueron asesinadas
en dos mezquitas en Nueva Zelanda . Los organizadores de la masacre la transmitieron en las redes sociales para atraer la atención de la mayor cantidad de personas posible. Patrick Crusius estaba entre los espectadores al otro lado de la pantalla, quienes, bajo la impresión de lo
que vio,
organizaron un tiroteo masivo en los grandes almacenes Walmart en El Paso el 4 de agosto, matando a 21 personas e hiriendo a 26 más. Los investigadores afirman que el sospechoso
publicó información sobre varios meses antes de la tragedia.
Sus intenciones en uno de los recursos extremistas de la red, donde expresó, entre otras cosas, su apoyo a un luchador de Nueva Zelanda. Luego de una investigación sobre las causas del desastre, Francia y Nueva Zelanda recurrieron a otros países y compañías tecnológicas para encontrar tecnologías que impidieran la distribución de dicho contenido. La iniciativa fue
apoyada por 17 países, la UE y 8 empresas tecnológicas importantes, incluidas Google y Facebook.
En abril de 2019, una
serie de explosiones en Sri Lanka mató a más de 200 personas. Las autoridades dicen que
advirtieron a Facebook sobre las posibles consecuencias de alimentar la violencia en las redes sociales. No se logró la comprensión, y como resultado de las bajas humanas, se decidió
bloquear el acceso a una serie de redes sociales y mensajería instantánea, incluidos Facebook y WhatsApp. Según las autoridades, la difusión de información errónea sobre los hechos podría provocar una escalada de violencia en el país.
El bloqueo de redes sociales y mensajería instantánea durante brotes de violencia ocurre con mayor frecuencia. Por ejemplo, en el verano de 2018, la propagación viral de los
rumores de secuestro de WhatsApp provocó una serie de enfrentamientos en la India. Y en febrero de 2019, la información errónea que se extendió en Facebook, Instagram y WhatsApp
aumentó la tensión entre India y Pakistán. Ahora, los funcionarios en la India temen que difundir noticias falsas a través de Facebook podría alimentar la situación durante las próximas elecciones. En línea
genera violencia en países más desarrollados: en
México ,
Estados Unidos y
Alemania .
Por un lado, cuando los gobiernos bloquean las redes sociales, se percibe como un intento de restringir la libertad de expresión. Pero, por otro lado, los casos antes mencionados muestran que desconectar las redes sociales es la única herramienta para que los países eviten la violencia y la pérdida de vidas. ¿Cómo se han convertido las redes sociales en un entorno agresivo? ¿Hay alguna forma de detener la violencia sin apagar Internet?
De la limpieza étnica a los ataques terroristas.
Los estudios de la
ONU mostraron que Facebook jugó un "papel determinante" en el aumento del sentimiento antimusulmán en Myanmar, la vecina Sri Lanka. La difusión de rumores en las redes sociales
provocó víctimas entre la población: la histeria antimusulmana en las redes sociales de Myanmar se convirtió en una limpieza étnica a gran escala. Las fuerzas gubernamentales han usado Facebook durante varios años para
propagarse contra el grupo étnico rohingya en el país. Al menos 6.700 personas se convirtieron en víctimas en el mundo real,
según un informe de Médicos sin Fronteras. En noviembre de 2018, Facebook publicó
una evaluación independiente de lo que estaba sucediendo en Myanmar y
admitió que la compañía no hizo lo suficiente para evitar que su plataforma incitara desacuerdos e incitación a la violencia en la vida real.
Un año antes de los ataques terroristas en Sri Lanka, los rumores falsos en las redes sociales provocaron a los budistas a hablar en contra de los musulmanes: el servicio de noticias Facebook también jugó un
papel fatal . Al mismo tiempo, el gobierno del país aprecia las redes sociales por ayudar a establecer la democracia después de muchos años de guerra civil, por lo que sus críticas por incitar al odio racial pueden considerarse objetivas. Los representantes de Facebook no respondieron a las críticas del gobierno hasta que se bloqueó el acceso a sus recursos en el país. Solo después de eso, la compañía estadounidense prometió contratar más moderadores y mejorar la interacción con las autoridades locales.
Algoritmos de muerte
La gran mayoría de los editores y distribuidores de contenido extremo en la web no cometen crímenes de odio en la vida real. Pero los crímenes de odio que ocurren a menudo están relacionados con las actividades de los instigadores en línea. El modelo matemático de comportamiento social calculado por los científicos rusos
muestra que hay un punto de inflexión, después del cual algunas personas se obsesionan tanto con la versión distorsionada de la realidad creada por Internet que comienza a actuar.
Un estudio de la Universidad de Warwick en Gran Bretaña
encontró una correlación entre los ataques contra refugiados en Alemania entre 2015 y 2017 con áreas con alta popularidad en Facebook y la difusión de las
publicaciones del partido populista de extrema derecha "Alternativa para Alemania" (AfD)
contra los refugiados . De 3335 ataques, 3171 de ellos ocurrieron en municipios con alta actividad de amenaza en línea. En Chemnitz, Alemania, los rumores falsos sobre los migrantes asesinos en Twitter y Facebook llevaron
a manifestaciones masivas , reuniendo a 6,000 participantes en agosto de 2018.
Acceder a tecnologías y plataformas que proporcionan contenido viral no es tan difícil. Un estudio realizado por el Instituto de Tecnología de Massachusetts (MIT) de más de 126,000 publicaciones escritas por aproximadamente 3 millones de personas
mostró que las mentiras se difundieron en las redes sociales mucho más rápido y de forma más extensa que la verdad en todas las categorías de información. La influencia de las redes sociales se ve reforzada por las llamadas burbujas ideológicas: para mantener a las personas en sus sitios el mayor tiempo posible, empresas como Facebook y YouTube utilizan algoritmos que recomiendan las publicaciones potencialmente más interesantes para el usuario. Si el sistema captura la popularidad de un video, lo distribuye más y, como resultado, el contenido obtiene más visitas y YouTube recibe más dinero debido al hecho de que los usuarios pasan más tiempo en el recurso y ven más publicidad.
Los usuarios en burbujas ideológicas ven una versión del mundo en la que sus opiniones nunca se disputan, y no se encuentran opiniones opuestas. El espectador de YouTube cae en las condiciones consideradas en el modelo de "
confrontación de información " de los sociólogos rusos: el usuario no encuentra un irritante en forma de puntos de vista alternativos. Esto crea un círculo extremadamente unido y leal de adherentes que están listos para imitar una agenda más radical si ocurre. Burbujas como estas traen "puntos de inflexión" en los que se derrama la violencia.
El ingeniero Guillaume Chaslo, que trabajó en los sistemas de recomendación de YouTube durante tres años, creó el
sitio web
Algotransparency en 2016, donde intenta desentrañar algoritmos de alojamiento de video: cómo se promueve un contenido en comparación con otros. El día antes del
tiroteo en la Sinagoga de Pittsburgh en 2018, Algotransparency registró que el algoritmo de YouTube distribuye un video del terapeuta de conspiración David Ike, en el que acusa al
multimillonario judío, filántropo y querido objetivo del ultraderechista George Soros de "manipular eventos políticos en el mundo". El video tenía menos de 1000 vistas, cuando el algoritmo comenzó a promocionarlo, ahora tiene más de 70,000. Esto no prueba una relación causal entre el video y el rodaje, pero da una idea de cómo encontrar videos provocativos y combatir su distribución.
Violencia en línea
Otro problema relacionado con la violencia y los medios de comunicación en red es la distribución incontrolada de videos con masacres y suicidios. Hace
cuatro años , un video filmado independientemente por el asesino de dos reporteros en Virginia se distribuyó en Facebook y Twitter; hace tres años,
los tiroteos masivos en Dallas se volvieron virales. Las plataformas de redes sociales pueden proporcionar una audiencia global para las personas que desean hacerse un daño grave a sí mismas o a los demás. Probablemente, esto no era con lo que Facebook contaba cuando presentó Facebook Live al público hace varios
años .
Debido al hecho de que la transmisión de video es una herramienta relativamente nueva en Internet en la que Facebook, Twitter, Amazon y otras corporaciones continúan invirtiendo, no está claro qué hacer en caso de transmitir ataques terroristas al aire. Incluso si Facebook bloquea rápidamente el contenido violento, tales incidentes se conocen instantáneamente, lo que lleva a las personas a buscar videos originales a través de Google y otros motores de búsqueda.
El ataque antes mencionado en Nueva Zelanda, que mató a 50 personas,
se transmitió en vivo en Facebook, se volvió a publicar en YouTube y se discutió en Reddit antes de que cualquiera de estas plataformas reaccionara. Muchos usuarios logran colocarlo en sus cuentas, lo que requiere una segunda auditoría no solo por medios automáticos, sino también con la participación de moderadores para eliminar todas las copias. Por ejemplo, casi dos meses después de la tragedia de Christchurch, CNN encontró copias de las transmisiones de masacre
aún disponibles en muchos sitios.
Rescate del ahogamiento
En los últimos años, la desactivación de Internet se ha vuelto cada vez más
común en todo el mundo, especialmente en Asia y África, después de protestas u otras actividades antigubernamentales.
Sin embargo, los expertos en políticas de Internet dudan de que los bloqueos impidan que los terroristas cumplan sus intenciones. El investigador de la Universidad de Stanford, Jan Ridgak,
descubrió que el bloqueo de las redes sociales y los sitios web en India estaba acompañado por una
escalada de violencia ... El bloqueo derrama noticias falsas y rumores a través de canales alternativos, en ausencia de comunicaciones masivas rápidas por Internet es más difícil de refutar.
En cualquier caso, las prohibiciones solo son efectivas en cierta medida, porque los usuarios pueden usar aplicaciones conocidas como VPN o redes privadas virtuales para evitar el bloqueo o los mensajeros instantáneos que se comunican con los dispositivos circundantes a través de Wi-Fi si Internet está apagado.
En marzo, la comisión parlamentaria india le pidió a Joel Kaplan, jefe de política global de Facebook,
que reforzara el control sobre WhatsApp e Instagram, exigiendo a las compañías que revisen las publicaciones de los usuarios para asegurarse de que no contengan nada ilegal. Este enfoque es ambiguo por dos razones: lleva a compañías como WhatsApp, que utilizan cifrado de extremo a extremo, a cambiar radicalmente sus plataformas y, por otro lado, plantea preocupaciones sobre la confidencialidad y el control estatal excesivo.
Control manual
En China, un verdadero
ejército de censores está luchando contra el contenido inapropiado de las redes sociales con cientos de millones de usuarios. Los investigadores de
la Universidad de Harvard calificaron su número en decenas de miles de participantes sin precedentes, incluidos blogueros del gobierno y la llamada policía de Internet, que filtran el contenido de los recursos de la red. Gracias al rápido desarrollo de las aplicaciones chinas, la influencia de los censores se extiende mucho más allá de las fronteras del Reino Medio: el fundador de Facebook, Mark Zuckerberg,
acusó a la red social TikTok de bloquear contenido relacionado con protestas en Hong Kong, incluso en los Estados Unidos.
Si el contenido peligroso se encuentra fuera del Imperio Celestial,
se usa la
Gran Pistola , lo que ralentiza el trabajo de los recursos inaceptables. Por ejemplo, según Pavel Durov, el gobierno chino llevó a cabo un ataque DDoS para frenar Telegram el 13 de junio, cuando cientos de miles de ciudadanos de Hong Kong rodearon el edificio del gobierno para
protestar contra el proyecto de ley , lo que permite que las personas sean extraditadas a los tribunales en China continental.
Pero incluso un sistema tan poderoso y un ejército de moderadores no pueden ver manualmente cada archivo descargado en un período de tiempo razonable, y el crecimiento de la transmisión por secuencias trae consigo nuevas dificultades para reconocer el contenido cruel, ya que el video se puede mostrar antes de que el censor sepa que se transmitió.
Las tecnologías automatizadas están lejos de ser perfectas y brindan la única oportunidad de marcar y evitar la repetición de solo el contenido más atroz en la Web. Según las estadísticas de YouTube, solo el
73% de los videos etiquetados automáticamente se eliminan antes de que al menos una persona los vea.
Durante muchos años, tanto Facebook como Google han desarrollado e implementado herramientas automatizadas que pueden detectar y eliminar fotos, videos y textos que violan sus políticas. Por ejemplo, Facebook usa
PhotoDNA de Microsoft para detectar pornografía infantil. Google ha desarrollado su propia
versión de este software de código abierto. Estas compañías también invirtieron en tecnologías para detectar mensajes extremistas, uniéndose a un grupo llamado
Foro Global de Internet sobre Contraterrorismo para intercambiar información sobre contenido terrorista conocido. Para el contenido ilegal detectado, se generan firmas digitales que permiten su reconocimiento tras descargas repetidas (y lo prohíben).
Pero la moderación automática se vuelve mucho más difícil si no se trata de fotos y videos, sino de transmisión de video. Como el consejero general de Google, Kent Walker, escribió en su
blog en 2017, "las máquinas pueden ayudar a identificar videos problemáticos, pero el factor humano todavía juega un papel decisivo en los matices de decidir el límite entre la propaganda de violencia y las expresiones religiosas". Las corporaciones tecnológicas
aún no han podido crear IA efectiva para bloquear de manera proactiva dicho contenido, aunque es la industria más rica del mundo. Por lo tanto, Facebook y YouTube tienen equipos de censores que miran videos en todo el mundo y, al mismo tiempo, se enfrentan cada vez más al problema del volumen de datos. Quizás tanto YouTube como Facebook se han vuelto demasiado grandes para ser moderados.
Parece que el propio Mark Zuckerberg no está seguro de las capacidades de los sistemas automatizados: está listo
para transferir el control sobre los activos en dificultades
al estado , incluido el contenido "asesino" y la publicidad política. “Hasta hace poco, Internet en casi todos los países fuera de China estaba definido por plataformas estadounidenses, en las cuales los valores de la libertad de expresión son fuertes. No hay garantía de que estos valores ganen ”, dijo el multimillonario en un discurso en la Universidad de Georgetown. Pero, ¿hay alguna garantía de que, en el caso de la transferencia de control sobre el contenido al gobierno de cualquier país, no recibiremos la censura de la Red Global de acuerdo con el escenario chino? ¿Es este el tipo de internet que queremos, Mark?
Nikita Tsaplin
Minuto de cuidado de ovnis
Este material puede causar sentimientos conflictivos, así que antes de escribir un comentario, actualice algo importante en su memoria: