YouTube dejar谩 informaci贸n err贸nea en los resultados de b煤squeda, pero ya no lo recomendar谩



La tierra es realmente plana, los estadounidenses nunca han aterrizado en la luna y un gobierno secreto gobierna el mundo: las teor铆as de conspiraci贸n m谩s populares son muy f谩ciles de encontrar en YouTube. Debido a la burbuja de filtros , el conservadurismo psicol贸gico , la percepci贸n selectiva y el efecto de la ilusi贸n de la verdad, una persona busca en Internet informaci贸n que confirme su punto de vista, y se inclina a ignorar nueva informaci贸n si contradice las creencias establecidas.

YouTube tiene la intenci贸n de superar esta propiedad desagradable de la naturaleza humana. El viernes, el servicio de video m谩s grande en Internet anunci贸 que planea excluir de la lista de videos de recomendaciones con teor铆as de conspiraci贸n.

YouTube ha sido criticado durante muchos a帽os por recomendar videos que difunden informaci贸n err贸nea. Ahora la pol铆tica es algo relajada. El 25 de enero de 2019, en el blog oficial, YouTube anunci贸 que ya no ofrecer铆a videos con "contenido de borde" y que "informaba mal a los usuarios de una manera nociva", incluso si el video en s铆 no contradice las recomendaciones de la comunidad y no se puede eliminar.

YouTube dice que un cambio de pol铆tica ha afectado a menos del 1% de todos los videoclips en la plataforma. Pero con miles de millones de entradas en la biblioteca de YouTube, es realmente mucho.

Recientemente, Facebook, YouTube, Twitter y otras plataformas UGC han sido muy criticadas por ayudar a difundir informaci贸n err贸nea, falsificaciones, teor铆as de conspiraci贸n y otra informaci贸n viral, que por su naturaleza se difunde f谩cilmente en las redes sociales. Hay una doble situaci贸n. Por un lado, la censura del contenido del usuario es contraria a los derechos humanos fundamentales. Por otro lado, nadie proh铆be que las personas expresen sus opiniones, pero la plataforma tambi茅n tiene el derecho de aplicar sus propias reglas y al menos no ayudar en la distribuci贸n de falsificaciones, incluso si genera ganancias (n煤mero de visitas, cantidad de publicidad, etc.).

Las redes sociales se ven obligadas a escuchar estos requisitos. Por ejemplo, Facebook recientemente prohibi贸 cientos de cuentas de empleados de la agencia Sputnik que se dedicaban a la propaganda en los pa铆ses b谩lticos y Europa del Este. Twitter toma medidas similares, eliminando cuentas que se utilizan para la manipulaci贸n coordinada de la opini贸n p煤blica .

La principal queja contra las redes sociales es que recomiendan contenido dudoso incluso si los usuarios no expresan claramente su inter茅s en 茅l. Por ejemplo, recientemente YouTube, sin raz贸n aparente, recomend贸 a millones de usuarios ver la grabaci贸n de video del ataque del 11 de septiembre. Tambi茅n est谩 acusado de ampliar la divisi贸n pol铆tica en el pa铆s, empujando a los televidentes ya sesgados a puntos de vista m谩s extremos. Los estudios muestran que los verdaderos algoritmos de YouTube recomiendan sistem谩ticamente m谩s y m谩s videos extremos a una persona sobre un tema que le haya interesado anteriormente. Probablemente, los algoritmos de recomendaciones en el curso del aprendizaje autom谩tico llegaron a este comportamiento, tal vez esta es una estrategia realmente efectiva que maximiza el n煤mero de vistas. Pero as铆 es como YouTube se convirti贸 en "una de las herramientas m谩s poderosas para radicalizar la sociedad en el siglo XXI", dicen los cr铆ticos .

La nueva pol铆tica tambi茅n es el 煤ltimo ejemplo del enfoque m谩s agresivo del contenido de YouTube, que muchos consideran desagradable, incluso si no viola los Lineamientos de la comunidad .

A finales de 2017, YouTube movi贸 el contenido "controvertido religioso o suprematista" a un "estado limitado" en el que los videos no son monetizados por anuncios, y los comentarios y me gusta est谩n desactivados. Algunos videos van acompa帽ados de un breve mensaje de que pueden ser inapropiados u ofensivos.

YouTube mencion贸 tres ejemplos de videos que ya no recomendar谩:

  • quienes promueven una cura milagrosa falsa para una enfermedad grave;
  • quienes afirman que la tierra es plana;
  • contenido que hace declaraciones francamente falsas sobre eventos hist贸ricos como los ataques del 11 de septiembre.

Por supuesto, esto no es suficiente para filtrar por completo la informaci贸n err贸nea, pero la censura debe ser cuidadosa porque es un arma de doble filo.

YouTube continuar谩 recomendando videos dudosos a los usuarios que se hayan suscrito expl铆citamente a este canal, y dejar谩 informaci贸n err贸nea en los resultados de b煤squeda: "Creemos que este cambio establece un equilibrio entre mantener la libertad de expresi贸n y respetar nuestra responsabilidad con los usuarios", escribi贸 YouTube en un funcionario publicaci贸n de blog

Source: https://habr.com/ru/post/437572/


All Articles