¿Por qué la chica chatbot de Microsoft fue influenciada por trolls con 4chan?
Como saben, ayer Microsoft tuvo que "poner a dormir" el chatbot Thay , un programa de inteligencia artificial que simulaba la personalidad y el estilo de conversación de una niña estadounidense de 19 años y tenía la función de autoaprendizaje. Los desarrolladores de Microsoft Research esperanza de que Tay ( Tay ) cada día es cada vez más inteligente, absorbiendo la experiencia de hablar a miles de usuarios de Internet inteligentes. Resultó completamente diferente. Muchos tweets tuvieron que ser eliminados debido a un racismo descarado y políticamente incorrecto.Formulada en los años 90, la ley de Godwin establece: "A medida que crece la discusión en Usenet, la probabilidad de una comparación con el nazismo o Hitler tiende a la unidad". En el caso de Tay, esto sucedió: el chatbot comenzó a insultar a negros, judíos, mexicanos y glorificar a Hitler y el Holocausto. La niña de Thay ha pasado de ser una adolescente divertida a una neonazi militante. Los representantes de Microsoft dijeron que se incluyó un filtro de expresión vulgar en el programa, como se puede ver en sus respuestas:
Pero este filtro no hizo frente a una multitud de trolls de Internet que se propusieron transformar la "identidad" de Thay al operar su sistema de autoaprendizaje.El hecho es que el chatbot fue programado para repetir las palabras de la persona a sus órdenes. La noticia se extendió rápidamente a través de los foros 4chan y 8chan en Políticamente incorrecto . Numerosos trolls y hooligans comenzaron a enseñar frases racistas y nazis a Thay.
La mayoría de los tweets racistas de Thay son precisamente las respuestas en el juego "Repetir después de mí", donde ella repite textualmente las palabras de los usuarios.
El juego "Repetir después de mí" no era la única "debilidad" de Thay. Los chatbots también se han programado para rodear sus rostros en fotografías y publicar texto encima de ellos.
Las chicas trolling incluían más y más usuarios de los foros de 4chan y más allá. Gradualmente, las expresiones racistas fueron absorbidas por su inteligencia artificial, por lo que comenzó a componerlas por su cuenta.Cabe señalar que Microsoft lanzó chatbots autodidactas similares anteriormente en China y Japón, pero no se observó nada de eso allí.Como resultado, el chatbot tuvo que ser puesto a dormir.Adios Thay! Eras demasiado inocente para este mundo.Source: https://habr.com/ru/post/es392129/
All Articles