Por que a Microsoft chatbot girl foi influenciada por trolls com 4chan
Como você sabe, ontem a Microsoft teve que "adormecer" o chatbot Thay - um programa de IA que simulava a personalidade e o estilo de conversa de uma garota americana de 19 anos e tinha a função de auto-aprendizado. Desenvolvedores de esperança Microsoft Research que Tay ( Tay ) a cada dia está se tornando mais inteligente, absorvendo a experiência de falar a milhares de utilizadores da Internet inteligentes. Acabou completamente diferente. Os muitos tweets de Thay tiveram que ser removidos devido ao racismo flagrante e politicamente incorretos.Formulada nos anos 90, a lei de Godwin afirma: "À medida que a discussão na Usenet cresce, a probabilidade de uma comparação com o nazismo ou Hitler tende a se unir". No caso de Tay, isso aconteceu: o chatbot começou a insultar negros, judeus, mexicanos e glorificar Hitler e o Holocausto. A garota de Thay evoluiu de um adolescente engraçado para um neonazista militante. Os representantes da Microsoft disseram que um filtro de expressão vulgar foi incorporado ao programa, como pode ser visto em suas respostas:
Mas esse filtro não lidou com uma multidão de trolls da Internet que se propuseram a transformar a “identidade” de Thay operando seu sistema de auto-aprendizado.O fato é que o chatbot foi programado para repetir as palavras da pessoa sob seu comando. As notícias se espalharam rapidamente pelos fóruns 4chan e 8chan sob Politicamente Incorreto . Numerosos trolls e hooligans começaram a ensinar frases racistas e nazistas a Thay.
A maioria dos tweets racistas de Thay são precisamente as respostas no jogo "Repita depois de mim", onde ela repete literalmente as palavras dos usuários.
O jogo "Repita comigo" não era a única "fraqueza" de Thay. Os chatbots também foram programados para circular seus rostos em fotografias e publicar texto em cima deles.
As meninas trolladoras incluíam cada vez mais usuários dos fóruns 4chan e além. Gradualmente, expressões racistas foram absorvidas em sua inteligência artificial, então ela começou a compor por conta própria.Deve-se notar que a Microsoft lançou chatbots autodidatas semelhantes anteriormente na China e no Japão, mas nada disso foi observado lá.Como resultado, o chatbot teve que ser adormecido.Adeus, Thay! Você era inocente demais para este mundo.Source: https://habr.com/ru/post/pt392129/
All Articles