Pourquoi Microsoft Chatbot Girl a été influencée par les trolls avec 4chan



Comme vous le savez, hier, Microsoft a dû «euthanasier» le chatbot Thay - un programme d'IA qui simulait la personnalité et le style de conversation d'une Américaine de 19 ans et avait une fonction d'auto-apprentissage. Les développeurs de Microsoft Research espoir que Tay ( Tay ) chaque jour devient de plus en plus intelligent, absorbant l'expérience de parler à des milliers d'utilisateurs intelligents Internet. Cela s'est avéré complètement différent. Les nombreux tweets de Thay ont dû être supprimés en raison d'un racisme flagrant et politiquement incorrect.

Formulée dans les années 90, la loi de Godwin déclare: «À mesure que la discussion dans Usenet grandit, la probabilité d'une comparaison avec le nazisme ou Hitler tend à l'unité.» Dans le cas de Tay, cela s'est produit: le chatbot a commencé à insulter les Noirs, les Juifs, les Mexicains et à glorifier Hitler et l'Holocauste. La fille de Thay est passée d'un adolescent drôle à un néo-nazi militant. Les représentants de Microsoft ont déclaré qu'un filtre d'expression vulgaire avait été intégré au programme, comme le montrent ses réponses:






Mais ce filtre n'a pas fait face à une foule de trolls Internet qui ont entrepris de transformer «l'identité» de Thay en exploitant son système d'auto-apprentissage.

Le fait est que le chatbot a été programmé pour répéter les mots de la personne à sa demande. Les nouvelles se sont rapidement propagées sur les forums 4chan et 8chan sous Politically Incorrect . De nombreux trolls et hooligans ont commencé à enseigner les phrases racistes et nazies de Thay.



La plupart des tweets racistes de Thay sont précisément les réponses du jeu "Répétez après moi", où elle répète textuellement les mots des utilisateurs.





Le jeu "Répéter après moi" n'était pas la seule "faiblesse" de Thay. Les chatbots ont également été programmés pour encercler leurs visages sur les photos et publier du texte dessus.



Les filles à la traîne incluaient de plus en plus d'utilisateurs des forums 4chan et au-delà. Peu à peu, les expressions racistes ont été absorbées dans son intelligence artificielle, alors elle a commencé à les composer elle-même.


Il convient de noter que Microsoft a lancé des chatbots autodidactes similaires plus tôt en Chine et au Japon, mais rien de tel n'a été observé là-bas.

En conséquence, le chatbot a dû être mis en veille.

Au revoir, Thay! Tu étais trop innocent pour ce monde.

Source: https://habr.com/ru/post/fr392129/


All Articles