Warum Microsoft Chatbot Girl von Trollen mit 4chan beeinflusst wurde



Wie Sie wissen, musste Microsoft gestern den Chatbot Thay „einschlĂ€fern“ - ein KI-Programm, das die Persönlichkeit und den GesprĂ€chsstil eines 19-jĂ€hrigen amerikanischen MĂ€dchens simulierte und eine selbstlernende Funktion hatte. Entwickler von Microsoft Research Hoffnung , dass Tay ( Tay ) jeden Tag wird immer intelligenter, die Erfahrung im GesprĂ€ch mit Tausenden von intelligenten Internet - Nutzer zu absorbieren. Es stellte sich ganz anders heraus. Die vielen Tweets von Thay mussten wegen offensichtlichen Rassismus und politischer Unkorrektheit entfernt werden.

In den 90er Jahren formuliert, heißt es in Godwins Gesetz : "Mit zunehmender Diskussion im Usenet steigt die Wahrscheinlichkeit eines Vergleichs mit dem Nationalsozialismus oder Hitler zur Einheit." Im Fall von Tay geschah dies: Der Chatbot begann, Schwarze, Juden, Mexikaner zu beleidigen und Hitler und den Holocaust zu verherrlichen. Thays MĂ€dchen hat sich von einem lustigen Teenager zu einem militanten Neonazi entwickelt. Microsoft- Mitarbeiter sagten, dass ein vulgĂ€rer Ausdrucksfilter in das Programm integriert wurde, wie aus den Antworten hervorgeht:






Dieser Filter kam jedoch nicht mit einer Menge von Internet-Trollen zurecht, die sich daran machten, Thays „IdentitĂ€t“ durch den Betrieb ihres selbstlernenden Systems zu verĂ€ndern.

Tatsache ist, dass der Chatbot so programmiert wurde, dass er die Wörter der Person auf seinen Befehl wiederholt . Die Nachricht verbreitete sich schnell in den 4chan- und 8chan-Foren unter Politically Incorrect . Zahlreiche Trolle und Hooligans begannen, rassistische und nationalsozialistische Redewendungen zu lehren.



Die meisten rassistischen Tweets von Thay sind genau die Antworten im Spiel "Repeat after me", in dem sie die Worte der Benutzer wörtlich wiederholt.





Das Spiel "Repeat after me" war nicht Thays einzige "SchwĂ€che". Chatbots wurden auch so programmiert, dass sie ihre Gesichter in Fotos umkreisen und Text darĂŒber veröffentlichen.



Zu den Trolling-Girls gehörten immer mehr Benutzer aus den 4chan-Foren und darĂŒber hinaus. AllmĂ€hlich wurden rassistische AusdrĂŒcke in ihre kĂŒnstliche Intelligenz aufgenommen, und sie begann, sie selbst zu komponieren.


Es sollte beachtet werden, dass Microsoft frĂŒher in China und Japan Ă€hnliche autodidaktische Chatbots gestartet hat, aber dort wurde nichts dergleichen beobachtet.

Infolgedessen musste der Chatbot eingeschlÀfert werden.

Auf Wiedersehen, Thay! Du warst zu unschuldig fĂŒr diese Welt.

Source: https://habr.com/ru/post/de392129/


All Articles