Dieser winzige humanoide Roboter heißt Meccanoid und ist nur ein Schurke. Die Testperson fragt den Roboter ohne einen zweiten Gedanken: Wenn Sie sich mit jemandem anfreunden möchten, was möchten Sie, dass er über Sie weiß? "Was mich langweilt", sagt Mekanoid.
Okay, fangen wir noch einmal an. Ein neuer Teilnehmer des Experiments stellt Mekanoid dieselbe Frage, nur dass der Roboter jetzt auf Höflichkeit programmiert wurde. Was möchte dieser Roboter von seinem Freund wissen lassen? "Ich mag ihn schon sehr", sagt Mekanoid. So viel besser.
Forscher aus Frankreich setzen Testpersonen aus gutem Grund den Auswirkungen unhöflicher und höflicher Humanoide aus: Sie führen eine Studie darüber durch, wie sich die Haltung eines Roboters gegenüber Menschen auf die Fähigkeit von Menschen auswirkt, bestimmte Aufgaben auszuführen. Im August 2018 veröffentlichten sie ihre
Studie in der Zeitschrift Science Robotics in der Ausgabe, die auch eine
Studie darüber enthielt, ob Roboter Kinder dazu bewegen können, bestimmte Entscheidungen zu treffen. Dieses Studienpaar zeigt, inwieweit die Entwicklung fortschrittlicher sozialer Roboter unser Verständnis davon übertrifft, wie wir sie wahrnehmen werden.
Zurück zu Mekanoid. Die Teilnehmer begannen mit einer Aufgabe, bei der sie die Farbe bestimmen mussten, mit der das Wort geschrieben wurde, und nicht das Wort selbst. Zum Beispiel könnte das Wort "blau" in grüner Tinte geschrieben worden sein. Es besteht die Versuchung, „blau“ zu verwischen, wenn „grün“ gesagt werden muss. Diese Übung wird als
Stroop-Aufgabe bezeichnet .
Die Teilnehmer haben den Test zunächst alleine bestanden und dann ein wenig mit den Mekanoid-ausgetauschten Hinweisen gesprochen. Aber jedes der Themen traf nur auf eine der Varianten der veränderlichen Stimmung von Mekanoid.
Dann kehrten sie zur Aufgabe von Stroop zurück, und der Roboter beobachtete sie. "Wir haben gesehen, dass die Teilnehmer in Gegenwart eines unhöflichen Roboters ihre Leistung im Vergleich zu denen, die dies unter der Aufsicht eines Höflichen taten, erheblich verbessert haben", sagte der Hauptautor der Studie, Nicholas Spatola, Psychologe an der Universität von Clermont-Auvergne, Frankreich.
Was passiert in einem Experiment? „Während des Experiments haben wir beobachtet, wie ein Roboter eine Person emotional beeinflussen kann“, sagt Spatola. "Der unhöfliche Roboter schien bedrohlicher." Trotz der Tatsache, dass der Roboter nicht intelligent war, ist es dem Beobachter egal, was der Roboter darüber denkt und wie. „Da der Roboter unhöflich ist, überwachen Sie aktiv sein Verhalten und seine Bewegungen, da Sie ihn für unvorhersehbar halten“, sagt Spatola. Das heißt, Teilnehmer, die auf einen unhöflichen Roboter stießen, waren fokussierter, weshalb sie wahrscheinlich die besten Ergebnisse in den Tests zeigten.
In einer zweiten Studie, die etwas später veröffentlicht wurde, waren Roboter nicht so bösartig. Drei kleine Humanoiden des Nao-Modells von SoftBank Robotics saßen um den Tisch (es war sehr schön, dass sie in Hochstühlen saßen, um großen Kindern ebenbürtig zu sein). Sie schauten auf den Bildschirm, auf dem sich links eine vertikale Linie und rechts drei Linien unterschiedlicher Länge befanden. Die Probanden mussten wählen, welche der drei Linien in der Länge der linken entspricht.
Aber die ersten Roboter entschieden sich. Autonome Autos, die in zwei Dritteln der Fälle nach einem speziell geschriebenen Programm betrieben wurden, gaben falsche Antworten, was erwachsene Teilnehmer jedoch nicht störte. Wenn wir dies mit einer Gruppe vergleichen, in der das gleiche Experiment unter Beteiligung von Erwachsenen durchgeführt wurde, die anstelle von Robotern die falschen Antworten gaben, neigten die Teilnehmer dazu, an Menschen zu glauben, nicht an Autos.
Kinder hingegen folgten den Robotern. Drei Viertel ihrer Antworten stimmten mit den falschen Antworten der Roboter überein. Mit anderen Worten, die Forscher behaupten, dass die Kinder dem Druck von ihrer Seite erlegen waren. Kinder neigen dazu, Misstrauen zu unterdrücken, sagt Anna-Lisa Volmer, Hauptautorin der Studie an der Universität Bielefeld. „Ähnliches passiert bei der Interaktion mit Robotern: Kinder sehen in ihnen kein Auto aus Kunststoff und Elektronik, sondern einen sozialen Charakter“, sagt sie. "Das könnte erklären, warum sie von Robotern beeinflusst werden."
Aber kann man das Druck von den
Mitgliedern seines Kreises nennen , wenn diese Mitglieder tatsächlich Roboter sind? Hier ist die Situation verwirrt. „Ich denke, es gibt eine große Annahme über die Reaktion von Kindern, da der soziale Aspekt des Drucks von Mitgliedern ihres Kreises hier nicht berücksichtigt werden muss“, sagt Julia Carpenter, die das Zusammenspiel von Menschen und Robotern untersuchte, die nicht an dieser Studie teilgenommen haben. "Sowohl Kinder als auch Erwachsene können sich zu sehr auf Technologie verlassen." Vielleicht betrachteten die Kinder Humanoiden nicht als sich selbst gleich, sondern betrachteten sie einfach als nützliche technologische Werkzeuge.
Und doch lösen diese Roboter, wie der Roboter, die abwechselnd unhöflich und höflich sind, bei experimentellen Menschen eine gewisse Reaktion aus. Daher erscheint uns die nahe Zukunft, in der wir zunehmend mit Maschinen interagieren werden, insbesondere mit humanoiden, so interessant. Diese Studien behaupten, dass humanoide Roboter uns auf verschiedene verwirrende Weise manipulieren können. Und Wissenschaftler beginnen gerade erst, die Dynamik dieses Prozesses zu verstehen.
Stellen Sie sich eine sehr intelligente Roboterpuppe vor, mit der ein Kind eine enge Beziehung hat. Nehmen wir an, Kinder lieben ihre Puppen seit Tausenden von Jahren. Aber was ist, wenn dieser Roboter diese Verbindung zum persönlichen Vorteil nutzt und beispielsweise versucht, ein Kind davon zu überzeugen, 20 US-Dollar für ein Software-Upgrade auszugeben, damit der Roboter noch intelligenter und unterhaltsamer wird?
Autos machen plötzlich nichts mehr. Jemand hat sie einmal so programmiert, dass sie sich auf eine bestimmte Weise verhalten, sei es die falsche Wahl einer Zeile auf dem Bildschirm, eine unhöfliche Behandlung oder die Täuschung ahnungsloser Kinder. „Wir müssen uns fragen, was sind die Ziele des Roboters? - sagt Zimmermann. "Stimmen sie mit meinen überein?"
Sie müssen sich daran erinnern, wenn Sie das nächste Mal denken, dass der Roboter zu unhöflich mit Ihnen ist.