Wie Roboter Kindern einen Bären aufbinden
In der neuen Studie bilden nicht Menschen die „eingeweihte“ Gruppe, sondern drei Roboter vom Typ Nao. Die Humanoiden können sprechen und gestikulieren und sind deutlich kleiner als Erwachsene (etwa 60 Zentimeter). Die Studie war zweigeteilt. In der ersten Phase der Experimente untersuchten die Forschenden, ob Erwachsene ihr Urteil an das der drei anwesenden Roboter anpassen. In der zweiten Phase nahmen Kinder im Alter von sieben bis neun Jahren an den Experimenten teil. Die Versuchspersonen sahen auf einem Bildschirm einen senkrechten Strich. Sie sollten dessen Länge mit drei weiteren Strichen (A, B und C) vergleichen und sagen, welcher Strich gleich lang sei. Wenn die richtige Antwort „B“ lautete, behaupteten die Roboter zum Beispiel fälschlicherweise „C“ sei die korrekte Antwort.
Das Ergebnis: „Kinder geben dem sozialen Druck nach, den die Gruppe von Robotern ausübt“, sagt Anna-Lisa Vollmer. „Erwachsene hingegen halten dieser Beeinflussung stand, obwohl sie sich in der gleichen Situation von anderen Menschen beeinflussen lassen würden.“
Womöglich liege es an der Größe der Nao-Roboter, dass sie die Erwachsenen in der Untersuchung nicht beeinflussen konnten, sagt Vollmer. „Durch ihr Aussehen und ihre Größe wurden die Naos von Kindern vermutlich eher als ebenbürtig wahrgenommen.“ Allerdings hatten sich die Forschenden bemüht, die Größe auszugleichen: Die Sitzhöhe der Roboter war in beiden Versuchen an die Sitzhöhe der Teilnehmenden angepasst.
Die aktuelle Studie leistet Pionierarbeit. „Obwohl Kinder als künftig bedeutende Nutzergruppe angesehen werden, ist bis jetzt kaum bekannt, welchen Einfluss Roboter auf Kinder haben und wie sich Roboter-Verhalten auf die kindliche Entwicklung auswirkt“, sagt Anna-Lisa Vollmer.
Das Ergebnis der Studie hat praktische Bedeutung für den Einsatz von humanoiden Robotern. „Es gibt Anwendungen, in denen eine Beeinflussung Vorteile bietet, wie zum Beispiel im Gesundheitswesen oder der Bildung“, sagt Anna-Lisa Vollmer. „Aber natürlich dürfen wir Missbrauch und falsche Anwendungen nicht außer Acht lassen. Wie soll zum Beispiel damit umgegangen werden, wenn mehrere Roboter in einem Geschäft für ein Produkt Werbung machen und eine Person dazu bringen, dieses Produkt zu kaufen, obwohl sie es sonst nicht gemacht hätte? Risiken bestehen auch, wenn ein autonom lernender Roboter falsche Schlüsse aus Sensordaten zieht und sich damit an Menschen wendet, die sich auf die Einschätzung des Roboters verlassen“, sagt Vollmer.
Für die Studie kooperierte die Bielefelder Informatikerin mit dem Robotiker Dr. Robin Read von der Plymouth University, mit dem Psychologen Dr. Dries Trippas vom Max-Planck-Institut für Bildungsforschung und dem Informatiker Professor Dr. Tony Belpaeme von der Ghent University.
Die 35-jährige Dr. Anna-Lisa Vollmer forscht seit 2008 zunächst als Doktorandin, dann als Postdoktorandin am Exzellenzcluster CITEC. Von 2011 bis 2014 war sie als Wissenschaftlerin an der Plymouth University tätig.
Originalveröffentlichung:
Anna-Lisa Vollmer, Robin Read, Dries Trippas, Tony Belpaeme: Children conform, adults resist: ro-bot group induced peer pressure on normative social conformity. Science Robotics. DOI: 10.1126/scirobotics.aat7111, erschienen am 15. August 2018.