In nicht allzu ferner Zukunft werden uns soziale Computer pflegen, unterrichten und heilen. Sie werden sich in uns einfühlen und emotional reagieren. Eine Studie verschiedener Schweizer Hochschulen zeigt schon mal vorsorglich Gefahren auf und gibt Empfehlungen.
roboter
Ein Roboter wird bei einer Messe vorgestellt. (Archivbild) - dpa
Ad

Soziale Roboter sind «sensomotorische Maschinen mit dinghafter, tier- oder menschenähnlicher Gestalt, die auf Basis künstlicher Intelligenz bestimmte Emotionen ihrer Gegenüber erkennen sowie emotional kommunizieren, mit dem Zweck, bei menschlichen Interaktionspartnern kognitive und affektive Zustände auszulösen bzw. deren Handlungsspielraum zu erweitern» heisst es in der Studie einleitend.

Schon jetzt gebe es Robotermodelle, die Emotionen und Sprachinhalte auf Basis der Verarbeitung von verbalen, nonverbalen und paraverbalen Informationen bereits recht zuverlässig erkennen. Auch ihr darauf folgendes emotionales und empathisches Antwortverhalten werde von menschlichen Interaktionspartnern als sinnvoll und überzeugend wahrgenommen. Unter Laborbedingungen klappt das gemäss Studie gut, in der Realität seien die Leistungen deutlich geringer.

Deshalb, und weil soziale Roboter noch kaum verbreitet sind, ist das Zeitfenster laut Studie aktuell und in den nächsten Jahren geeignet, um gewisse Bedingungen und Grenzen beim Einsatz dieser «sensomotorischen Maschinen» zu definieren. Denn aufgrund des technologischen Potenzials werde früher oder später jeder vermehrt mit solchen Systemen interagieren.

Die Studie basiert auf der vorhandenen Literatur, sowie Interviews und Diskussionsrunden mit Vertretern verschiedener Interessengruppen, beispielsweise aus dem medizinischen, dem erzieherischen, aber auch dem Herstellerbereich. Befragte Psychotherapeutinnen und -therapeuten konnten sich beispielsweise einen Einsatz von sehr menschlich aussehenden und interagierenden sozialen Robotern als nützlich vorstellen, quasi als Rollenmodell für menschliche Beziehungen.

Eine Mehrheit der Befragten war aber der Meinung, das Aussehen sollte nur moderat menschenähnlich sein. Eine zu echt wirkende Gestalt könnte sonst zu überzogenen Erwartungen und darauffolgender Enttäuschung führen. Die Sprache freilich wünschten sich die meisten möglichst natürlich.

Die meistgewünschte Funktion des sozialen Roboters war Assistenz und Unterstützung, vor allem in der Betreuung von Kindern, Kranken und Senioren. Sogar der Einsatz von sozialen Robotern als Prostituierten-Ersatz für sozial isolierte Personen wurde diskutiert. Die Studienverfasser empfehlen allerdings weitere Forschung auf diesem Gebiet.

Denn Ethik und Recht sind die ermittelten Hauptgefahrenzonen. Die Studie empfiehlt Entscheidungsträgern insbesondere wenn es um den Umgang mit verwundbaren Menschen - Kinder, Kranke, Betagte - geht, Grenzen zu definieren.

Während einige Befragten forderten, soziale Roboter sollten vor allem positive Gedanken und Stimmungen vermitteln, warnten andere davor: Zu viel Unterstützung - emotional oder praktisch - könnte die sozialen Kompetenzen der Nutzer verkümmern lassen. Der Einsatz von Robotern sollte eingebettet sein in den sozialen Kontext, sonst bestehe die Gefahr, dass die zwischenmenschliche Interaktion abnehme.

Als zentral erachten die Forscherinnen und Forscher die partizipative Entwicklung von Einsatzszenarien und Aufgabenprofilen sozialer Roboter. Dies gilt insbesondere für vulnerable Nutzergruppen in den Institutionen der Gesundheit und Bildung. Die Mitwirkung der Gesellschaft bei der Bestimmung der Einsatzbereiche sozialer Roboter müsse gefördert werden.

«Wie bei anderen Technologien auch ist der Schutz von Privat- und Intimsphäre zu gewährleisten. Eine vorherige Einwilligung zur Nutzung sozialer Roboter stellt hier einen gangbaren Weg dar», lautet das Fazit.

Am Projekt unter der Leitung der Hochschule für Angewandte Psychologie der Fachhochschule Nordwestschweiz (FHNW) beteiligten sich die Hochschule für Wirtschaft FHNW, die Pädagogische Hochschule FHNW, die ZHAW Zürcher Hochschule für Angewandte Wissenschaften (Departement Gesundheit) und die Universität St. Gallen.

*Fachpublikationslink DOI: 10.5281/zenodo.5554564

Ad
Ad

Mehr zum Thema:

Universität St. GallenHSGMaschinenComputerStudie