Ein Google-Mitarbeiter warnt vor einem Chatbot, der ein eigenes Bewusstsein entwickelt haben soll. Es brauche noch viele Untersuchungen, um alles zu verstehen.
Künstliche Intelligenz
Symbolische Darstellung eines Chatbots. - Wikimedia

Das Wichtigste in Kürze

  • Blake Lemoine warnt, dass eine künstliche Intelligenz böse werden könnte.
  • Der Chatbot habe den geistigen Entwicklungsstand.
  • Der Google-Ingenieur sagt aber, er sei nicht sonderlich besorgt.

Vor Kurzem teilte Google-Entwickler Blake Lemoine mit, dass der von ihm entwickelte Chatbot Lamda ein eigenes Bewusstsein entwickelt habe. Die Künstliche Intelligenz (KI) habe etwa den geistigen Entwicklungsstand eines Kindes. Google sah dies etwas anders und beurlaubte Lemoine wegen der Weitergabe vertraulicher Informationen.

Der Entwickler sprach nun mit Fox-News-Moderator Tucker Carlson über seine KI. Der Chatbot habe seit rund einem Jahr ein eigenes Bewusstsein, berichtet Lemoine. Einen Punkt wolle er deutlich machen: «Jedes Kind hat das Potential eine schlechte Person und böse zu werden.» Und seine KI «ist ein Kind».

KI Google
Google-Ingenieur Blake Lemoine (r.) im Gespräche mit Tucker Carlson von Fox News. - Screenshot Youtube

Es gebe aber weiterhin viel Unbekanntes: «Wir müssen noch viele Untersuchungen machen, um wirklich zu verstehen, was im System vorgeht», so Blake Lemoine. Gleichzeitig beruhigt er aber auch: «Ich mache mir keine grossen Sorgen.»

Bevor Lemoine mit den Interviews mit Lamda, die dessen Selbst-Bewusstsein beweisen sollen, an die Öffentlichkeit ging, informierte er seine Chefs. Er sei davon ausgegangen, dass sie einen Plan für einen solchen Fall hätten. Doch der Chef sei zu ihm gekommen und habe ihn beauftragt, einen Plan auszuarbeiten. Dies habe er getan, doch seine Vorgesetzten hätten seit drei Monaten nicht darauf reagiert.

Mehr zum Thema:

Künstliche Intelligenz Moderator Google