Die Nutzung des auf ChatGPT basierenden Bing-Chatbots wurde von Microsoft eingeschränkt, nachdem dieser unangemessene Antworten generierte.
ChatGPT
ChatGPT bewertete neulich historische Persönlichkeiten. - AFP/archiv
Ad

Das Wichtigste in Kürze

  • Microsoft hat die Nutzung seines Bing-Chatbots eingeschränkt.
  • Dies, nachdem der Text-Roboter unangebrachte Antworten generierte.
  • So forderte der Chatbot einen Reporter auf, sich von seiner Frau zu trennen.

Microsoft hat die Nutzung seines Bing-Chatbots eingeschränkt. Dies nach Vorfällen, in denen der Text-Roboter ausser Kontrolle geriet und unangebrachte Antworten generierte. In einem Blogeintrag erklärt das Unternehmen: «Das Chat-Erlebnis wird auf 50 Chat-Runden pro Tag und 5 Chat-Runden pro Sitzung begrenzt. Eine Runde ist ein Gesprächsaustausch, der sowohl eine Benutzerfrage als auch eine Antwort von Bing enthält.»

Überschreiten die Nutzer das Limit von fünf Eingaben pro Sitzung, fordert sie Bing neuerdings dazu auf, das Thema zu wechseln.

Zur Trennung aufgefordert

Ein von einem Reporter der New York Times durchgeführten Test des Bing-Chatbots hatte im Internet für Aufsehen gesorgt. Der Chatbot behauptete, dass er den Journalisten liebe und forderte ihn deshalb auf, sich von seiner Frau zu trennen. Das schreibt «golem».

Microsoft setzt bei seinem Bing-Chatbot auf ChatGPT des Start-ups OpenAI und unterstützt die Entwickler von ChatGPT mit Milliardenzahlungen.

Ad
Ad

Mehr zum Thema:

InternetChatMicrosoft