In Hannes Bajohrs «(Berlin, Miami)» offenbaren Sprachmodelle wie ChatGPT Schwächen bei der Schaffung einer kohärenten Erzähllogik oder tieferen Bedeutung.
Künstliche Intelligenz hat ihren Reiz, wie die Farbexplosion des türkisch-amerikanischen Medienkünstlers Refik Anadol am diesjährigen World Economic Forum gezeigt hat. Aber: Das literarische Experiment, der KI-Roman «(Berlin, Miami») des Medienphilosophen Hannes Bajohr offenbart die Schwächen.
Refik Anadols Farbexplosion beim World Economic Forum zeigt den Reiz künstlicher Intelligenz. Hannes Bajohrs literarisches KI-Experiment «(Berlin, Miami)» enthüllt jedoch Schwächen. - sda - Keystone/LAURENT GILLIERON

Sprachmodelle wie ChatGPT sind dumm. Sie sind in sich selbst gefangen. Sie stellen keinen Bezug zur realen Welt her. Das lässt sich an einem literarischen Experiment des Medienphilosophen und Autors Hannes Bajohr zeigen.

Dieses Experiment ist der KI-Roman «(Berlin, Miami)». Das Werk glänzt zwar mit Sprachbildern, aber die Sätze reihen sich lediglich aneinander. Eine Erzähllogik oder tieferer Sinn ergeben sich nicht.

«Model Collapse»

Hannes Bajohr, der an der Uni Basel lehrt, schreibt dazu: «Es gehört zu den verstörenderen Einsichten der jüngsten KI-Forschung, dass Sprachmodelle, die auf ihren eigenen Output trainiert werden, zu degenerieren beginnen.» Dahinter steckt ein Problem, das als «Model Collapse» bezeichnet wird.

Damit sich Sprachmodelle laufend verbessern können, benötigen sie als Trainingsdaten Unmengen von Text, die von Menschen verfasst sind. Genau solcher Text aber wird knapp und deshalb wertvoll, weil der GPT schon fast alles kennt, was frei im Netz zirkuliert. Ein Streit um urheberrechtlich geschützte Texte ist deshalb vorprogrammiert.

Ende Dezember 2023 hat denn auch die «New York Times» die Firma OpenAI, die Betreiberin von ChatGPT, eingeklagt, weil der widerrechtlich ihre journalistischen Texte benutzt. Es geht um Milliardenbeträge und um Urheberrechte, wofür die «New York Times» korrekt honoriert werden will. Auch in Schweizer Medienhäusern wird heiss diskutiert, wie man sich gegenüber ChatGPT verhalten soll.

Experiment von Hannes Bajohr: «(Berlin, Miami)»

Hinzu kommt, dass sich die Sprach-KI zu einer Blackbox entwickelt, die alles verschluckt, ohne dass wir noch in sie hineinsehen. Schon 1956 schrieb der Philosoph Günter Anders, dass durch den modernen Menschen ein Riss «zwischen unserer Herstellungs- und unserer Vorstellungsleistung» gehe. Mit anderen Worten: Wir verstehen nicht mehr, was wir produzieren.

Diese Blackbox veranschaulicht das literarische Experiment von Hannes Bajohr. Er trainierte eine Open-Source-Version des GPT so, dass sie algorithmisch einen Roman von 250 Seiten generierte: «(Berlin, Miami)». Der Text hat Bajohr selbst erstaunt: Er legt von Beginn weg schwungvoll los, präsentiert mit Kieferling und Teichenkopf zwei eigenständige Figuren und erschliesst mit überzeugender Anschaulichkeit eine Welt, die ebenso schillernd wie fremd anmutet. Bezüglich Grammatik gibt es daran nichts zu bemängeln.

Es werden aber schnell Schwächen in der Erzähllogik sichtbar. «Die Worte schlurften ein, ein Bühnenläufer vermochte mir die Hand zu führen; ich hielt den ersten Satz, der kommunizierte, vor mich hin, um zu schauen, wie er reagierte», heisst es in «(Berlin, Miami)». Die Szenerie wirkt mysteriös, die Sätze verknoten sich und das Geschehen ist kaum mehr verständlich nachvollziehbar.

Die Schwachstellen von Sprachmodellen

Bajohrs Roman überzeugt so weniger durch sein erzählerisches Potenzial als durch seinen überschiessenden Reichtum an Sprachbildern. Und: Er demonstriert die Schwachstellen von Sprachmodellen. Vereinfacht gesagt funktioniert ChatGPT ähnlich wie die einfache Wortergänzung bei WhatsApp; ein Wort ergibt das nächste. Nur kann die «next token prediction» beim ChatGPT viel subtiler auf eine immense Menge an Textdaten zurückgreifen.

Auch wenn solche Sprachmodelle die Fantasie anregen mögen, es bleibt ihnen das Erzählen verwehrt. Sie können, schreibt Bajohr im Nachwort, zwar Korrelationen zwischen Dingen herstellen, aber sie berechnen keine Kausalitäten. Genau davon aber hängt eine Erzählung ab. Was geschieht warum und wie in welchem Beziehungsgeflecht?

Das interessiert uns bei der Lektüre von guten Geschichten. Wenn der ChatGPT mit einem Befehl oder einer Anfrage einmal angestossen wird, plappert es förmlich aus ihm heraus. Die KI ist so, auf hohem Niveau, informativ, doch insgesamt auch schrecklich mittelmässig. Das zugrunde liegende statistische Verfahren erzeugt Durchschnitt und eliminiert abweichende, besondere Merkmale. Vor allem textet es linear, endlos vor sich hin.

Das Ende des Romans

Bajohr beschränkte sich auf minimale Eingaben und griff kaum weiter in die Textgenese ein. Erst am Schluss machte er sich, um ein Romanende zu finden, den «Model Collapse» zunutze. Er fütterte das Sprachmodell mit dessen eigenem Text, bis es nur noch sinnlos stotterte und schliesslich schwieg: «Sartrisch Grandios».

Der Begriff «künstliche Intelligenz» trägt kaum zu einem besseren Verständnis dessen bei, was Tools wie der GPT leisten, schreibt die Philosophin Manuela Lenzen in ihrem lesenswerten Buch «Der elektronische Spiegel» (2023). Sie schlägt deshalb vor, die KI nicht länger als «universellen Problemlöser» zu betrachten. Zielführender sei es, den Fokus auf «alternative intelligente Systeme» zu legen, die für die konkrete Lösung von Problemen entwickelt werden.

Was die Welt im Innersten zusammenhält, lässt sich «weder aufzählen noch in begriffliche Schubladen stecken und in mentale Regale einsortieren». Wirkliche Intelligenz findet sich nicht in KI-Systemen, merkt sie an, sondern auf Spielplätzen, wo Kinder die Welt im gemeinsamen Spiel entdecken.*

* Dieser Text von Beat Mazenauer, Keystone-SDA, wurde mithilfe der Gottlieb und Hans Vogt-Stiftung realisiert.

Ad
Ad

Mehr zum Thema:

WhatsappSpiegel