Marko Kovic: Deshalb sind KI-Bosse gefährlich – und psychopathisch!
«Die Welt wird von Menschen technisch umgebaut, die keinen moralischen Kompass haben», schreibt unser Kolumnist Marko Kovic.

Das Wichtigste in Kürze
- Der bekannte Sozialwissenschaftler Marko Kovic schreibt regelmässig Kolumnen auf Nau.ch.
- Heute schreibt Kovic über KI-Chatbots und «die Psychopathie der Tech-Bosse».
Der KI-Chatbot «Claude» des amerikanischen Unternehmens Anthropic gilt als einer der besten. «Claude» ist beispielsweise bei Programmierern sehr beliebt, weil man damit gut funktionierenden Computercode einfach erstellen und prüfen kann.
Aber «Claude» hat noch weitere Anhänger. Zum Beispiel das amerikanische Militär.
Im Juli 2025 erhielt Anthropic einen Auftrag des Militärs in Höhe von 200 Millionen Dollar. «Claude» wurde auch bei den amerikanischen Angriffen auf Venezuela und den Iran eingesetzt.
Anthropic weigerte sich
Die innige Partnerschaft von Anthropic und dem Militär fand vor Kurzem aber ein jähes Ende. Die Trump-Regierung will KI auch für Massenüberwachung in den USA und für autonome Waffensysteme nutzen.
Anthropic weigerte sich, «Claude» für diese Zwecke zu erlauben. Als Reaktion kündigten Trump und sein Verteidigungsminister Pete Hegseth an, dass «Claude» in sechs Monaten in der US-Regierung verboten wird.
Technologisches Wettrüsten mit Folgen
«Claude» wird zudem als sogenanntes nationales Lieferketten-Risiko eingestuft. Mit der Folge, dass kein Unternehmen, das mit dem amerikanischen Militär zusammenarbeitet, «Claude» einsetzen darf.
Der Streit zwischen Anthropic und der Trump-Regierung könnte verstanden werden als die Geschichte eines Tech-Unternehmens, das hohe ethische Standards hat. Der Streit ist aber etwas anderes. Er zeigt, dass gegenwärtig ein technologisches Wettrüsten in den moralischen Abgrund stattfindet.
Psychopathisches Verhalten
Anthropic ist ein atypisches Techunternehmen. Das Unternehmen wurde mit dem Ziel gegründet, sichere KI zu entwickeln.
Anders als andere KI-Hersteller ist Anthropic bestrebt, ihrer KI starke ethische Leitplanken zu geben. Leitplanken, die verhindern sollen, dass KI zu einer unkontrollierbaren, existenziellen Bedrohung wird.
Die Eckpunkte dieser Leitplanken werden in der sogenannten Verfassung für «Claude» beschrieben. Das ist für sich genommen gut.
Man kann aber kritisieren, dass das Meiste davon in praktischer Hinsicht eher symbolisch ist. Die Einwände der «Claude»-Macher gegen die Trump-Regierung sind denn auch nicht besonders gross.
Dario Amodei, der Chef von Anthropic, ist nicht grundsätzlich gegen autonome Waffensysteme. Er meint nur, diese seien aktuell noch zu wenig zuverlässig. Und er ist nicht grundsätzlich gegen KI-Massenüberwachung. Er ist nur gegen KI-Massenüberwachung in den USA.
Wenn Menschen in anderen Ländern überwacht werden, macht Anthropic mit.

Moralische rote Linie existiert
Die moralische rote Linie, die Anthropic zog, ist also eher blass. Aber sie existiert immerhin. Das Unternehmen hat grossen Schaden in Kauf genommen, weil es diese rote Linie nicht überschreiten wollte.
Das klingt grundsätzlich positiv. Aber die Geschichte hat eine direkte Kehrseite: Die anderen Tech-Unternehmen haben keine moralischen roten Linien. Nicht mal so minimale wie Anthropic.
Nur wenige Stunden nach dem Streit zwischen der Trump-Regierung und Anthropic kündigte Sam Altman, Chef von OpenAI, an, dass OpenAI ein neues Abkommen mit dem US-Militär abgeschlossen hat.

Der ChatGPT-Hersteller sprang in das Vakuum, das Anthropic hinterlassen hatte – und setzte den moralischen Massstab auf Null.
Die Episode wirkt in ihrem schieren Tempo surreal. Ein KI-Unternehmen löst eine Debatte über moralische Standards mächtiger Technologie aus. Ein anderes KI-Unternehmen nutzt ohne zu zögern die Gunst der Stunde, indem es sich von allen moralischen Standards verabschiedet.
OpenAI ist nicht alleine
OpenAI ist damit nicht alleine. Google, Perplexity, Elon Musks Grok, Mark Zuckerbergs Meta, Peter Thiels Palantir: Sie alle machen alles, was die Trump-Regierung von ihnen will. Ohne wenn und aber. Und zwar explizit.
Palmer Luckey, Chef des Rüstungskonzerns Anduril, das autonome Waffensysteme herstellt, erklärte bei US-Podcaster Joe Rogan, dass Tech-Unternehmen nie entscheiden sollten, was moralisch akzeptabel ist und was nicht. Nur Regierungen sollen das tun.
Ähnlich sieht es Alex Carp, Chef des Überwachungsunternehmens Palantir. Bereits 2019 erklärte Karp in der «Washington Post», dass Tech-Unternehmen keine moralischen Standards haben sollen. Sie machen einfach das, was Politik und Gerichte als legal erklären.
Aber genau das ist der springende Punkt: Zwischen dem, was formal legal ist, und dem, was moralisch richtig ist, können Welten liegen.
Palantir klagt gegen Schweizer Magazin
Palantir klagt aktuell übrigens gegen das Schweizer Magazin «Republik», weil es über Palantirs Versuche berichtete, Schweizer Behörden als Kunden zu gewinnen.
Das Verhalten der Tech-Bosse könnte man als amoralisch beschreiben. Moralische Überlegungen sind ihnen egal und sie verstehen nicht, wie gefährlich ihre Produkte sind. Es geht einfach um das Geschäft.
Das trifft den Kern der Sache aber zu wenig genau. Die Tech-Bosse wissen nämlich, dass ihre Produkte nicht das Gleiche sind wie Kaugummi oder Turnschuhe.

Psychische Gesundheit leidet
Sie wissen, dass ihre Produkte historisch einmalig sind: Sie können die Leben so vieler Menschen so stark beeinflussen wie kaum eine Technologie zuvor.
In ihrer PR betonen alle Techunternehmen denn auch, wie verantwortungsvoll sie sind. Der Konzern Meta beispielsweise, zu dem auch Instagram, Facebook und WhatsApp gehören, hat einen über 50 Seiten langen «Code of Conduct».
Gleichzeitig versuchte Meta mehrere interne Studien zu verheimlichen, in denen Meta selbst zum Schluss kam, dass ihre Plattformen negative Effekte auf die psychische Gesundheit der Nutzer haben.
Tech-Bosse: Keine Moral!
Die Tech-Bosse sind nicht bloss amoralisch. Sie sind psychopathisch.
In klinischem Sinn ist Psychopathie eine schwere Persönlichkeitsstörung, die sich durch Empathielosigkeit und antisoziales Verhalten auszeichnet. Ich mache keine Diagnose der Tech-Bosse; Sie sind nicht psychisch krank.
Ihr Verhalten ist in moralischer Hinsicht psychopathisch – und sie nehmen den potenziell katastrophalen Schaden, den ihre Produkte verursachen, bewusst in Kauf.
Sie entwickeln Technologien, die angesichts ihrer Skalierbarkeit (sehr viele Menschen können gleichzeitig betroffen sein) eine gigantische Hebelwirkung haben.
Anthropic ist eines der wenigen Tech-Unternehmen, das versucht, das Risiko dieser Hebelwirkung, wenn auch nur minimal, zu reduzieren.
Die meisten anderen Tech-Unternehmen kümmern sich nicht um die Risiken ihrer Hebelwirkungen.
Die systemischen Risiken, die sie schaffen und die nicht nur Millionen bis Milliarden von Menschen, sondern auch die Menschheit an sich bedrohen, sind ihnen egal. Das ist psychopathisch.
Die Verlierer sind wir alle
Technologie bedeutet immer auch Risiko. Jede Technologie kann Schaden verursachen, und es ist a priori oft nicht klar, was für Schaden mit welcher Wahrscheinlichkeit eintreten kann. Die möglichen negativen Folgen von Technologie sind sehr ungewiss.
Technologiebedingte Risiken sind heute aber nicht nur wegen Technologie an und für sich so gross. Sie sind wegen der Psychopathie der Tech-Bosse so gross.
Technologie wäre bereits deutlich weniger riskant, wenn die Tech-Bosse minimale, aber dafür ernstgemeinte moralische Standards hätten.
Doch diese haben sie nicht, weil sie Geld kosten. Der Konzern Meta machte im Jahr 2025 60 Milliarden Dollar Gewinn. Nicht Umsatz, Gewinn.

Gewinn steht über allem
Mit minimalen moralischen Standards wäre der Gewinn wohl geringer ausgefallen. Vielleicht «nur» 50 Milliarden, vielleicht «nur» 40 Milliarden.
Für normale Menschen, für normale Unternehmen ist das immer noch viel, aber für die Tech-Bosse ist es viel zu wenig.
Der Schaden von zu wenig Gewinn ist für die Tech-Bosse kategorisch wichtiger als der Schaden, den ihre Produkte in der Welt anrichten.
Wir sollten nicht hoffen, dass die Tech-Bosse in naher Zukunft ein moralisches Erwachen haben werden.
Ausnahmen wie Anthropic bestätigen die Regel: Das technologische Wettrüsten ist ein moralisches Rennen in den Abgrund. Wer als Unternehmen moralische Bedenken hat, verliert.
Es wird immer Konkurrenz geben, die solche Bedenken nicht hat. Es ist darum wenig zielführend, auf moralische Selbstregulierung zu hoffen. Gäbe es eine solche, hätten wir die Probleme, die wir haben, nicht.
Es braucht Gesetze und Regulierung
Der neoliberale Ökonom Milton Friedman erklärte einmal, die einzige soziale Verantwortung von Unternehmen sei es, ihre Profite zu maximieren. Dem stimme ich zu.
Der Sinn von Unternehmen ist wirtschaftlicher Erfolg. Die moralischen Leitplanken für Unternehmen, so Friedman, muss die Gesellschaft in Form von Gesetzen und Regulierung vorgeben.
Genau darin liegt das einzige wirksame Mittel, um psychopathische Tech-Bosse in die Schranken zu weisen. Das Problem ist, dass der Prozess für die Herstellung solcher Leitplanken bestenfalls harzig ist.
Nicht zuletzt, weil die grossen Tech-Unternehmen auch eine grosse Lobby-Gruppe sind.
Deshalb unterstützte Elon Musk Trump
Die Tech-Bosse haben massgeblich dazu beigetragen, dass Trump gewählt wurde. Und sie setzen sich intensiv dafür ein, dass sie nicht reguliert werden.
Elon Musk unterstützte Trump und die Republikaner im Wahlkampf 2024 nicht aus Grosszügigkeit mit über 250 Millionen Dollar. Das war eine Investition in das eigene Geschäft.

Es gibt keine einfachen Antworten. Tech-Bosse bauen die Welt um und nehmen katastrophalen, vielleicht unumkehrbaren Schaden in Kauf. Die Antwort auf schlechte Tech-Bosse sind keine «guten» Tech-Bosse.
Wenn wir wollen, dass Unternehmen Gutes tun, oder zumindest weniger Schlechtes, dann müssen wir die entsprechenden moralischen Leitplanken in Form von Gesetzen und Regulierung erschaffen.
Was in Trumps USA passiert, können wir nicht beeinflussen. Aber bei uns können wir etwas verändern, so schwer es auch sein mag.
Niemand wird uns retten ausser wir selbst. Wenn die Tech-Bosse gewinnen, verlieren wir alle.
Zum Autor
Marko Kovic ist Gesellschaftskritiker. Er interessiert sich für gesellschaftlichen Wandel und die Frage, ob wir noch zu retten sind. Er lebt in Uzwil SG.








