ETH-Vertreter gegen Moratorium bei Künstlicher Intelligenz

Vertreter der ETH Zürich sind gegen ein Moratorium bei der Entwicklung der Künstlichen Intelligenz (KI). Sie halten dies für schwer durchsetzbar und sehen auch Risiken. Mehrere Tech-Grössen hatten zuvor ein Moratorium für KI gefordert.

Übersicht vom Campus der ETH Zürich Hönggerberg. - Keystone

Das Wichtigste in Kürze

  • Andreas Krause, ETH-Informatikprofessor und Vorsteher des ETH-Zentrums für Künstliche Intelligenz (AI Center), sagte in einem am Freitag erschienenen Interview mit ETH-News, er bezweifle, dass die Forderung nach einem Moratorium durchsetzbar sei.

Dahinter würden zu viele kommerzielle und strategische Interessen stehen.

«Auch wenn ein solches Moratorium beschlossen werden würde, könnte wohl niemand sicherstellen, dass nicht weiter verdeckt am Training solcher Modelle gearbeitet wird», sagte Krause. Dies berge die Gefahr, dass die Entwicklung, die vorher weitgehend offen und transparent gewesen sei, unzugänglicher und intransparenter werde.

Der Geschäftsführer des ETH-AI-Centers, Alexander Ilic, äussert im Interview die Meinung, Elemente wie Vertrauenswürdigkeit und Zuverlässigkeit bei den aktuellen Sprachmodellen müssten stärker erforscht werden und kritisch diskutiert werden. «Wir wollen dem Trend entgegenwirken, dass KI-​ Forschung immer mehr hinter verschlossenen Türen stattfindet und setzen auf offene, interdisziplinäre Zusammenarbeit», so Ilic.

Mehrere hochrangige Tech-Experten wie Tesla-Chef Elon Musk und Apple-Mitbegründer Steve Wozniak hatten sich diese Woche für ein Moratorium bei der rasanten Entwicklung leistungsstarker neuer Tools der KI eingesetzt.

In einem offenen Brief, der am Mittwoch veröffentlicht wurde, fordern die Unterzeichner eine Denkpause von mindestens sechs Monaten. Dieser Entwicklungs-Stopp solle der Branche Zeit geben, Sicherheitsstandards für die Entwicklung von KI festzulegen und mögliche Schäden durch die riskantesten KI-Technologien abzuwenden.

Nebst dem Tesla-Chef unterzeichneten mehr als 1000 Personen das Manifest. Darin warnen sie vor Gefahren sogenannter Generativer KI, wie sie etwa mit dem Text-Roboter ChatGPT oder dem Bild-Generator DALL-E von OpenAI umgesetzt wurde. Diese KI-Tools können menschliche Interaktion simulieren und anhand weniger Stichworte Texte oder Bilder erstellen.