Schweizer Technologie: KI ohne Cloud dank Schweizer Software

Swiss Engineering
Swiss Engineering

Zürich,

Eine neue Software der EPFL erlaubt es, grosse KI-Modelle lokal zu nutzen – ohne Cloud und ohne Datenabfluss.

Schweizer Technologie
Serverschränke in einem Rechenzentrum (Symbolbild): Cloudbasierte KI verbraucht viel Energie und wirft Fragen in Bezug auf Datenschutz und digitale Souveränität auf. - Shutterstock

Das Wichtigste in Kürze

  • Forschende der EPFL entwickeln KI-Software ohne Cloud-Zwang.
  • Die Daten bleiben im eigenen Netzwerk – mehr Datenschutz und Kontrolle.
  • Weniger Datentransfer zu grossen Rechenzentren spart Energie.

Wer heute künstliche Intelligenz nutzt, schickt seine Anfrage meist in die Cloud. Dort rechnen riesige Serverfarmen die Antwort aus und senden sie zurück. Das ist bequem – wirft aber Fragen zu Datenschutz, Abhängigkeit und Energieverbrauch auf. Forschende der Eidgenössischen Technischen Hochschule Lausanne EPFL haben nun eine Alternative entwickelt. Ihre Software namens «Anyway Systems» ermöglicht es, grosse KI-Modelle direkt im eigenen Netzwerk laufen zu lassen. Daten müssen das Unternehmen oder die Behörde nicht mehr verlassen.

Statt auf entfernte Rechenzentren setzt die Lösung auf mehrere lokale Computer, die zusammengeschaltet werden. Gemeinsam bilden sie einen kleinen Cluster – also ein Mini-Rechenzentrum vor Ort. So können auch grosse Sprachmodelle betrieben werden. Laut den Entwicklern reichen dafür bereits vier handelsübliche Maschinen mit Grafikkarten aus. Die verbreitete Annahme, dass leistungsstarke KI zwingend riesige Serverfarmen benötigt, wird damit infrage gestellt.

Mehr Datenschutz und Souveränität

Der Vorteil liegt auf der Hand: Sensible Daten bleiben im eigenen Netzwerk. Gerade für Verwaltungen, Spitäler oder Unternehmen mit vertraulichen Informationen ist das ein wichtiger Punkt. Zudem sinkt die Abhängigkeit von internationalen Cloud-Anbietern. Fragen der digitalen Souveränität gewinnen gerade in Europa an Bedeutung.

Ein Grossteil der Rechenleistung bei KI entfällt auf die sogenannte Inferenz – also das Generieren von Antworten. Dieser Schritt benötigt viel Energie, egal ob lokal oder in der Cloud. Der Unterschied liegt jedoch in der Infrastruktur: Werden KI-Modelle direkt im eigenen Netzwerk betrieben, müssen weniger Anfragen in grossen, dauerhaft laufenden Rechenzentren verarbeitet werden. Dadurch könnte der Bedarf an immer neuen, energieintensiven Serverfarmen gebremst werden.

Statt die Rechenarbeit in zentralen Anlagen mit hohem Kühl- und Betriebsaufwand zu bündeln, verteilt sich die Last auf bestehende lokale Systeme. Das verändert nicht die Physik der KI – wohl aber die Struktur ihres Energieverbrauchs.

Erste Tests laufen

Die Software hat die Prototypenphase hinter sich und wird derzeit in Unternehmen und Verwaltungen in der Schweiz getestet. Auch die EPFL selbst setzt sie ein. Erste Rückmeldungen zeigen: Die Rechenzeit kann leicht höher sein als in der Cloud, die Qualität der Antworten bleibt jedoch vergleichbar. Die Entwicklung zeigt, dass leistungsfähige KI nicht zwingend aus anonymen Rechenzentren kommen muss – sondern künftig direkt aus dem eigenen Serverraum.

Mehr zum Thema:

Weiterlesen

Lina Peak Zermatt
45 Interaktionen
Zermatt-Hochhaus
brasser kolumne
14 Interaktionen
«Eiertanz»

MEHR SCHWEIZER TECHNOLOGIE

MEHR AUS STADT ZüRICH

8 Interaktionen
Fehlende Sponsoren
Livano Comenencia FCZ
Nächster Ausfall
4 Interaktionen
Flughafen Zürich