Anthropic hält «Claude Mythos» zurück
Das neue KI-Modell von Anthropic sorgt für Aufsehen in der IT-Sicherheitswelt. Seine Fähigkeiten gelten als so riskant, dass es nicht veröffentlicht wird.

Das KI-Unternehmen Anthropic hat mit «Claude Mythos» ein aussergewöhnlich leistungsfähiges Modell für komplexe Sicherheitsanalysen entwickelt. Es soll digitale Schwachstellen deutlich schneller und umfassender erkennen als bisher bekannte Systeme.
Die Fähigkeiten gehen laut Berichten weit über klassische Analyseverfahren hinaus und umfassen auch realistische Angriffsszenarien. Dadurch wächst die Sorge, dass solche Technologien missbraucht werden könnten.
Der Zugang bleibt deshalb stark eingeschränkt und ist nur ausgewählten Organisationen und Partnern vorbehalten. Laut «ZEIT» wird das Modell bewusst nicht öffentlich zugänglich gemacht, um Risiken zu minimieren.
Anthropic und die neue Dimension digitaler Sicherheit
Experten sehen in dieser Entwicklung einen möglichen Wendepunkt für bestehende Sicherheitsstrukturen in digitalen Infrastrukturen weltweit. Die Technologie könnte langfristig etablierte Schutzmechanismen grundlegend verändern.
Besonders kritisch wird die Fähigkeit bewertet, bislang unentdeckte Schwachstellen automatisiert und in grossem Umfang aufzuspüren. Diese könnten theoretisch nicht nur entdeckt, sondern auch gezielt ausgenutzt werden.
Behörden und sicherheitsrelevante Institutionen beobachten die Entwicklung daher mit wachsender Aufmerksamkeit und Vorsicht. «Heise» zufolge werden bereits konkrete Auswirkungen auf kritische Infrastrukturen intensiv diskutiert.
Leistungsfähigkeit erhöht den Druck auf die Branche
Neben den Sicherheitsfragen rückt zunehmend auch die enorme Leistungsfähigkeit des Modells in den Mittelpunkt der Diskussion. Es soll in mehreren Bereichen bestehende KI-Systeme deutlich übertreffen.
Einige Berichte vergleichen «Claude Mythos» bereits mit führenden Modellen grosser Technologiekonzerne weltweit. Dabei werden vor allem Geschwindigkeit, Genauigkeit und Effizienz besonders hervorgehoben.

Die Kombination aus hoher Leistungsfähigkeit und potenziellen Risiken macht das System zu einem Sonderfall in der KI-Entwicklung. «all-about-security» berichtet, dass das Modell der Öffentlichkeit bewusst vorenthalten wird.












