08.04.2026 12.29Online seit heute, 12.29 UhrEin neues KI-Modell des OpenAI-Rivalen Anthropic ist so gut darin, bisher unentdeckte Softwareschwachstellen zu finden, dass es in den falschen Händen zu einer verheerenden Cyberwaffe werden könnte.Deshalb macht Anthropic es nicht öffentlich, sondern lässt Tech-Firmen damit Sicherheitslücken in deren Programmen stopfen, hieß es in einer Aussendung gestern. Das KI-Modell Claude Mythos Preview fand unter anderem eine 27 Jahre alten Schwachpunkt im als besonders sicher geltenden Betriebssystem OpenBSD, so Anthropic.„Tausende“ Schwachstellen entdecktInsgesamt habe man mit Mythos bereits „tausende“ schwerwiegende Schwachstellen entdeckt – darunter in jedem breit genutzten Betriebssystem und Webbrowser. In der Videosoftware FFmpeg spürte das Modell eine seit 16 Jahren schlummernde Lücke auf.Mythos Preview sei auch in der Lage gewesen, binnen weniger Stunden Programme zum Ausnutzen dieser Schwachstellen zu entwickeln – für die Experten nach eigenem bekunden mehrere Wochen gebraucht hätten.Unternehmen sollen Mythos nutzen könnenDie Firma habe das Modell nicht speziell darauf trainiert, das alles zu können, hieß es weiter. Mit dem schnellen Fortschritt bei Künstlicher Intelligenz sei davon auszugehen, dass solche Fähigkeiten recht bald auch Online-Angreifern zur Verfügung stehen könnten, warnte Anthropic.In einer Kooperation mit dem Namen „Project Glasswing“ sollen deshalb Unternehmen Zugang zu Mythos bekommen, um Sicherheitslücken in ihrer Software zu finden. Anthropic plane aber nicht, Mythos allgemein zugänglich zu machen. Bekannt ist Anthropic vor allem für die KI-Anwendung Claude.