Streit um KI-Einsatz im Militär: Anthropic bricht mit US-Kriegsministerium

Wait 5 sec.

Das US-Unternehmen Anthropic hat eine vorgeschlagene Anpassung seines Vertrags mit dem amerikanischen Verteidigungsministerium zurückgewiesen. Hintergrund ist ein Streit über die Einsatzgrenzen des KI-Systems Claude, das als erstes Modell dieser Art in entsprechenden Netzwerken der US-Regierung verwendet wird.US-Verteidigungsminister Pete Hegseth hatte dem Unternehmen nahegelegt, den Einsatz der Software für alle rechtlich zulässigen Zwecke freizugeben. Andernfalls drohe die Kündigung eines rund 200 Millionen Dollar schweren Vertrags. Zudem stellte das Ministerium in Aussicht, Anthropic als Risiko für die Lieferkette einzustufen. Eine solche Einordnung wird üblicherweise bei Unternehmen mit Verbindungen zu ausländischen Gegnern vorgenommen.Anthropic erklärte, die vorgeschlagenen Formulierungen würden bestehende Schutzmechanismen faktisch aushebeln. Man könne der Forderung aus Gewissensgründen nicht zustimmen.Rote Linien bei Überwachung und WaffenFirmenchef Dario Amodei betonte in einem Blogbeitrag, dass sein Unternehmen den Einsatz von Künstlicher Intelligenz zur Verteidigung demokratischer Staaten unterstütze. Claude werde bereits in verschiedenen Bereichen genutzt, etwa für Geheimdienstanalysen, Simulationen oder die Planung militärischer Operationen. Entscheidungen über konkrete Einsätze lägen beim Militär und nicht bei privaten Anbietern.Gleichzeitig definiert Anthropic zwei klare Ausnahmen. Zum einen lehnt das Unternehmen den Einsatz seiner Systeme für umfassende inländische Massenüberwachung ab. Moderne KI könne große Mengen frei verfügbarer Daten automatisch zusammenführen und detaillierte Profile einzelner Personen erstellen. Dies berge erhebliche Risiken für Grundrechte.Zum anderen verweigert Anthropic den Einsatz seiner Modelle in vollständig autonomen Waffensystemen, bei denen Maschinen eigenständig Ziele auswählen und angreifen. Nach Einschätzung des Unternehmens sind heutige KI-Systeme nicht verlässlich genug, um solche Aufgaben ohne menschliche Kontrolle zu übernehmen. Fehlentscheidungen könnten schwerwiegende Folgen für Soldaten und Zivilisten haben. Das US-Kriegsministerium reagierte mit Unverständnis.The post Streit um KI-Einsatz im Militär: Anthropic bricht mit US-Kriegsministerium first appeared on ifun.de.