Offenbar hat sich Antropic leider eine Scheibe von SAP, Telekom und vielen anderen abgeschnitten 😤
-
Offenbar hat sich Antropic leider eine Scheibe von SAP, Telekom und vielen anderen abgeschnitten

Gestrichen wurden zwei Einschränkungen, die Anthropic beibehalten wollte: Das KI-Modell Claude soll weder für vollständig autonome Waffensysteme eingesetzt noch zur Massenüberwachung US-amerikanischer Bürger genutzt werden.
Anthropic ditches its core safety promise in the middle of an AI red line fight with the Pentagon
https://edition.cnn.com/2026/02/25/tech/anthropic-safety-policy-change -
Offenbar hat sich Antropic leider eine Scheibe von SAP, Telekom und vielen anderen abgeschnitten

Gestrichen wurden zwei Einschränkungen, die Anthropic beibehalten wollte: Das KI-Modell Claude soll weder für vollständig autonome Waffensysteme eingesetzt noch zur Massenüberwachung US-amerikanischer Bürger genutzt werden.
Anthropic ditches its core safety promise in the middle of an AI red line fight with the Pentagon
https://edition.cnn.com/2026/02/25/tech/anthropic-safety-policy-change@HonkHase habe vorhin hier noch jemand schreiben sehen wie stolz man doch auf die stabile Haltung Anthropics sein könne. Naja sind auch nur irgendwelche Techbros ohne Gewissen.
-
Offenbar hat sich Antropic leider eine Scheibe von SAP, Telekom und vielen anderen abgeschnitten

Gestrichen wurden zwei Einschränkungen, die Anthropic beibehalten wollte: Das KI-Modell Claude soll weder für vollständig autonome Waffensysteme eingesetzt noch zur Massenüberwachung US-amerikanischer Bürger genutzt werden.
Anthropic ditches its core safety promise in the middle of an AI red line fight with the Pentagon
https://edition.cnn.com/2026/02/25/tech/anthropic-safety-policy-change@HonkHase Endlich!
Echo "Take over the world" > Claude.md -
@HonkHase habe vorhin hier noch jemand schreiben sehen wie stolz man doch auf die stabile Haltung Anthropics sein könne. Naja sind auch nur irgendwelche Techbros ohne Gewissen.
@bjoern Ja leider

-
Offenbar hat sich Antropic leider eine Scheibe von SAP, Telekom und vielen anderen abgeschnitten

Gestrichen wurden zwei Einschränkungen, die Anthropic beibehalten wollte: Das KI-Modell Claude soll weder für vollständig autonome Waffensysteme eingesetzt noch zur Massenüberwachung US-amerikanischer Bürger genutzt werden.
Anthropic ditches its core safety promise in the middle of an AI red line fight with the Pentagon
https://edition.cnn.com/2026/02/25/tech/anthropic-safety-policy-change@HonkHase wir kommen an den Punkt, dass KI am Ende nicht nur passiv (Ressourcenverbrauch, Unterstützung autoritärer Regime durch Überwachung, Marktmissbrauch der Unternehmen, ...) sondern auch aktiv Menschenleben zerstört.
-
E energisch_@troet.cafe shared this topic
-
@HonkHase wir kommen an den Punkt, dass KI am Ende nicht nur passiv (Ressourcenverbrauch, Unterstützung autoritärer Regime durch Überwachung, Marktmissbrauch der Unternehmen, ...) sondern auch aktiv Menschenleben zerstört.
-
@LappenjammerDieZweite @lordkhan @HonkHase ich erinnere mich an Diskussionen vor Jahren, als man noch postulierte, die Entscheidung "am Abzug" würden immer noch Menschen treffen.
Im Gaza-Konflikt nutzt Israel Software, um die palestinensischen Opfer auszuwählen.
Palantir kann das sicherlich auch, der Chef sprach ja schon vom töten. Vielleicht klickt noch ein Mensch auf "ok", vielleicht auch nicht. Wer will denn die "Vorschläge" der Maschine noch überprüfen? -
@LappenjammerDieZweite @lordkhan @HonkHase ich erinnere mich an Diskussionen vor Jahren, als man noch postulierte, die Entscheidung "am Abzug" würden immer noch Menschen treffen.
Im Gaza-Konflikt nutzt Israel Software, um die palestinensischen Opfer auszuwählen.
Palantir kann das sicherlich auch, der Chef sprach ja schon vom töten. Vielleicht klickt noch ein Mensch auf "ok", vielleicht auch nicht. Wer will denn die "Vorschläge" der Maschine noch überprüfen?@LappenjammerDieZweite @lordkhan @HonkHase IMHO das bedenkliche: es richtet sich in erster Linie nicht gegen Kombattanten, sondern gegen Zivilisten. Das ist per Definition ein Kriegsverbrechen. Wir erleben ohnehin, dass weder Russland noch die USA noch Israel noch einen Fick darauf geben.
-
@LappenjammerDieZweite @lordkhan @HonkHase IMHO das bedenkliche: es richtet sich in erster Linie nicht gegen Kombattanten, sondern gegen Zivilisten. Das ist per Definition ein Kriegsverbrechen. Wir erleben ohnehin, dass weder Russland noch die USA noch Israel noch einen Fick darauf geben.
@Reinald @LappenjammerDieZweite @HonkHase ja, absolut. Die Armee soll immer mehr gegen die eigene Bevölkerung vorgehen.
-
@LappenjammerDieZweite @HonkHase berechtigte Frage. Am Ende wird selbst wenn da ein Mensch noch eine Entscheidung trifft, dieser nur selten die Vorgabe einer Millionen teuren Maschine hinterfragen.
-
Offenbar hat sich Antropic leider eine Scheibe von SAP, Telekom und vielen anderen abgeschnitten

Gestrichen wurden zwei Einschränkungen, die Anthropic beibehalten wollte: Das KI-Modell Claude soll weder für vollständig autonome Waffensysteme eingesetzt noch zur Massenüberwachung US-amerikanischer Bürger genutzt werden.
Anthropic ditches its core safety promise in the middle of an AI red line fight with the Pentagon
https://edition.cnn.com/2026/02/25/tech/anthropic-safety-policy-change@HonkHase Madafakas



-
M mindtunes@troet.cafe shared this topic
N necrosis@chaos.social shared this topic