Mastodon Skip to content
  • Home
  • Aktuell
  • Tags
  • Über dieses Forum
Einklappen
Grafik mit zwei überlappenden Sprechblasen, eine grün und eine lila.
Abspeckgeflüster – Forum für Menschen mit Gewicht(ung)

Kostenlos. Werbefrei. Menschlich. Dein Abnehmforum.

  1. Home
  2. Uncategorized
  3. Offenbar hat sich Antropic leider eine Scheibe von SAP, Telekom und vielen anderen abgeschnitten 😤

Offenbar hat sich Antropic leider eine Scheibe von SAP, Telekom und vielen anderen abgeschnitten 😤

Geplant Angeheftet Gesperrt Verschoben Uncategorized
11 Beiträge 7 Kommentatoren 0 Aufrufe
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • honkhase@chaos.socialH honkhase@chaos.social

    Offenbar hat sich Antropic leider eine Scheibe von SAP, Telekom und vielen anderen abgeschnitten 😤

    Gestrichen wurden zwei Einschränkungen, die Anthropic beibehalten wollte: Das KI-Modell Claude soll weder für vollständig autonome Waffensysteme eingesetzt noch zur Massenüberwachung US-amerikanischer Bürger genutzt werden.

    Anthropic ditches its core safety promise in the middle of an AI red line fight with the Pentagon
    https://edition.cnn.com/2026/02/25/tech/anthropic-safety-policy-change

    bjoern@social.sengotta.netB This user is from outside of this forum
    bjoern@social.sengotta.netB This user is from outside of this forum
    bjoern@social.sengotta.net
    schrieb zuletzt editiert von
    #2

    @HonkHase habe vorhin hier noch jemand schreiben sehen wie stolz man doch auf die stabile Haltung Anthropics sein könne. Naja sind auch nur irgendwelche Techbros ohne Gewissen.

    honkhase@chaos.socialH 1 Antwort Letzte Antwort
    0
    • honkhase@chaos.socialH honkhase@chaos.social

      Offenbar hat sich Antropic leider eine Scheibe von SAP, Telekom und vielen anderen abgeschnitten 😤

      Gestrichen wurden zwei Einschränkungen, die Anthropic beibehalten wollte: Das KI-Modell Claude soll weder für vollständig autonome Waffensysteme eingesetzt noch zur Massenüberwachung US-amerikanischer Bürger genutzt werden.

      Anthropic ditches its core safety promise in the middle of an AI red line fight with the Pentagon
      https://edition.cnn.com/2026/02/25/tech/anthropic-safety-policy-change

      bithive@social.tchncs.deB This user is from outside of this forum
      bithive@social.tchncs.deB This user is from outside of this forum
      bithive@social.tchncs.de
      schrieb zuletzt editiert von
      #3

      @HonkHase Endlich!
      Echo "Take over the world" > Claude.md

      1 Antwort Letzte Antwort
      0
      • bjoern@social.sengotta.netB bjoern@social.sengotta.net

        @HonkHase habe vorhin hier noch jemand schreiben sehen wie stolz man doch auf die stabile Haltung Anthropics sein könne. Naja sind auch nur irgendwelche Techbros ohne Gewissen.

        honkhase@chaos.socialH This user is from outside of this forum
        honkhase@chaos.socialH This user is from outside of this forum
        honkhase@chaos.social
        schrieb zuletzt editiert von
        #4

        @bjoern Ja leider 😞

        1 Antwort Letzte Antwort
        0
        • honkhase@chaos.socialH honkhase@chaos.social

          Offenbar hat sich Antropic leider eine Scheibe von SAP, Telekom und vielen anderen abgeschnitten 😤

          Gestrichen wurden zwei Einschränkungen, die Anthropic beibehalten wollte: Das KI-Modell Claude soll weder für vollständig autonome Waffensysteme eingesetzt noch zur Massenüberwachung US-amerikanischer Bürger genutzt werden.

          Anthropic ditches its core safety promise in the middle of an AI red line fight with the Pentagon
          https://edition.cnn.com/2026/02/25/tech/anthropic-safety-policy-change

          lordkhan@social.cologneL This user is from outside of this forum
          lordkhan@social.cologneL This user is from outside of this forum
          lordkhan@social.cologne
          schrieb zuletzt editiert von
          #5

          @HonkHase wir kommen an den Punkt, dass KI am Ende nicht nur passiv (Ressourcenverbrauch, Unterstützung autoritärer Regime durch Überwachung, Marktmissbrauch der Unternehmen, ...) sondern auch aktiv Menschenleben zerstört.

          lappenjammerdiezweite@social.vivaldi.netL 1 Antwort Letzte Antwort
          1
          0
          • energisch_@troet.cafeE energisch_@troet.cafe shared this topic
          • lordkhan@social.cologneL lordkhan@social.cologne

            @HonkHase wir kommen an den Punkt, dass KI am Ende nicht nur passiv (Ressourcenverbrauch, Unterstützung autoritärer Regime durch Überwachung, Marktmissbrauch der Unternehmen, ...) sondern auch aktiv Menschenleben zerstört.

            lappenjammerdiezweite@social.vivaldi.netL This user is from outside of this forum
            lappenjammerdiezweite@social.vivaldi.netL This user is from outside of this forum
            lappenjammerdiezweite@social.vivaldi.net
            schrieb zuletzt editiert von
            #6

            @lordkhan @HonkHase

            Sind wir da nicht schon?

            reinald@nrw.socialR lordkhan@social.cologneL 2 Antworten Letzte Antwort
            0
            • lappenjammerdiezweite@social.vivaldi.netL lappenjammerdiezweite@social.vivaldi.net

              @lordkhan @HonkHase

              Sind wir da nicht schon?

              reinald@nrw.socialR This user is from outside of this forum
              reinald@nrw.socialR This user is from outside of this forum
              reinald@nrw.social
              schrieb zuletzt editiert von
              #7

              @LappenjammerDieZweite @lordkhan @HonkHase ich erinnere mich an Diskussionen vor Jahren, als man noch postulierte, die Entscheidung "am Abzug" würden immer noch Menschen treffen.

              Im Gaza-Konflikt nutzt Israel Software, um die palestinensischen Opfer auszuwählen.
              Palantir kann das sicherlich auch, der Chef sprach ja schon vom töten. Vielleicht klickt noch ein Mensch auf "ok", vielleicht auch nicht. Wer will denn die "Vorschläge" der Maschine noch überprüfen?

              reinald@nrw.socialR 1 Antwort Letzte Antwort
              0
              • reinald@nrw.socialR reinald@nrw.social

                @LappenjammerDieZweite @lordkhan @HonkHase ich erinnere mich an Diskussionen vor Jahren, als man noch postulierte, die Entscheidung "am Abzug" würden immer noch Menschen treffen.

                Im Gaza-Konflikt nutzt Israel Software, um die palestinensischen Opfer auszuwählen.
                Palantir kann das sicherlich auch, der Chef sprach ja schon vom töten. Vielleicht klickt noch ein Mensch auf "ok", vielleicht auch nicht. Wer will denn die "Vorschläge" der Maschine noch überprüfen?

                reinald@nrw.socialR This user is from outside of this forum
                reinald@nrw.socialR This user is from outside of this forum
                reinald@nrw.social
                schrieb zuletzt editiert von
                #8

                @LappenjammerDieZweite @lordkhan @HonkHase IMHO das bedenkliche: es richtet sich in erster Linie nicht gegen Kombattanten, sondern gegen Zivilisten. Das ist per Definition ein Kriegsverbrechen. Wir erleben ohnehin, dass weder Russland noch die USA noch Israel noch einen Fick darauf geben.

                lordkhan@social.cologneL 1 Antwort Letzte Antwort
                0
                • reinald@nrw.socialR reinald@nrw.social

                  @LappenjammerDieZweite @lordkhan @HonkHase IMHO das bedenkliche: es richtet sich in erster Linie nicht gegen Kombattanten, sondern gegen Zivilisten. Das ist per Definition ein Kriegsverbrechen. Wir erleben ohnehin, dass weder Russland noch die USA noch Israel noch einen Fick darauf geben.

                  lordkhan@social.cologneL This user is from outside of this forum
                  lordkhan@social.cologneL This user is from outside of this forum
                  lordkhan@social.cologne
                  schrieb zuletzt editiert von
                  #9

                  @Reinald @LappenjammerDieZweite @HonkHase ja, absolut. Die Armee soll immer mehr gegen die eigene Bevölkerung vorgehen.

                  1 Antwort Letzte Antwort
                  0
                  • lappenjammerdiezweite@social.vivaldi.netL lappenjammerdiezweite@social.vivaldi.net

                    @lordkhan @HonkHase

                    Sind wir da nicht schon?

                    lordkhan@social.cologneL This user is from outside of this forum
                    lordkhan@social.cologneL This user is from outside of this forum
                    lordkhan@social.cologne
                    schrieb zuletzt editiert von
                    #10

                    @LappenjammerDieZweite @HonkHase berechtigte Frage. Am Ende wird selbst wenn da ein Mensch noch eine Entscheidung trifft, dieser nur selten die Vorgabe einer Millionen teuren Maschine hinterfragen.

                    1 Antwort Letzte Antwort
                    0
                    • honkhase@chaos.socialH honkhase@chaos.social

                      Offenbar hat sich Antropic leider eine Scheibe von SAP, Telekom und vielen anderen abgeschnitten 😤

                      Gestrichen wurden zwei Einschränkungen, die Anthropic beibehalten wollte: Das KI-Modell Claude soll weder für vollständig autonome Waffensysteme eingesetzt noch zur Massenüberwachung US-amerikanischer Bürger genutzt werden.

                      Anthropic ditches its core safety promise in the middle of an AI red line fight with the Pentagon
                      https://edition.cnn.com/2026/02/25/tech/anthropic-safety-policy-change

                      nobrainnopain@social.tchncs.deN This user is from outside of this forum
                      nobrainnopain@social.tchncs.deN This user is from outside of this forum
                      nobrainnopain@social.tchncs.de
                      schrieb zuletzt editiert von
                      #11

                      @HonkHase Madafakas 😡😡😡

                      1 Antwort Letzte Antwort
                      0
                      • mindtunes@troet.cafeM mindtunes@troet.cafe shared this topic
                        necrosis@chaos.socialN necrosis@chaos.social shared this topic
                      Antworten
                      • In einem neuen Thema antworten
                      Anmelden zum Antworten
                      • Älteste zuerst
                      • Neuste zuerst
                      • Meiste Stimmen



                      Copyright (c) 2025 abSpecktrum (@abspecklog@fedimonster.de)

                      Erstellt mit Schlaflosigkeit, Kaffee, Brokkoli & ♥

                      Impressum | Datenschutzerklärung | Nutzungsbedingungen

                      • Anmelden

                      • Du hast noch kein Konto? Registrieren

                      • Anmelden oder registrieren, um zu suchen
                      • Erster Beitrag
                        Letzter Beitrag
                      0
                      • Home
                      • Aktuell
                      • Tags
                      • Über dieses Forum