Mastodon Skip to content
  • Home
  • Aktuell
  • Tags
  • Über dieses Forum
Einklappen
Grafik mit zwei überlappenden Sprechblasen, eine grün und eine lila.
Abspeckgeflüster – Forum für Menschen mit Gewicht(ung)

Kostenlos. Werbefrei. Menschlich. Dein Abnehmforum.

  1. Home
  2. Uncategorized
  3. In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen.

In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen.

Geplant Angeheftet Gesperrt Verschoben Uncategorized
llms
218 Beiträge 54 Kommentatoren 0 Aufrufe
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • saupreiss@pfalz.socialS saupreiss@pfalz.social

    @expertenkommision_cyberunfall

    Meh. Bildungskatastrophe hin oder her: Es ist illusorisch, die Mathematik, die da et large am Werken ist, sinnvoll zu vermitteln.

    Auch Spezialisten können bestenfalls in Einzelfällen nachvollziehen, wie welche Antwort zu welchem Zeitpunkt zustande kam. Natürlich ist das alles deterministische Mathematik. Aber mit so vielen Variablen, dass es im Regelfall nicht deterministisch überprüft werden kann.

    @AwetTesfaiesus @Chaotica @Lamal

    expertenkommision_cyberunfall@mastodon.socialE This user is from outside of this forum
    expertenkommision_cyberunfall@mastodon.socialE This user is from outside of this forum
    expertenkommision_cyberunfall@mastodon.social
    schrieb zuletzt editiert von
    #101

    @Saupreiss

    Ich bezog mich auf Elektrizität. Die Mathematik wird erst hart, wenn es um Elektronik oder Nachrichtentechnik geht.
    Also zumindest empfand ich das so.

    @AwetTesfaiesus @Chaotica @Lamal

    1 Antwort Letzte Antwort
    0
    • expertenkommision_cyberunfall@mastodon.socialE expertenkommision_cyberunfall@mastodon.social

      @AwetTesfaiesus @Chaotica @Lamal

      Vielleicht hilft es, die Strukturen und Organisationen/Personen "dahinter" zu betrachten.
      KI/AI wird von Personen und Orgas gehypt und überwiegend betrieben, die klare faschistische Strukturen aufzeigen.
      Es ist mehr als gut belegt, dass KI/AI durch das notwendige Training nicht nur die. in den Trainingsdaten vorhandenen Vorurteile erlernt, sondern sogar verfestigt und das Training nur durch Ausbeutung gelingt.

      awettesfaiesus@mastodon.socialA This user is from outside of this forum
      awettesfaiesus@mastodon.socialA This user is from outside of this forum
      awettesfaiesus@mastodon.social
      schrieb zuletzt editiert von
      #102

      @expertenkommision_cyberunfall @Chaotica @Lamal

      Erlaube mir eine Polemik zu früher Stunde zu replizieren, die hier kürzlich ein junges Familienmitglied vorbrachte:

      „Ihr immer mit eurem bequemen Tesla-Haß; wie oft fragt ihr euch eigentlich, wieviel KdF-Wagen in so einem supadupa p.c. ID.3 steckt?“

      Vielleicht anders gesagt: wieviel Kaiserreich steckt eigentlich jetzt noch (de lege lata) in unserem Staat.

      expertenkommision_cyberunfall@mastodon.socialE 1 Antwort Letzte Antwort
      0
      • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

        @Saupreiss das fasst weite Teile des Jurastudiums in Deutschland auch ganz gut zusammen

        saupreiss@pfalz.socialS This user is from outside of this forum
        saupreiss@pfalz.socialS This user is from outside of this forum
        saupreiss@pfalz.social
        schrieb zuletzt editiert von
        #103

        @AwetTesfaiesus

        Früher™ wäre recht wenig Werbung für blaue Tabletten in deinem Briefkasten gelandet: Der Ertrag hätte die hohen Kosten nicht aufgefangen. Mit der E-Mail kam es bekanntlich anders; Kosten der Abwehr derartiger Produktinformation übersteigt regelmäßig jene ordnungsgemäßer Lieferungen.

        Ähnlich verhält sich das mit dem Lernen. Natürlich ist ein Schlüter keine sakrosankte Bibel. Aber er bildet einen gewissen Konsens ab. Man kann viele Schlüters mit wenig Aufwand machen…

        1 Antwort Letzte Antwort
        0
        • chaotica@nrw.socialC chaotica@nrw.social

          @AwetTesfaiesus
          Ich finde die Analogie zur Alphabetisierung recht hilfreich.
          Meine Bank zB kann mir - selbst auf Nachfrage in der technischen Abteilung - nicht präzise erklären, wie mein Kreditscore zustande kommt. „Der Computer“ spuckt halt eine Zahl aus und die wird dann geglaubt.
          Da ist kein wesentlicher Unterschied mehr zu „Priester liest aus Buch vor und man muss das einfach glauben.“
          @Lamal

          kinghaunst@augsburg.socialK This user is from outside of this forum
          kinghaunst@augsburg.socialK This user is from outside of this forum
          kinghaunst@augsburg.social
          schrieb zuletzt editiert von
          #104

          @Chaotica
          GIGO - Garbage In, Garbage Out

          Aber es hilft nix, selbst wenn Du zweifelsfrei beweisen kannst dass der Computer Müll produziert hat wird daran festgehalten.

          @AwetTesfaiesus @Lamal

          1 Antwort Letzte Antwort
          0
          • G gormfull@mastodon.social

            @AwetTesfaiesus @odrotbohm @marcuwekling

            Wenn 50% falsch sind bei > 3Monaten bearbeitungszeit, wäre dann nicht ein System mit 50% Fehleranfälligkeit und 1 Minute Bearbeitung das bessere System? z.B. Münzwurf oder Würfel?
            Woher nimmst du die Annahme, dass das LLM nur 20% Fehleranfällig wäre? Es hat doch lediglich die bisherigen Daten als Grundlage. Und falls 50% falsch sind, dann sind ja auch (im Schnitt) 50% der Revisionen falsch. Es gibt also keine besseren Daten.

            awettesfaiesus@mastodon.socialA This user is from outside of this forum
            awettesfaiesus@mastodon.socialA This user is from outside of this forum
            awettesfaiesus@mastodon.social
            schrieb zuletzt editiert von
            #105

            @Gormfull @odrotbohm @marcuwekling trainierst du mit den Bescheiden oder mit den Urteilen, die sie aufheben?

            G 2 Antworten Letzte Antwort
            0
            • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

              @odrotbohm @marcuwekling

              "ausschließen" ist ein absoluter Begriff.

              Aber: wenn Deine Fehlerquote bei den Leistungsbescheiden bei 50% liegt (und die Bearbeitungszeit bei > 3 Monaten), dann scheint es mir berechtigt zu fragen:

              Wäre eine Fehlerquote on 20% bei einer Bearbeitungsdauer von 30 Minuten nicht das bessere System?

              reinald@nrw.socialR This user is from outside of this forum
              reinald@nrw.socialR This user is from outside of this forum
              reinald@nrw.social
              schrieb zuletzt editiert von
              #106

              @AwetTesfaiesus @odrotbohm @marcuwekling zumal: man könnte ja durchaus ein LLM auf Gesetzestexten trainieren. Dass dann "einfach" gesetzeskonforme Bescheide erlässt. Statt unzulässig Entscheidungen zu treffen, die dann per Gericht bereinigt werden müssen.

              awettesfaiesus@mastodon.socialA 1 Antwort Letzte Antwort
              0
              • reinald@nrw.socialR reinald@nrw.social

                @AwetTesfaiesus @odrotbohm @marcuwekling zumal: man könnte ja durchaus ein LLM auf Gesetzestexten trainieren. Dass dann "einfach" gesetzeskonforme Bescheide erlässt. Statt unzulässig Entscheidungen zu treffen, die dann per Gericht bereinigt werden müssen.

                awettesfaiesus@mastodon.socialA This user is from outside of this forum
                awettesfaiesus@mastodon.socialA This user is from outside of this forum
                awettesfaiesus@mastodon.social
                schrieb zuletzt editiert von
                #107

                @Reinald @odrotbohm @marcuwekling age old dream

                reinald@nrw.socialR 1 Antwort Letzte Antwort
                0
                • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                  In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen. @marcuwekling sagte am Montag bei der Lesung Ähnliches.

                  Dazu:
                  1️⃣In der juristischen Ausbildung lernst du, dass 50-70% der Verwaltungsakt falsch sind. Default: falsch!
                  2️⃣Dazu: in meiner Schulzeit waren Atlanten/Karten immer falsch (DDR drin, teils Saarland draußen, Jugoslawien komplett). Ich habe nicht gehört, dass über Schulen ähnlich gesprochen wird, wie über LLMs. #ki

                  anwagnerdreas@hcommons.socialA This user is from outside of this forum
                  anwagnerdreas@hcommons.socialA This user is from outside of this forum
                  anwagnerdreas@hcommons.social
                  schrieb zuletzt editiert von
                  #108

                  @AwetTesfaiesus Das ist interessant. Man weiß ja, dass ausgerechnet die Anthropomorphisierung - neben der vermuteten "Intelligenz" eines so teuren Systems - zur übermäßigen Vertrauensseligkeit ggü KI beiträgt. Einer der zentralen Aspekte dabei ist das eloquente und konfidente "Auftreten", welches man in KI-Ausgaben sieht. Demgegenüber bringt jede:r menschliche Gesprächspartner:in mit der eigenen Menschlichkeit/Positionalität/Unvollkommenheit immer schon Anlass zum Zweifel mit in die Interaktion.

                  Ich bin also noch nicht überzeugt, dass wir KI ggü tatsächlich kritischer als Menschen ggü sind. Ich glaube, Laien neigen zu Vertrauen in konfidentes, eloquentes Auftreten - wie es in den Textsorten begegnet, die Du nennst - gleichermaßen.

                  Spannend finde ich die (KI-unabhängigen) Fragen, ob es erstens eine empirisch höhere Wahrscheinlichkeit der tatsächlichen Unwahrheit eloquenter Aussagen und zweitens eine mit der Ausbildung zur Jurist:in eingeübte Immunität ggü Eloquenz und Konfidenz gibt.

                  awettesfaiesus@mastodon.socialA 2 Antworten Letzte Antwort
                  0
                  • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                    @expertenkommision_cyberunfall @Chaotica @Lamal

                    Erlaube mir eine Polemik zu früher Stunde zu replizieren, die hier kürzlich ein junges Familienmitglied vorbrachte:

                    „Ihr immer mit eurem bequemen Tesla-Haß; wie oft fragt ihr euch eigentlich, wieviel KdF-Wagen in so einem supadupa p.c. ID.3 steckt?“

                    Vielleicht anders gesagt: wieviel Kaiserreich steckt eigentlich jetzt noch (de lege lata) in unserem Staat.

                    expertenkommision_cyberunfall@mastodon.socialE This user is from outside of this forum
                    expertenkommision_cyberunfall@mastodon.socialE This user is from outside of this forum
                    expertenkommision_cyberunfall@mastodon.social
                    schrieb zuletzt editiert von
                    #109

                    @AwetTesfaiesus

                    Na, dann frag lieber nicht wieviel von den Menschenversuchen der Nazis in Medizin stecken.

                    Was aus dem Kaiserreich in unserem Staat steckt? Vieles was durch solidarische, linksgelesene Strukturen im Kaiserreich erkämpft wurde, aber auch vieles, was Konservative konservieren wollten.
                    Die Bundesrepublik war eine Befreiung, keine Revolution.

                    @Chaotica @Lamal

                    1 Antwort Letzte Antwort
                    0
                    • G gormfull@mastodon.social

                      @AwetTesfaiesus @odrotbohm @marcuwekling

                      Wenn 50% falsch sind bei > 3Monaten bearbeitungszeit, wäre dann nicht ein System mit 50% Fehleranfälligkeit und 1 Minute Bearbeitung das bessere System? z.B. Münzwurf oder Würfel?
                      Woher nimmst du die Annahme, dass das LLM nur 20% Fehleranfällig wäre? Es hat doch lediglich die bisherigen Daten als Grundlage. Und falls 50% falsch sind, dann sind ja auch (im Schnitt) 50% der Revisionen falsch. Es gibt also keine besseren Daten.

                      G This user is from outside of this forum
                      G This user is from outside of this forum
                      gormfull@mastodon.social
                      schrieb zuletzt editiert von
                      #110

                      @AwetTesfaiesus @odrotbohm @marcuwekling

                      Ausserdem gibt es da das Problem mit alpha und beta- Fehlern ( false-negative und false-positive).
                      Da es sehr wenige Klagen gegen positive Bescheide geben wird, wissen wir über die false-positives gar nichts, bzw. Sind der Annahme, dass da kaum Fehler gemacht werden. Eine “vernünftige” KI oder Mitarbeiter*in würde schnell auf den Trichter kommen, dass alle positiv-Bescheide “richtig” sind.

                      1 Antwort Letzte Antwort
                      0
                      • G gormfull@mastodon.social

                        @AwetTesfaiesus @odrotbohm @marcuwekling

                        Wenn 50% falsch sind bei > 3Monaten bearbeitungszeit, wäre dann nicht ein System mit 50% Fehleranfälligkeit und 1 Minute Bearbeitung das bessere System? z.B. Münzwurf oder Würfel?
                        Woher nimmst du die Annahme, dass das LLM nur 20% Fehleranfällig wäre? Es hat doch lediglich die bisherigen Daten als Grundlage. Und falls 50% falsch sind, dann sind ja auch (im Schnitt) 50% der Revisionen falsch. Es gibt also keine besseren Daten.

                        G This user is from outside of this forum
                        G This user is from outside of this forum
                        gormfull@mastodon.social
                        schrieb zuletzt editiert von
                        #111

                        @AwetTesfaiesus @odrotbohm @marcuwekling

                        Ausserdem gibt es da das Problem mit alpha und beta- Fehlern ( false-negative und false-positive).
                        Da es sehr wenige Klagen gegen positive Bescheide geben wird, wissen wir über die false-positives gar nichts, bzw. Sind der Annahme, dass da kaum Fehler gemacht werden. Eine “vernünftige” KI oder Mitarbeiter*in würde schnell auf den Trichter kommen, dass alle positiv-Bescheide “richtig” sind.

                        1 Antwort Letzte Antwort
                        0
                        • anwagnerdreas@hcommons.socialA anwagnerdreas@hcommons.social

                          @AwetTesfaiesus Das ist interessant. Man weiß ja, dass ausgerechnet die Anthropomorphisierung - neben der vermuteten "Intelligenz" eines so teuren Systems - zur übermäßigen Vertrauensseligkeit ggü KI beiträgt. Einer der zentralen Aspekte dabei ist das eloquente und konfidente "Auftreten", welches man in KI-Ausgaben sieht. Demgegenüber bringt jede:r menschliche Gesprächspartner:in mit der eigenen Menschlichkeit/Positionalität/Unvollkommenheit immer schon Anlass zum Zweifel mit in die Interaktion.

                          Ich bin also noch nicht überzeugt, dass wir KI ggü tatsächlich kritischer als Menschen ggü sind. Ich glaube, Laien neigen zu Vertrauen in konfidentes, eloquentes Auftreten - wie es in den Textsorten begegnet, die Du nennst - gleichermaßen.

                          Spannend finde ich die (KI-unabhängigen) Fragen, ob es erstens eine empirisch höhere Wahrscheinlichkeit der tatsächlichen Unwahrheit eloquenter Aussagen und zweitens eine mit der Ausbildung zur Jurist:in eingeübte Immunität ggü Eloquenz und Konfidenz gibt.

                          awettesfaiesus@mastodon.socialA This user is from outside of this forum
                          awettesfaiesus@mastodon.socialA This user is from outside of this forum
                          awettesfaiesus@mastodon.social
                          schrieb zuletzt editiert von
                          #112

                          @anwagnerdreas

                          Ich weiß ja gar nicht, ob es diesen Vertrauensvorschuss gegenüber KI wirklich so gibt.

                          Was sind eigentlich die Konturen des Unterschieds zu Vertrauensankern, wie:

                          -Wappen
                          -Roben
                          -Gerichtssäle
                          -Urteilsstil

                          Alle Jurist:innen lernen doch den Satz „Es ist so und kann nicht anders sein“ im Hinterkopf zu haben, wenn man Urteilsstil schreibt.

                          kraemer_hb@mastodon.socialK anwagnerdreas@hcommons.socialA 2 Antworten Letzte Antwort
                          0
                          • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                            @Gormfull @odrotbohm @marcuwekling trainierst du mit den Bescheiden oder mit den Urteilen, die sie aufheben?

                            G This user is from outside of this forum
                            G This user is from outside of this forum
                            gormfull@mastodon.social
                            schrieb zuletzt editiert von
                            #113

                            @AwetTesfaiesus @odrotbohm @marcuwekling
                            Offene Frage. Bestenfalls mit dem Wissen, ob die Entscheidung “richtig” war. Das dürfte der Bescheid sein, wenn es keine Revision gab, oder das Revisionsurteil, wenn es eines gab.
                            Und hier liegt das Problem: Durch die KI wird lediglich der Filter automatisiert, mit dem ich die Leute ablehne, die keine Verbindungen und Mittel haben. Also wahrscheinlich die Bedürftigeren.

                            1 Antwort Letzte Antwort
                            0
                            • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                              @Gormfull @odrotbohm @marcuwekling trainierst du mit den Bescheiden oder mit den Urteilen, die sie aufheben?

                              G This user is from outside of this forum
                              G This user is from outside of this forum
                              gormfull@mastodon.social
                              schrieb zuletzt editiert von
                              #114

                              @AwetTesfaiesus @odrotbohm @marcuwekling
                              Offene Frage. Bestenfalls mit dem Wissen, ob die Entscheidung “richtig” war. Das dürfte der Bescheid sein, wenn es keine Revision gab, oder das Revisionsurteil, wenn es eines gab.
                              Und hier liegt das Problem: Durch die KI wird lediglich der Filter automatisiert, mit dem ich die Leute ablehne, die keine Verbindungen und Mittel haben. Also wahrscheinlich die Bedürftigeren.

                              awettesfaiesus@mastodon.socialA 1 Antwort Letzte Antwort
                              0
                              • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                                @Reinald @odrotbohm @marcuwekling age old dream

                                reinald@nrw.socialR This user is from outside of this forum
                                reinald@nrw.socialR This user is from outside of this forum
                                reinald@nrw.social
                                schrieb zuletzt editiert von
                                #115

                                @AwetTesfaiesus @odrotbohm @marcuwekling I know. Trotzdem sind wir der Vision möglicherweise näher denn jehmals, die Textproduktionsautomaten aka LLMs sind da schon ziemlich gut geworden. Man darf natürlich keine offen trainiertes Modell mit all dem Mist aus dem Internet darauf ansetzen. Und mancher Amtsleiter wird seinen gesetzeswidrigen Anordnungen nachtrauern. Für die 95% der Fälle mit klaren Vorraussetzungen sollten auch die Ergebnisse klar sein.

                                1 Antwort Letzte Antwort
                                0
                                • anwagnerdreas@hcommons.socialA anwagnerdreas@hcommons.social

                                  @AwetTesfaiesus Das ist interessant. Man weiß ja, dass ausgerechnet die Anthropomorphisierung - neben der vermuteten "Intelligenz" eines so teuren Systems - zur übermäßigen Vertrauensseligkeit ggü KI beiträgt. Einer der zentralen Aspekte dabei ist das eloquente und konfidente "Auftreten", welches man in KI-Ausgaben sieht. Demgegenüber bringt jede:r menschliche Gesprächspartner:in mit der eigenen Menschlichkeit/Positionalität/Unvollkommenheit immer schon Anlass zum Zweifel mit in die Interaktion.

                                  Ich bin also noch nicht überzeugt, dass wir KI ggü tatsächlich kritischer als Menschen ggü sind. Ich glaube, Laien neigen zu Vertrauen in konfidentes, eloquentes Auftreten - wie es in den Textsorten begegnet, die Du nennst - gleichermaßen.

                                  Spannend finde ich die (KI-unabhängigen) Fragen, ob es erstens eine empirisch höhere Wahrscheinlichkeit der tatsächlichen Unwahrheit eloquenter Aussagen und zweitens eine mit der Ausbildung zur Jurist:in eingeübte Immunität ggü Eloquenz und Konfidenz gibt.

                                  awettesfaiesus@mastodon.socialA This user is from outside of this forum
                                  awettesfaiesus@mastodon.socialA This user is from outside of this forum
                                  awettesfaiesus@mastodon.social
                                  schrieb zuletzt editiert von
                                  #116

                                  @anwagnerdreas 1x1 der Zeugenaussage:
                                  "Frau Richterin, ich bin mir ganz sicher, dass sie das war. Da habe ich keinen Zweifel. Das weiß ich deshalb noch so genau, weil zur gleichen Zeit..."

                                  In meiner Ausbildung hieß es "lügt wie gedruckt" kommt nicht von ungefähr.

                                  anwagnerdreas@hcommons.socialA 1 Antwort Letzte Antwort
                                  0
                                  • G gormfull@mastodon.social

                                    @AwetTesfaiesus @odrotbohm @marcuwekling
                                    Offene Frage. Bestenfalls mit dem Wissen, ob die Entscheidung “richtig” war. Das dürfte der Bescheid sein, wenn es keine Revision gab, oder das Revisionsurteil, wenn es eines gab.
                                    Und hier liegt das Problem: Durch die KI wird lediglich der Filter automatisiert, mit dem ich die Leute ablehne, die keine Verbindungen und Mittel haben. Also wahrscheinlich die Bedürftigeren.

                                    awettesfaiesus@mastodon.socialA This user is from outside of this forum
                                    awettesfaiesus@mastodon.socialA This user is from outside of this forum
                                    awettesfaiesus@mastodon.social
                                    schrieb zuletzt editiert von
                                    #117

                                    @Gormfull @odrotbohm @marcuwekling Da bin ich mir halt nicht sicher.

                                    G 2 Antworten Letzte Antwort
                                    0
                                    • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                                      Konkret: Ich könnte mir vorstellen, dass in dieser (!) konkreten Herangehensweisen an KI viel Coping steckt. Lügen wir uns hier kollektiv in die eigene (intellektuelle) Tasche?

                                      Oder pfeifen wir hier sogar schon verzweifelt im Walde?

                                      Liege ich komplett falsch?

                                      gabe@mendeddrum.orgG This user is from outside of this forum
                                      gabe@mendeddrum.orgG This user is from outside of this forum
                                      gabe@mendeddrum.org
                                      schrieb zuletzt editiert von
                                      #118

                                      @AwetTesfaiesus die Frage, ob wir insgesamt genug hinterfragen, was von (echten oder vermeintlichen) Autoritäten kommt, ist erstens wichtig und zweitens klar mit "nein" zu beantworten.

                                      So weit, so uninteressant.

                                      Was macht man damit? Deine Frage, wie hier gestellt und beschrieben, wirkt auf mich wie "whataboutism", als solle gesagt werden, "das mit der KI kann so bleiben, weil wir Menschen ja auch sehr fehlbar sind". Stattdessen könnte man sagen, "wir Menschen machen schon so viel falsch, absichtlich oder nicht, da wird eine weitere unglaublich fehleranfällige 'Autorität' sicherlich keine positive Wirkung haben".

                                      (Es gibt keine "neutrale" Fragestellung, es gibt keine "neutrale" Position. Bestenfalls eine instrumentierbare, häufiger eine absichtlich oder versehentlich suggestive.)

                                      Alles das geht aber an der wichtigen Realität vorbei: es ist tatsächlich völlig egal, ob Sprachmodelle uns richtige Antworten geben, ob sie unsere E-Mails und Artikel schöner schreiben oder akkurat zusammenfassen, ob sie funktionierenden Code schreiben oder diesen korrekt pflegen, ob sie uns für Glückwunsch oder Trauer die "richtigen Worte" geben. Es ist egal.

                                      Der Energieverbrauch (von der Chip-Produktion bis zum Betrieb), das ungefragte und unbezahlte Aufsaugen und Verwerten der Kreativen Leistung und Arbeit der (online-)Menschheit, die versteckte, unterbezahlte, zermürbende Arbeit für Tagging/Labelling und Tuning, das Abschieben jeder Verantwortung für das Produkt auf die Nutzer... Es gibt keine ethisch akzeptable Nutzung. Es gibt kein Kalkül, kein vertretbares Modell, kein humanes Weltbild nach dem sich die Kosten überhaupt einem Nutzen gegenüberstellen ließen, geschweige denn irgendwie akzeptabel sein könnten.

                                      Leuchtzifferblätter, die mit Radium bemalt sind, sind im Dunkeln gut lesbar, und sehen auch hübsch aus. Aber egal, wie schön sie sind, egal, wie viele Sammler es gibt, egal, was für schöne Umsätze damit gemacht werden, egal, ob für die Käufer die Strahlung am Arm akzeptabel oder gefahrlos ist - die Belastung der Umwelt und der Menschen durch die Produktion (und am Ende die Entsorgung) war es nie Wert, konnte es nie Wert sein. "Der Nachtwächter kann die Uhr ablesen, ohne seine Augen umzugewöhnen" mag auch noch so nützlich sein, "Arbeiterinnen bekommen vermehrt Krebs" kann nicht aufgewogen werden. Nicht "wird nicht aufgewogen von den paar Nachtwächtern", sondern es ist nicht möglich.

                                      awettesfaiesus@mastodon.socialA 1 Antwort Letzte Antwort
                                      0
                                      • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                                        @anwagnerdreas

                                        Ich weiß ja gar nicht, ob es diesen Vertrauensvorschuss gegenüber KI wirklich so gibt.

                                        Was sind eigentlich die Konturen des Unterschieds zu Vertrauensankern, wie:

                                        -Wappen
                                        -Roben
                                        -Gerichtssäle
                                        -Urteilsstil

                                        Alle Jurist:innen lernen doch den Satz „Es ist so und kann nicht anders sein“ im Hinterkopf zu haben, wenn man Urteilsstil schreibt.

                                        kraemer_hb@mastodon.socialK This user is from outside of this forum
                                        kraemer_hb@mastodon.socialK This user is from outside of this forum
                                        kraemer_hb@mastodon.social
                                        schrieb zuletzt editiert von
                                        #119

                                        @AwetTesfaiesus @anwagnerdreas Ein interessanter Vergleich von Vertrauenskulturen!
                                        Ich denke, wenn wir die Aussagen von Menschen kritisch reflektieren (was Journalisten, Juristen u.a. beruflich tun sollten), nutzen wir unser Bild von deren "Positionalität" zur Frage nach ihrer möglichen Interessiertheit in der Sache.
                                        KI hebelt dies aber aus, sie hat das nicht, sie wirkt fälschlich neutral.
                                        Gerichte haben instit.Interessen, etwa Fälle erledigen, oder nicht von höheren Gerichten korrigiert werden.

                                        1 Antwort Letzte Antwort
                                        0
                                        • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                                          @anwagnerdreas

                                          Ich weiß ja gar nicht, ob es diesen Vertrauensvorschuss gegenüber KI wirklich so gibt.

                                          Was sind eigentlich die Konturen des Unterschieds zu Vertrauensankern, wie:

                                          -Wappen
                                          -Roben
                                          -Gerichtssäle
                                          -Urteilsstil

                                          Alle Jurist:innen lernen doch den Satz „Es ist so und kann nicht anders sein“ im Hinterkopf zu haben, wenn man Urteilsstil schreibt.

                                          anwagnerdreas@hcommons.socialA This user is from outside of this forum
                                          anwagnerdreas@hcommons.socialA This user is from outside of this forum
                                          anwagnerdreas@hcommons.social
                                          schrieb zuletzt editiert von
                                          #120

                                          @AwetTesfaiesus

                                          Tatsächlich habe ich vielleicht den Mund etwas voll genommen: Ich weiß von Untersuchungen über die vertrauenerweckende Wirkung von Eloquenz und konfidentem Auftreten (und Geschlechterrollen usw.), Merkmalen also, die den Chatsystemen effektiv antrainiert werden (und sei es weil die Humans in the Loop im RLHF das gut finden). Diese Studien stammen allerdings zumeist noch aus der Zeit *vor* den erfolgreichen Chatsystemen, sie untersuchen es also nicht anhand solcher Systeme...

                                          Ich weiß noch von keinen Studien, die die "deference" gegenüber einem identischen Auftreten hinsichtlich dessen vergleichen, ob es von einem Computer oder einer natürlichen Person (mit variierenden Rollen und Attributen), oder vielleicht auch einem journalistischen Medium entgegen tritt. Müsste man mal machen...

                                          Oder weiß jemand was in der Richtung?

                                          1 Antwort Letzte Antwort
                                          0
                                          Antworten
                                          • In einem neuen Thema antworten
                                          Anmelden zum Antworten
                                          • Älteste zuerst
                                          • Neuste zuerst
                                          • Meiste Stimmen



                                          Copyright (c) 2025 abSpecktrum (@abspecklog@fedimonster.de)

                                          Erstellt mit Schlaflosigkeit, Kaffee, Brokkoli & ♥

                                          Impressum | Datenschutzerklärung | Nutzungsbedingungen

                                          • Anmelden

                                          • Du hast noch kein Konto? Registrieren

                                          • Anmelden oder registrieren, um zu suchen
                                          • Erster Beitrag
                                            Letzter Beitrag
                                          0
                                          • Home
                                          • Aktuell
                                          • Tags
                                          • Über dieses Forum