Mastodon Skip to content
  • Home
  • Aktuell
  • Tags
  • Über dieses Forum
Einklappen
Grafik mit zwei überlappenden Sprechblasen, eine grün und eine lila.
Abspeckgeflüster – Forum für Menschen mit Gewicht(ung)

Kostenlos. Werbefrei. Menschlich. Dein Abnehmforum.

  1. Home
  2. Uncategorized
  3. In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen.

In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen.

Geplant Angeheftet Gesperrt Verschoben Uncategorized
llms
218 Beiträge 54 Kommentatoren 0 Aufrufe
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

    @Chaotica @Lamal

    Ich denke, ich spüre dasselbe "ungute Gefühl" wie Du, aber es fällt mir wirklich schwer, das aktuell sauber zu strukturieren. Mir fehlt sozusagen auch ein "Reasoning" (BS term!).

    expertenkommision_cyberunfall@mastodon.socialE This user is from outside of this forum
    expertenkommision_cyberunfall@mastodon.socialE This user is from outside of this forum
    expertenkommision_cyberunfall@mastodon.social
    schrieb zuletzt editiert von
    #97

    @AwetTesfaiesus @Chaotica @Lamal

    Vielleicht hilft es, die Strukturen und Organisationen/Personen "dahinter" zu betrachten.
    KI/AI wird von Personen und Orgas gehypt und überwiegend betrieben, die klare faschistische Strukturen aufzeigen.
    Es ist mehr als gut belegt, dass KI/AI durch das notwendige Training nicht nur die. in den Trainingsdaten vorhandenen Vorurteile erlernt, sondern sogar verfestigt und das Training nur durch Ausbeutung gelingt.

    awettesfaiesus@mastodon.socialA 1 Antwort Letzte Antwort
    0
    • expertenkommision_cyberunfall@mastodon.socialE expertenkommision_cyberunfall@mastodon.social

      @AwetTesfaiesus @Chaotica @Lamal

      Das ist aber eher ein Problem verursacht von unserer Bildungskatastrophe

      saupreiss@pfalz.socialS This user is from outside of this forum
      saupreiss@pfalz.socialS This user is from outside of this forum
      saupreiss@pfalz.social
      schrieb zuletzt editiert von
      #98

      @expertenkommision_cyberunfall

      Meh. Bildungskatastrophe hin oder her: Es ist illusorisch, die Mathematik, die da et large am Werken ist, sinnvoll zu vermitteln.

      Auch Spezialisten können bestenfalls in Einzelfällen nachvollziehen, wie welche Antwort zu welchem Zeitpunkt zustande kam. Natürlich ist das alles deterministische Mathematik. Aber mit so vielen Variablen, dass es im Regelfall nicht deterministisch überprüft werden kann.

      @AwetTesfaiesus @Chaotica @Lamal

      expertenkommision_cyberunfall@mastodon.socialE 1 Antwort Letzte Antwort
      0
      • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

        @odrotbohm @marcuwekling

        "ausschließen" ist ein absoluter Begriff.

        Aber: wenn Deine Fehlerquote bei den Leistungsbescheiden bei 50% liegt (und die Bearbeitungszeit bei > 3 Monaten), dann scheint es mir berechtigt zu fragen:

        Wäre eine Fehlerquote on 20% bei einer Bearbeitungsdauer von 30 Minuten nicht das bessere System?

        G This user is from outside of this forum
        G This user is from outside of this forum
        gormfull@mastodon.social
        schrieb zuletzt editiert von
        #99

        @AwetTesfaiesus @odrotbohm @marcuwekling

        Wenn 50% falsch sind bei > 3Monaten bearbeitungszeit, wäre dann nicht ein System mit 50% Fehleranfälligkeit und 1 Minute Bearbeitung das bessere System? z.B. Münzwurf oder Würfel?
        Woher nimmst du die Annahme, dass das LLM nur 20% Fehleranfällig wäre? Es hat doch lediglich die bisherigen Daten als Grundlage. Und falls 50% falsch sind, dann sind ja auch (im Schnitt) 50% der Revisionen falsch. Es gibt also keine besseren Daten.

        awettesfaiesus@mastodon.socialA 1 Antwort Letzte Antwort
        0
        • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

          @odrotbohm @marcuwekling

          "ausschließen" ist ein absoluter Begriff.

          Aber: wenn Deine Fehlerquote bei den Leistungsbescheiden bei 50% liegt (und die Bearbeitungszeit bei > 3 Monaten), dann scheint es mir berechtigt zu fragen:

          Wäre eine Fehlerquote on 20% bei einer Bearbeitungsdauer von 30 Minuten nicht das bessere System?

          G This user is from outside of this forum
          G This user is from outside of this forum
          gormfull@mastodon.social
          schrieb zuletzt editiert von
          #100

          @AwetTesfaiesus @odrotbohm @marcuwekling

          Wenn 50% falsch sind bei > 3Monaten bearbeitungszeit, wäre dann nicht ein System mit 50% Fehleranfälligkeit und 1 Minute Bearbeitung das bessere System? z.B. Münzwurf oder Würfel?
          Woher nimmst du die Annahme, dass das LLM nur 20% Fehleranfällig wäre? Es hat doch lediglich die bisherigen Daten als Grundlage. Und falls 50% falsch sind, dann sind ja auch (im Schnitt) 50% der Revisionen falsch. Es gibt also keine besseren Daten.

          G 2 Antworten Letzte Antwort
          0
          • saupreiss@pfalz.socialS saupreiss@pfalz.social

            @expertenkommision_cyberunfall

            Meh. Bildungskatastrophe hin oder her: Es ist illusorisch, die Mathematik, die da et large am Werken ist, sinnvoll zu vermitteln.

            Auch Spezialisten können bestenfalls in Einzelfällen nachvollziehen, wie welche Antwort zu welchem Zeitpunkt zustande kam. Natürlich ist das alles deterministische Mathematik. Aber mit so vielen Variablen, dass es im Regelfall nicht deterministisch überprüft werden kann.

            @AwetTesfaiesus @Chaotica @Lamal

            expertenkommision_cyberunfall@mastodon.socialE This user is from outside of this forum
            expertenkommision_cyberunfall@mastodon.socialE This user is from outside of this forum
            expertenkommision_cyberunfall@mastodon.social
            schrieb zuletzt editiert von
            #101

            @Saupreiss

            Ich bezog mich auf Elektrizität. Die Mathematik wird erst hart, wenn es um Elektronik oder Nachrichtentechnik geht.
            Also zumindest empfand ich das so.

            @AwetTesfaiesus @Chaotica @Lamal

            1 Antwort Letzte Antwort
            0
            • expertenkommision_cyberunfall@mastodon.socialE expertenkommision_cyberunfall@mastodon.social

              @AwetTesfaiesus @Chaotica @Lamal

              Vielleicht hilft es, die Strukturen und Organisationen/Personen "dahinter" zu betrachten.
              KI/AI wird von Personen und Orgas gehypt und überwiegend betrieben, die klare faschistische Strukturen aufzeigen.
              Es ist mehr als gut belegt, dass KI/AI durch das notwendige Training nicht nur die. in den Trainingsdaten vorhandenen Vorurteile erlernt, sondern sogar verfestigt und das Training nur durch Ausbeutung gelingt.

              awettesfaiesus@mastodon.socialA This user is from outside of this forum
              awettesfaiesus@mastodon.socialA This user is from outside of this forum
              awettesfaiesus@mastodon.social
              schrieb zuletzt editiert von
              #102

              @expertenkommision_cyberunfall @Chaotica @Lamal

              Erlaube mir eine Polemik zu früher Stunde zu replizieren, die hier kürzlich ein junges Familienmitglied vorbrachte:

              „Ihr immer mit eurem bequemen Tesla-Haß; wie oft fragt ihr euch eigentlich, wieviel KdF-Wagen in so einem supadupa p.c. ID.3 steckt?“

              Vielleicht anders gesagt: wieviel Kaiserreich steckt eigentlich jetzt noch (de lege lata) in unserem Staat.

              expertenkommision_cyberunfall@mastodon.socialE 1 Antwort Letzte Antwort
              0
              • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                @Saupreiss das fasst weite Teile des Jurastudiums in Deutschland auch ganz gut zusammen

                saupreiss@pfalz.socialS This user is from outside of this forum
                saupreiss@pfalz.socialS This user is from outside of this forum
                saupreiss@pfalz.social
                schrieb zuletzt editiert von
                #103

                @AwetTesfaiesus

                Früher™ wäre recht wenig Werbung für blaue Tabletten in deinem Briefkasten gelandet: Der Ertrag hätte die hohen Kosten nicht aufgefangen. Mit der E-Mail kam es bekanntlich anders; Kosten der Abwehr derartiger Produktinformation übersteigt regelmäßig jene ordnungsgemäßer Lieferungen.

                Ähnlich verhält sich das mit dem Lernen. Natürlich ist ein Schlüter keine sakrosankte Bibel. Aber er bildet einen gewissen Konsens ab. Man kann viele Schlüters mit wenig Aufwand machen…

                1 Antwort Letzte Antwort
                0
                • chaotica@nrw.socialC chaotica@nrw.social

                  @AwetTesfaiesus
                  Ich finde die Analogie zur Alphabetisierung recht hilfreich.
                  Meine Bank zB kann mir - selbst auf Nachfrage in der technischen Abteilung - nicht präzise erklären, wie mein Kreditscore zustande kommt. „Der Computer“ spuckt halt eine Zahl aus und die wird dann geglaubt.
                  Da ist kein wesentlicher Unterschied mehr zu „Priester liest aus Buch vor und man muss das einfach glauben.“
                  @Lamal

                  kinghaunst@augsburg.socialK This user is from outside of this forum
                  kinghaunst@augsburg.socialK This user is from outside of this forum
                  kinghaunst@augsburg.social
                  schrieb zuletzt editiert von
                  #104

                  @Chaotica
                  GIGO - Garbage In, Garbage Out

                  Aber es hilft nix, selbst wenn Du zweifelsfrei beweisen kannst dass der Computer Müll produziert hat wird daran festgehalten.

                  @AwetTesfaiesus @Lamal

                  1 Antwort Letzte Antwort
                  0
                  • G gormfull@mastodon.social

                    @AwetTesfaiesus @odrotbohm @marcuwekling

                    Wenn 50% falsch sind bei > 3Monaten bearbeitungszeit, wäre dann nicht ein System mit 50% Fehleranfälligkeit und 1 Minute Bearbeitung das bessere System? z.B. Münzwurf oder Würfel?
                    Woher nimmst du die Annahme, dass das LLM nur 20% Fehleranfällig wäre? Es hat doch lediglich die bisherigen Daten als Grundlage. Und falls 50% falsch sind, dann sind ja auch (im Schnitt) 50% der Revisionen falsch. Es gibt also keine besseren Daten.

                    awettesfaiesus@mastodon.socialA This user is from outside of this forum
                    awettesfaiesus@mastodon.socialA This user is from outside of this forum
                    awettesfaiesus@mastodon.social
                    schrieb zuletzt editiert von
                    #105

                    @Gormfull @odrotbohm @marcuwekling trainierst du mit den Bescheiden oder mit den Urteilen, die sie aufheben?

                    G 2 Antworten Letzte Antwort
                    0
                    • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                      @odrotbohm @marcuwekling

                      "ausschließen" ist ein absoluter Begriff.

                      Aber: wenn Deine Fehlerquote bei den Leistungsbescheiden bei 50% liegt (und die Bearbeitungszeit bei > 3 Monaten), dann scheint es mir berechtigt zu fragen:

                      Wäre eine Fehlerquote on 20% bei einer Bearbeitungsdauer von 30 Minuten nicht das bessere System?

                      reinald@nrw.socialR This user is from outside of this forum
                      reinald@nrw.socialR This user is from outside of this forum
                      reinald@nrw.social
                      schrieb zuletzt editiert von
                      #106

                      @AwetTesfaiesus @odrotbohm @marcuwekling zumal: man könnte ja durchaus ein LLM auf Gesetzestexten trainieren. Dass dann "einfach" gesetzeskonforme Bescheide erlässt. Statt unzulässig Entscheidungen zu treffen, die dann per Gericht bereinigt werden müssen.

                      awettesfaiesus@mastodon.socialA 1 Antwort Letzte Antwort
                      0
                      • reinald@nrw.socialR reinald@nrw.social

                        @AwetTesfaiesus @odrotbohm @marcuwekling zumal: man könnte ja durchaus ein LLM auf Gesetzestexten trainieren. Dass dann "einfach" gesetzeskonforme Bescheide erlässt. Statt unzulässig Entscheidungen zu treffen, die dann per Gericht bereinigt werden müssen.

                        awettesfaiesus@mastodon.socialA This user is from outside of this forum
                        awettesfaiesus@mastodon.socialA This user is from outside of this forum
                        awettesfaiesus@mastodon.social
                        schrieb zuletzt editiert von
                        #107

                        @Reinald @odrotbohm @marcuwekling age old dream

                        reinald@nrw.socialR 1 Antwort Letzte Antwort
                        0
                        • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                          In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen. @marcuwekling sagte am Montag bei der Lesung Ähnliches.

                          Dazu:
                          1️⃣In der juristischen Ausbildung lernst du, dass 50-70% der Verwaltungsakt falsch sind. Default: falsch!
                          2️⃣Dazu: in meiner Schulzeit waren Atlanten/Karten immer falsch (DDR drin, teils Saarland draußen, Jugoslawien komplett). Ich habe nicht gehört, dass über Schulen ähnlich gesprochen wird, wie über LLMs. #ki

                          anwagnerdreas@hcommons.socialA This user is from outside of this forum
                          anwagnerdreas@hcommons.socialA This user is from outside of this forum
                          anwagnerdreas@hcommons.social
                          schrieb zuletzt editiert von
                          #108

                          @AwetTesfaiesus Das ist interessant. Man weiß ja, dass ausgerechnet die Anthropomorphisierung - neben der vermuteten "Intelligenz" eines so teuren Systems - zur übermäßigen Vertrauensseligkeit ggü KI beiträgt. Einer der zentralen Aspekte dabei ist das eloquente und konfidente "Auftreten", welches man in KI-Ausgaben sieht. Demgegenüber bringt jede:r menschliche Gesprächspartner:in mit der eigenen Menschlichkeit/Positionalität/Unvollkommenheit immer schon Anlass zum Zweifel mit in die Interaktion.

                          Ich bin also noch nicht überzeugt, dass wir KI ggü tatsächlich kritischer als Menschen ggü sind. Ich glaube, Laien neigen zu Vertrauen in konfidentes, eloquentes Auftreten - wie es in den Textsorten begegnet, die Du nennst - gleichermaßen.

                          Spannend finde ich die (KI-unabhängigen) Fragen, ob es erstens eine empirisch höhere Wahrscheinlichkeit der tatsächlichen Unwahrheit eloquenter Aussagen und zweitens eine mit der Ausbildung zur Jurist:in eingeübte Immunität ggü Eloquenz und Konfidenz gibt.

                          awettesfaiesus@mastodon.socialA 2 Antworten Letzte Antwort
                          0
                          • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                            @expertenkommision_cyberunfall @Chaotica @Lamal

                            Erlaube mir eine Polemik zu früher Stunde zu replizieren, die hier kürzlich ein junges Familienmitglied vorbrachte:

                            „Ihr immer mit eurem bequemen Tesla-Haß; wie oft fragt ihr euch eigentlich, wieviel KdF-Wagen in so einem supadupa p.c. ID.3 steckt?“

                            Vielleicht anders gesagt: wieviel Kaiserreich steckt eigentlich jetzt noch (de lege lata) in unserem Staat.

                            expertenkommision_cyberunfall@mastodon.socialE This user is from outside of this forum
                            expertenkommision_cyberunfall@mastodon.socialE This user is from outside of this forum
                            expertenkommision_cyberunfall@mastodon.social
                            schrieb zuletzt editiert von
                            #109

                            @AwetTesfaiesus

                            Na, dann frag lieber nicht wieviel von den Menschenversuchen der Nazis in Medizin stecken.

                            Was aus dem Kaiserreich in unserem Staat steckt? Vieles was durch solidarische, linksgelesene Strukturen im Kaiserreich erkämpft wurde, aber auch vieles, was Konservative konservieren wollten.
                            Die Bundesrepublik war eine Befreiung, keine Revolution.

                            @Chaotica @Lamal

                            1 Antwort Letzte Antwort
                            0
                            • G gormfull@mastodon.social

                              @AwetTesfaiesus @odrotbohm @marcuwekling

                              Wenn 50% falsch sind bei > 3Monaten bearbeitungszeit, wäre dann nicht ein System mit 50% Fehleranfälligkeit und 1 Minute Bearbeitung das bessere System? z.B. Münzwurf oder Würfel?
                              Woher nimmst du die Annahme, dass das LLM nur 20% Fehleranfällig wäre? Es hat doch lediglich die bisherigen Daten als Grundlage. Und falls 50% falsch sind, dann sind ja auch (im Schnitt) 50% der Revisionen falsch. Es gibt also keine besseren Daten.

                              G This user is from outside of this forum
                              G This user is from outside of this forum
                              gormfull@mastodon.social
                              schrieb zuletzt editiert von
                              #110

                              @AwetTesfaiesus @odrotbohm @marcuwekling

                              Ausserdem gibt es da das Problem mit alpha und beta- Fehlern ( false-negative und false-positive).
                              Da es sehr wenige Klagen gegen positive Bescheide geben wird, wissen wir über die false-positives gar nichts, bzw. Sind der Annahme, dass da kaum Fehler gemacht werden. Eine “vernünftige” KI oder Mitarbeiter*in würde schnell auf den Trichter kommen, dass alle positiv-Bescheide “richtig” sind.

                              1 Antwort Letzte Antwort
                              0
                              • G gormfull@mastodon.social

                                @AwetTesfaiesus @odrotbohm @marcuwekling

                                Wenn 50% falsch sind bei > 3Monaten bearbeitungszeit, wäre dann nicht ein System mit 50% Fehleranfälligkeit und 1 Minute Bearbeitung das bessere System? z.B. Münzwurf oder Würfel?
                                Woher nimmst du die Annahme, dass das LLM nur 20% Fehleranfällig wäre? Es hat doch lediglich die bisherigen Daten als Grundlage. Und falls 50% falsch sind, dann sind ja auch (im Schnitt) 50% der Revisionen falsch. Es gibt also keine besseren Daten.

                                G This user is from outside of this forum
                                G This user is from outside of this forum
                                gormfull@mastodon.social
                                schrieb zuletzt editiert von
                                #111

                                @AwetTesfaiesus @odrotbohm @marcuwekling

                                Ausserdem gibt es da das Problem mit alpha und beta- Fehlern ( false-negative und false-positive).
                                Da es sehr wenige Klagen gegen positive Bescheide geben wird, wissen wir über die false-positives gar nichts, bzw. Sind der Annahme, dass da kaum Fehler gemacht werden. Eine “vernünftige” KI oder Mitarbeiter*in würde schnell auf den Trichter kommen, dass alle positiv-Bescheide “richtig” sind.

                                1 Antwort Letzte Antwort
                                0
                                • anwagnerdreas@hcommons.socialA anwagnerdreas@hcommons.social

                                  @AwetTesfaiesus Das ist interessant. Man weiß ja, dass ausgerechnet die Anthropomorphisierung - neben der vermuteten "Intelligenz" eines so teuren Systems - zur übermäßigen Vertrauensseligkeit ggü KI beiträgt. Einer der zentralen Aspekte dabei ist das eloquente und konfidente "Auftreten", welches man in KI-Ausgaben sieht. Demgegenüber bringt jede:r menschliche Gesprächspartner:in mit der eigenen Menschlichkeit/Positionalität/Unvollkommenheit immer schon Anlass zum Zweifel mit in die Interaktion.

                                  Ich bin also noch nicht überzeugt, dass wir KI ggü tatsächlich kritischer als Menschen ggü sind. Ich glaube, Laien neigen zu Vertrauen in konfidentes, eloquentes Auftreten - wie es in den Textsorten begegnet, die Du nennst - gleichermaßen.

                                  Spannend finde ich die (KI-unabhängigen) Fragen, ob es erstens eine empirisch höhere Wahrscheinlichkeit der tatsächlichen Unwahrheit eloquenter Aussagen und zweitens eine mit der Ausbildung zur Jurist:in eingeübte Immunität ggü Eloquenz und Konfidenz gibt.

                                  awettesfaiesus@mastodon.socialA This user is from outside of this forum
                                  awettesfaiesus@mastodon.socialA This user is from outside of this forum
                                  awettesfaiesus@mastodon.social
                                  schrieb zuletzt editiert von
                                  #112

                                  @anwagnerdreas

                                  Ich weiß ja gar nicht, ob es diesen Vertrauensvorschuss gegenüber KI wirklich so gibt.

                                  Was sind eigentlich die Konturen des Unterschieds zu Vertrauensankern, wie:

                                  -Wappen
                                  -Roben
                                  -Gerichtssäle
                                  -Urteilsstil

                                  Alle Jurist:innen lernen doch den Satz „Es ist so und kann nicht anders sein“ im Hinterkopf zu haben, wenn man Urteilsstil schreibt.

                                  kraemer_hb@mastodon.socialK anwagnerdreas@hcommons.socialA 2 Antworten Letzte Antwort
                                  0
                                  • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                                    @Gormfull @odrotbohm @marcuwekling trainierst du mit den Bescheiden oder mit den Urteilen, die sie aufheben?

                                    G This user is from outside of this forum
                                    G This user is from outside of this forum
                                    gormfull@mastodon.social
                                    schrieb zuletzt editiert von
                                    #113

                                    @AwetTesfaiesus @odrotbohm @marcuwekling
                                    Offene Frage. Bestenfalls mit dem Wissen, ob die Entscheidung “richtig” war. Das dürfte der Bescheid sein, wenn es keine Revision gab, oder das Revisionsurteil, wenn es eines gab.
                                    Und hier liegt das Problem: Durch die KI wird lediglich der Filter automatisiert, mit dem ich die Leute ablehne, die keine Verbindungen und Mittel haben. Also wahrscheinlich die Bedürftigeren.

                                    1 Antwort Letzte Antwort
                                    0
                                    • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                                      @Gormfull @odrotbohm @marcuwekling trainierst du mit den Bescheiden oder mit den Urteilen, die sie aufheben?

                                      G This user is from outside of this forum
                                      G This user is from outside of this forum
                                      gormfull@mastodon.social
                                      schrieb zuletzt editiert von
                                      #114

                                      @AwetTesfaiesus @odrotbohm @marcuwekling
                                      Offene Frage. Bestenfalls mit dem Wissen, ob die Entscheidung “richtig” war. Das dürfte der Bescheid sein, wenn es keine Revision gab, oder das Revisionsurteil, wenn es eines gab.
                                      Und hier liegt das Problem: Durch die KI wird lediglich der Filter automatisiert, mit dem ich die Leute ablehne, die keine Verbindungen und Mittel haben. Also wahrscheinlich die Bedürftigeren.

                                      awettesfaiesus@mastodon.socialA 1 Antwort Letzte Antwort
                                      0
                                      • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                                        @Reinald @odrotbohm @marcuwekling age old dream

                                        reinald@nrw.socialR This user is from outside of this forum
                                        reinald@nrw.socialR This user is from outside of this forum
                                        reinald@nrw.social
                                        schrieb zuletzt editiert von
                                        #115

                                        @AwetTesfaiesus @odrotbohm @marcuwekling I know. Trotzdem sind wir der Vision möglicherweise näher denn jehmals, die Textproduktionsautomaten aka LLMs sind da schon ziemlich gut geworden. Man darf natürlich keine offen trainiertes Modell mit all dem Mist aus dem Internet darauf ansetzen. Und mancher Amtsleiter wird seinen gesetzeswidrigen Anordnungen nachtrauern. Für die 95% der Fälle mit klaren Vorraussetzungen sollten auch die Ergebnisse klar sein.

                                        1 Antwort Letzte Antwort
                                        0
                                        • anwagnerdreas@hcommons.socialA anwagnerdreas@hcommons.social

                                          @AwetTesfaiesus Das ist interessant. Man weiß ja, dass ausgerechnet die Anthropomorphisierung - neben der vermuteten "Intelligenz" eines so teuren Systems - zur übermäßigen Vertrauensseligkeit ggü KI beiträgt. Einer der zentralen Aspekte dabei ist das eloquente und konfidente "Auftreten", welches man in KI-Ausgaben sieht. Demgegenüber bringt jede:r menschliche Gesprächspartner:in mit der eigenen Menschlichkeit/Positionalität/Unvollkommenheit immer schon Anlass zum Zweifel mit in die Interaktion.

                                          Ich bin also noch nicht überzeugt, dass wir KI ggü tatsächlich kritischer als Menschen ggü sind. Ich glaube, Laien neigen zu Vertrauen in konfidentes, eloquentes Auftreten - wie es in den Textsorten begegnet, die Du nennst - gleichermaßen.

                                          Spannend finde ich die (KI-unabhängigen) Fragen, ob es erstens eine empirisch höhere Wahrscheinlichkeit der tatsächlichen Unwahrheit eloquenter Aussagen und zweitens eine mit der Ausbildung zur Jurist:in eingeübte Immunität ggü Eloquenz und Konfidenz gibt.

                                          awettesfaiesus@mastodon.socialA This user is from outside of this forum
                                          awettesfaiesus@mastodon.socialA This user is from outside of this forum
                                          awettesfaiesus@mastodon.social
                                          schrieb zuletzt editiert von
                                          #116

                                          @anwagnerdreas 1x1 der Zeugenaussage:
                                          "Frau Richterin, ich bin mir ganz sicher, dass sie das war. Da habe ich keinen Zweifel. Das weiß ich deshalb noch so genau, weil zur gleichen Zeit..."

                                          In meiner Ausbildung hieß es "lügt wie gedruckt" kommt nicht von ungefähr.

                                          anwagnerdreas@hcommons.socialA 1 Antwort Letzte Antwort
                                          0
                                          Antworten
                                          • In einem neuen Thema antworten
                                          Anmelden zum Antworten
                                          • Älteste zuerst
                                          • Neuste zuerst
                                          • Meiste Stimmen



                                          Copyright (c) 2025 abSpecktrum (@abspecklog@fedimonster.de)

                                          Erstellt mit Schlaflosigkeit, Kaffee, Brokkoli & ♥

                                          Impressum | Datenschutzerklärung | Nutzungsbedingungen

                                          • Anmelden

                                          • Du hast noch kein Konto? Registrieren

                                          • Anmelden oder registrieren, um zu suchen
                                          • Erster Beitrag
                                            Letzter Beitrag
                                          0
                                          • Home
                                          • Aktuell
                                          • Tags
                                          • Über dieses Forum