Mastodon Skip to content
  • Home
  • Aktuell
  • Tags
  • Über dieses Forum
Einklappen
Grafik mit zwei überlappenden Sprechblasen, eine grün und eine lila.
Abspeckgeflüster – Forum für Menschen mit Gewicht(ung)

Kostenlos. Werbefrei. Menschlich. Dein Abnehmforum.

  1. Home
  2. Uncategorized
  3. In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen.

In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen.

Geplant Angeheftet Gesperrt Verschoben Uncategorized
llms
218 Beiträge 54 Kommentatoren 0 Aufrufe
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

    Konkret: Ich könnte mir vorstellen, dass in dieser (!) konkreten Herangehensweisen an KI viel Coping steckt. Lügen wir uns hier kollektiv in die eigene (intellektuelle) Tasche?

    Oder pfeifen wir hier sogar schon verzweifelt im Walde?

    Liege ich komplett falsch?

    heptasean@social.tchncs.deH This user is from outside of this forum
    heptasean@social.tchncs.deH This user is from outside of this forum
    heptasean@social.tchncs.de
    schrieb zuletzt editiert von
    #54

    @AwetTesfaiesus Hmm. Also, ja, natürlich machen auch Menschen Fehler, viele Fehler. Und ich glaube auch nicht, dass das generell selten gesehen wird. Mit einer gehörigen Portion Bias gibt es für jedes Thema und für jede Gruppe andere Menschen, die die Fehler dort schon immer und überall gesehen haben (und dabei dann selbst wieder Fehler machen).

    Und einige Menschen konnten auch schon immer Fehler und im Weiteren das Reden über Dinge, von denen sie eigentlich nicht so viel Ahnung haben, durch kluge Verpackung verdecken und damit erstaunlich gut durchkommen.

    LLMs machen es „nur“ sehr einfach, dass jetzt sehr viele Menschen sehr schnell sehr viele (oft erschreckenderweise sogar für die Ersteller*innen selbst) plausibel klingende Texte erzeugen können.

    heptasean@social.tchncs.deH 1 Antwort Letzte Antwort
    0
    • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

      @coastgnu

      Dann haben wir wohl nicht denselben Horizont. Aus einer Akte von mir:

      "Die Antragstellerin ist insoweit zur Mitwirkung verpflichtet. Vor diesem Hintergrund ist es schlechterdings nicht nachvollziehbar, warum sich die Antragstellerin angeblich nicht auf eine 300km lange Reise durch das IS-Gebiet begibt, um ihre Geburts- und Diplomurkunde persönlich in Rakka holen. Sie könnte ja auch ihre derzeit in Camp in der Türkei lebende Schwester schicken."

      coastgnu@norden.socialC This user is from outside of this forum
      coastgnu@norden.socialC This user is from outside of this forum
      coastgnu@norden.social
      schrieb zuletzt editiert von
      #55

      @AwetTesfaiesus

      🤯 mir krampft sich gerade der Magen

      Weia, haben wir wirklich nicht, muss ich zugeben. Und solch eine Anordnung hat Bestand?

      Da wäre ja selbst eine 300km Fahrt als Geisterfahrer, im Ferienverkehr auf der A1, noch weniger riskant!

      So etwas hätte ich bis jetzt für vollkommen ausgeschlossen gehalten. Bin erschüttert, aber so was von!

      awettesfaiesus@mastodon.socialA 1 Antwort Letzte Antwort
      0
      • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

        Konkret: Ich könnte mir vorstellen, dass in dieser (!) konkreten Herangehensweisen an KI viel Coping steckt. Lügen wir uns hier kollektiv in die eigene (intellektuelle) Tasche?

        Oder pfeifen wir hier sogar schon verzweifelt im Walde?

        Liege ich komplett falsch?

        chaotica@nrw.socialC This user is from outside of this forum
        chaotica@nrw.socialC This user is from outside of this forum
        chaotica@nrw.social
        schrieb zuletzt editiert von
        #56

        @AwetTesfaiesus
        Der wesentliche Unterschied besteht in meinen Augen in der Geschwindigkeit.
        Bisher war es schon so, dass das Debunking einer Falschaussage 10x so lang gebraucht hat.

        Die Geschwindigkeit mit der LLM Texte produzieren macht eine Kontrolle oder Überprüfung endgültig völlig unmöglich.

        awettesfaiesus@mastodon.socialA lamal@ruhr.socialL 2 Antworten Letzte Antwort
        0
        • coastgnu@norden.socialC coastgnu@norden.social

          @AwetTesfaiesus

          🤯 mir krampft sich gerade der Magen

          Weia, haben wir wirklich nicht, muss ich zugeben. Und solch eine Anordnung hat Bestand?

          Da wäre ja selbst eine 300km Fahrt als Geisterfahrer, im Ferienverkehr auf der A1, noch weniger riskant!

          So etwas hätte ich bis jetzt für vollkommen ausgeschlossen gehalten. Bin erschüttert, aber so was von!

          awettesfaiesus@mastodon.socialA This user is from outside of this forum
          awettesfaiesus@mastodon.socialA This user is from outside of this forum
          awettesfaiesus@mastodon.social
          schrieb zuletzt editiert von
          #57

          @coastgnu Oft.

          1 Antwort Letzte Antwort
          0
          • chaotica@nrw.socialC chaotica@nrw.social

            @AwetTesfaiesus
            Der wesentliche Unterschied besteht in meinen Augen in der Geschwindigkeit.
            Bisher war es schon so, dass das Debunking einer Falschaussage 10x so lang gebraucht hat.

            Die Geschwindigkeit mit der LLM Texte produzieren macht eine Kontrolle oder Überprüfung endgültig völlig unmöglich.

            awettesfaiesus@mastodon.socialA This user is from outside of this forum
            awettesfaiesus@mastodon.socialA This user is from outside of this forum
            awettesfaiesus@mastodon.social
            schrieb zuletzt editiert von
            #58

            @Chaotica Sicher korrekt

            chaotica@nrw.socialC 1 Antwort Letzte Antwort
            0
            • heptasean@social.tchncs.deH heptasean@social.tchncs.de

              @AwetTesfaiesus Hmm. Also, ja, natürlich machen auch Menschen Fehler, viele Fehler. Und ich glaube auch nicht, dass das generell selten gesehen wird. Mit einer gehörigen Portion Bias gibt es für jedes Thema und für jede Gruppe andere Menschen, die die Fehler dort schon immer und überall gesehen haben (und dabei dann selbst wieder Fehler machen).

              Und einige Menschen konnten auch schon immer Fehler und im Weiteren das Reden über Dinge, von denen sie eigentlich nicht so viel Ahnung haben, durch kluge Verpackung verdecken und damit erstaunlich gut durchkommen.

              LLMs machen es „nur“ sehr einfach, dass jetzt sehr viele Menschen sehr schnell sehr viele (oft erschreckenderweise sogar für die Ersteller*innen selbst) plausibel klingende Texte erzeugen können.

              heptasean@social.tchncs.deH This user is from outside of this forum
              heptasean@social.tchncs.deH This user is from outside of this forum
              heptasean@social.tchncs.de
              schrieb zuletzt editiert von
              #59

              @AwetTesfaiesus Würde das Problem einerseits eher dort sehen, wo den Ergebnissen eines LLM *mehr* geglaubt wird als menschlichen Ergebnissen. Habe in den letzten Monaten viel zu oft Dinge wie „Ich hab' mal eben ChatGPT/Claude/Grok gefragt: …“ gelesen.

              Andererseits in der schieren Menge qualitativ zweifelhafter Inhalte, die da mit wenig Aufwand und geringem Nutzen produziert werden, die halt noch mal anstrengender machen zu sortieren, zu bewerten, zu widersprechen, als es ohnehin schon war.

              1 Antwort Letzte Antwort
              0
              • awettesfaiesus@mastodon.socialA This user is from outside of this forum
                awettesfaiesus@mastodon.socialA This user is from outside of this forum
                awettesfaiesus@mastodon.social
                schrieb zuletzt editiert von
                #60

                @odrotbohm @marcuwekling

                Ad extremum: Wenn das Amt die Weisung ausgibt, alle Entscheide falsch ergehen zu lassen (so häufig im Migrationsrecht, aber auch im Steuerrecht), ist diese Entscheidung immerhin "Verlässlich", oder?

                Halt "verlässlich falsch", aber verlässlich.

                1 Antwort Letzte Antwort
                0
                • awettesfaiesus@mastodon.socialA This user is from outside of this forum
                  awettesfaiesus@mastodon.socialA This user is from outside of this forum
                  awettesfaiesus@mastodon.social
                  schrieb zuletzt editiert von
                  #61

                  @odrotbohm @marcuwekling

                  Halte ich überhaupt nicht für schlüssig. Ein Beispiel:

                  Die Beschränkung des Familiennachzugs für syr. Geflüchtet war in allen Fällen rechtlich falsch. Sie war aber politisch vorgegeben.

                  Quasi alle Klagen dagegen waren erfolgreich.

                  Aber nur etwa 30% haben überhaupt geklagt. Heißt: 70% haben es hingenommen. Gerichte trotzdem abgesoffen.

                  Ein LLM hätte das m.E. mit großer Wahrscheinlichkeit weniger falsch gehandhabt.

                  1 Antwort Letzte Antwort
                  0
                  • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                    @Chaotica Sicher korrekt

                    chaotica@nrw.socialC This user is from outside of this forum
                    chaotica@nrw.socialC This user is from outside of this forum
                    chaotica@nrw.social
                    schrieb zuletzt editiert von
                    #62

                    @AwetTesfaiesus
                    Und ich bin gar nicht grundsätzlich gegen Technik und KI.

                    Ich finde nur, sie sollte dem Menschen dienen.

                    Statt selbst fahrende Autos hätte ich lieber eine Spülmaschine, die sich selbst ein- und ausräumt.

                    Und LLM/KI sollte nicht kreative Aufgaben übernehmen, sondern die Menschen von öden Jobs entlasten, wo es nur um die Anwendung von Regelsätzen geht.
                    Oder Analyse von richtig großen Datenmengen zB in der Medizin.

                    falk@mastodon.onlineF 1 Antwort Letzte Antwort
                    0
                    • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                      In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen. @marcuwekling sagte am Montag bei der Lesung Ähnliches.

                      Dazu:
                      1️⃣In der juristischen Ausbildung lernst du, dass 50-70% der Verwaltungsakt falsch sind. Default: falsch!
                      2️⃣Dazu: in meiner Schulzeit waren Atlanten/Karten immer falsch (DDR drin, teils Saarland draußen, Jugoslawien komplett). Ich habe nicht gehört, dass über Schulen ähnlich gesprochen wird, wie über LLMs. #ki

                      A This user is from outside of this forum
                      A This user is from outside of this forum
                      anpa2112@mastodon.social
                      schrieb zuletzt editiert von
                      #63

                      @AwetTesfaiesus @marcuwekling Wer bitte kennt die Abkürzung LLM ?

                      1 Antwort Letzte Antwort
                      0
                      • awettesfaiesus@mastodon.socialA This user is from outside of this forum
                        awettesfaiesus@mastodon.socialA This user is from outside of this forum
                        awettesfaiesus@mastodon.social
                        schrieb zuletzt editiert von
                        #64

                        @odrotbohm @marcuwekling

                        Das empfinde ich auch so, aber: warum nehmen wir hin, dass eine menschliche Struktur mit krassen Fehlerquoten entscheidet?

                        odrotbohm@chaos.socialO 1 Antwort Letzte Antwort
                        0
                        • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                          @sascha @marcuwekling

                          Aber: ähnliche Anekdoten kann ich Dir von Menschen erzählen.

                          Da sehen mich die Leute in einer Kirche, hören, dass ich Gemeindemitglied bin, ... und sagen mir anschließend: Toll, dass Sie als Muslima zu unserem Gottesdienst kommen.
                          🤷‍♀️

                          sascha@fedinaut.deS This user is from outside of this forum
                          sascha@fedinaut.deS This user is from outside of this forum
                          sascha@fedinaut.de
                          schrieb zuletzt editiert von
                          #65
                          @marcuwekling @AwetTesfaiesus Gefährliches Halbwissen...
                          awettesfaiesus@mastodon.socialA 1 Antwort Letzte Antwort
                          0
                          • sascha@fedinaut.deS sascha@fedinaut.de
                            @marcuwekling @AwetTesfaiesus Gefährliches Halbwissen...
                            awettesfaiesus@mastodon.socialA This user is from outside of this forum
                            awettesfaiesus@mastodon.socialA This user is from outside of this forum
                            awettesfaiesus@mastodon.social
                            schrieb zuletzt editiert von
                            #66

                            @sascha @marcuwekling Ignoranz?

                            sascha@fedinaut.deS 1 Antwort Letzte Antwort
                            0
                            • awettesfaiesus@mastodon.socialA This user is from outside of this forum
                              awettesfaiesus@mastodon.socialA This user is from outside of this forum
                              awettesfaiesus@mastodon.social
                              schrieb zuletzt editiert von
                              #67

                              @odrotbohm @marcuwekling

                              "ausschließen" ist ein absoluter Begriff.

                              Aber: wenn Deine Fehlerquote bei den Leistungsbescheiden bei 50% liegt (und die Bearbeitungszeit bei > 3 Monaten), dann scheint es mir berechtigt zu fragen:

                              Wäre eine Fehlerquote on 20% bei einer Bearbeitungsdauer von 30 Minuten nicht das bessere System?

                              odrotbohm@chaos.socialO saupreiss@pfalz.socialS G reinald@nrw.socialR 5 Antworten Letzte Antwort
                              0
                              • chaotica@nrw.socialC chaotica@nrw.social

                                @AwetTesfaiesus
                                Und ich bin gar nicht grundsätzlich gegen Technik und KI.

                                Ich finde nur, sie sollte dem Menschen dienen.

                                Statt selbst fahrende Autos hätte ich lieber eine Spülmaschine, die sich selbst ein- und ausräumt.

                                Und LLM/KI sollte nicht kreative Aufgaben übernehmen, sondern die Menschen von öden Jobs entlasten, wo es nur um die Anwendung von Regelsätzen geht.
                                Oder Analyse von richtig großen Datenmengen zB in der Medizin.

                                falk@mastodon.onlineF This user is from outside of this forum
                                falk@mastodon.onlineF This user is from outside of this forum
                                falk@mastodon.online
                                schrieb zuletzt editiert von
                                #68

                                @Chaotica @AwetTesfaiesus Es ist halt lukrativer, Milliarden Klaus’ und Dörtes ein Tool zu gebe, mit dem sie lustige Bildchen für ihre WhatsApp Gruppe machen können (und deren Input dann via Profiling zu versilbern) oder „intelligente“ Waffen zu verkaufen, als etwas für finanzklamme Medizinprojekte zu bauen.

                                chaotica@nrw.socialC 1 Antwort Letzte Antwort
                                0
                                • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                                  @odrotbohm @marcuwekling

                                  Das empfinde ich auch so, aber: warum nehmen wir hin, dass eine menschliche Struktur mit krassen Fehlerquoten entscheidet?

                                  odrotbohm@chaos.socialO This user is from outside of this forum
                                  odrotbohm@chaos.socialO This user is from outside of this forum
                                  odrotbohm@chaos.social
                                  schrieb zuletzt editiert von
                                  #69

                                  @AwetTesfaiesus @marcuwekling Ich empfinde das nicht so. Wir leben in einem System mit eingebauten Korrekturmechanismen und um deren Qualität wird in Politik und Gesellschaft gestritten um diese kontinuierlich zu verbessern und dazu kann man sicher auch Technolgie nutzen. Technologie, die den Status Quo jedoch nur manifestiert und die Verbesserungsmöglichkeiten weitestgehend in die Hände einiger weniger, nicht gesellschaftlich Legitimierter legt, ist da IMO eben kritisch(er) zu betrachten.

                                  awettesfaiesus@mastodon.socialA 1 Antwort Letzte Antwort
                                  0
                                  • odrotbohm@chaos.socialO odrotbohm@chaos.social

                                    @AwetTesfaiesus @marcuwekling Ich empfinde das nicht so. Wir leben in einem System mit eingebauten Korrekturmechanismen und um deren Qualität wird in Politik und Gesellschaft gestritten um diese kontinuierlich zu verbessern und dazu kann man sicher auch Technolgie nutzen. Technologie, die den Status Quo jedoch nur manifestiert und die Verbesserungsmöglichkeiten weitestgehend in die Hände einiger weniger, nicht gesellschaftlich Legitimierter legt, ist da IMO eben kritisch(er) zu betrachten.

                                    awettesfaiesus@mastodon.socialA This user is from outside of this forum
                                    awettesfaiesus@mastodon.socialA This user is from outside of this forum
                                    awettesfaiesus@mastodon.social
                                    schrieb zuletzt editiert von
                                    #70

                                    @odrotbohm @marcuwekling

                                    Verstehe ich richtig: "Wenn Palantir.AI das Sozialamt betreibt, wäre sicher nichts gewonnen"?

                                    1 Antwort Letzte Antwort
                                    0
                                    • lamal@ruhr.socialL lamal@ruhr.social

                                      @Chaotica
                                      Flood the zone with shit?
                                      Auch ein Problem, aber wie Du selbst sagst, braucht die "Wahrheit" viel mehr Ressourcen, weil Lügen leichter produziert werden.
                                      Das eigentliche Problem sehe ich in der Verantwortung. Böswillige Nutzer _wollen_ Lügen produzieren, wenn aber die AI mit x% falschen/fehlerhaften Datensätzen trainiert wurde, werden für alle User fehlerhafte Antworten produziert.
                                      @AwetTesfaiesus

                                      lamal@ruhr.socialL This user is from outside of this forum
                                      lamal@ruhr.socialL This user is from outside of this forum
                                      lamal@ruhr.social
                                      schrieb zuletzt editiert von
                                      #71

                                      @Chaotica
                                      Wer soll dafür verantwortlich sein?
                                      Was sind die sozialen Implikationen einer technischen Entwicklung?
                                      Ich habe immer mehr das Gefühl, dass "wir" von ChatGPT, Gemini aber auch Temu oder Primark so begeistert sind, weil sie uns ebenso faszinieren und begeistern wie vom Himmel fallende Holzkisten oder Glasperlen.
                                      @AwetTesfaiesus

                                      awettesfaiesus@mastodon.socialA 1 Antwort Letzte Antwort
                                      0
                                      • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                                        @odrotbohm @marcuwekling

                                        "ausschließen" ist ein absoluter Begriff.

                                        Aber: wenn Deine Fehlerquote bei den Leistungsbescheiden bei 50% liegt (und die Bearbeitungszeit bei > 3 Monaten), dann scheint es mir berechtigt zu fragen:

                                        Wäre eine Fehlerquote on 20% bei einer Bearbeitungsdauer von 30 Minuten nicht das bessere System?

                                        odrotbohm@chaos.socialO This user is from outside of this forum
                                        odrotbohm@chaos.socialO This user is from outside of this forum
                                        odrotbohm@chaos.social
                                        schrieb zuletzt editiert von
                                        #72

                                        @AwetTesfaiesus @marcuwekling Das würde ich grundsätzlich auch so sehen, wären da nicht die anderen Faktoren wie gesellschaftliche Legitimation, Steuerbarkeit, Ressourcenverbrauch. Ich wollte nur darauf hinaus, dass es IMO nicht so ist, dass die Fehleranfälligkeit von menschengetriebenen Prozessen nicht problematisiert wird. Es gibt nur Arten und Weisen, diese anzugehen, die selbst weniger problembehaftet sind als KI. IT-getriebene Automatisierung gibt es ja nicht erst seit OpenAI.

                                        1 Antwort Letzte Antwort
                                        0
                                        • chaotica@nrw.socialC chaotica@nrw.social

                                          @AwetTesfaiesus
                                          Der wesentliche Unterschied besteht in meinen Augen in der Geschwindigkeit.
                                          Bisher war es schon so, dass das Debunking einer Falschaussage 10x so lang gebraucht hat.

                                          Die Geschwindigkeit mit der LLM Texte produzieren macht eine Kontrolle oder Überprüfung endgültig völlig unmöglich.

                                          lamal@ruhr.socialL This user is from outside of this forum
                                          lamal@ruhr.socialL This user is from outside of this forum
                                          lamal@ruhr.social
                                          schrieb zuletzt editiert von
                                          #73

                                          @Chaotica
                                          Flood the zone with shit?
                                          Auch ein Problem, aber wie Du selbst sagst, braucht die "Wahrheit" viel mehr Ressourcen, weil Lügen leichter produziert werden.
                                          Das eigentliche Problem sehe ich in der Verantwortung. Böswillige Nutzer _wollen_ Lügen produzieren, wenn aber die AI mit x% falschen/fehlerhaften Datensätzen trainiert wurde, werden für alle User fehlerhafte Antworten produziert.
                                          @AwetTesfaiesus

                                          lamal@ruhr.socialL 1 Antwort Letzte Antwort
                                          0
                                          Antworten
                                          • In einem neuen Thema antworten
                                          Anmelden zum Antworten
                                          • Älteste zuerst
                                          • Neuste zuerst
                                          • Meiste Stimmen



                                          Copyright (c) 2025 abSpecktrum (@abspecklog@fedimonster.de)

                                          Erstellt mit Schlaflosigkeit, Kaffee, Brokkoli & ♥

                                          Impressum | Datenschutzerklärung | Nutzungsbedingungen

                                          • Anmelden

                                          • Du hast noch kein Konto? Registrieren

                                          • Anmelden oder registrieren, um zu suchen
                                          • Erster Beitrag
                                            Letzter Beitrag
                                          0
                                          • Home
                                          • Aktuell
                                          • Tags
                                          • Über dieses Forum