Mastodon Skip to content
  • Home
  • Aktuell
  • Tags
  • Über dieses Forum
Einklappen
Grafik mit zwei überlappenden Sprechblasen, eine grün und eine lila.
Abspeckgeflüster – Forum für Menschen mit Gewicht(ung)

Kostenlos. Werbefrei. Menschlich. Dein Abnehmforum.

  1. Home
  2. Uncategorized
  3. In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen.

In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen.

Geplant Angeheftet Gesperrt Verschoben Uncategorized
llms
218 Beiträge 54 Kommentatoren 0 Aufrufe
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

    Konkret: Ich könnte mir vorstellen, dass in dieser (!) konkreten Herangehensweisen an KI viel Coping steckt. Lügen wir uns hier kollektiv in die eigene (intellektuelle) Tasche?

    Oder pfeifen wir hier sogar schon verzweifelt im Walde?

    Liege ich komplett falsch?

    malte@anticapitalist.partyM This user is from outside of this forum
    malte@anticapitalist.partyM This user is from outside of this forum
    malte@anticapitalist.party
    schrieb zuletzt editiert von
    #150

    @AwetTesfaiesus ein gegenargument wäre, dass verwaltungsakte unter anderem wegen verschiedenster ismen mit absicht falsch ausgeführt werden, und es gefährlich ist, diese zu industrialisieren.

    zum anderen haben llms ganz neue unknown unkowns wie dinge schiefgehen können, und die tatsache, dass schon mehrere menschen direkt durch die verwendung von llms und ais gestorben sind, ist meiner meinung nach grund genug, ...

    malte@anticapitalist.partyM awettesfaiesus@mastodon.socialA 2 Antworten Letzte Antwort
    0
    • malte@anticapitalist.partyM malte@anticapitalist.party

      @AwetTesfaiesus ein gegenargument wäre, dass verwaltungsakte unter anderem wegen verschiedenster ismen mit absicht falsch ausgeführt werden, und es gefährlich ist, diese zu industrialisieren.

      zum anderen haben llms ganz neue unknown unkowns wie dinge schiefgehen können, und die tatsache, dass schon mehrere menschen direkt durch die verwendung von llms und ais gestorben sind, ist meiner meinung nach grund genug, ...

      malte@anticapitalist.partyM This user is from outside of this forum
      malte@anticapitalist.partyM This user is from outside of this forum
      malte@anticapitalist.party
      schrieb zuletzt editiert von
      #151

      @AwetTesfaiesus ... sie wie andere experimentelle technologien, nur in klar abgesteckten räumen einzusetzen.

      1 Antwort Letzte Antwort
      0
      • ascendor@social.tchncs.deA ascendor@social.tchncs.de

        @AwetTesfaiesus OK, und was beweist das? Natürlich ist es wahrscheinlich, dass in menschlichen Texten Wörter wahrscheinlich auf andere Wörter folgen. Nur haben die Menschen diese Wörter nicht aufgrund von Wahrscheinlichkeitsberechnungen aneinander gereiht, sondern weil sie nachgedacht haben und die Worte einen semantischen Sinn ergeben haben.
        Die Wahrscheinlichkeit, die die KI benutzt, ist also gerade dadurch entstanden, dass sie Texte zum Training verwendet hat, die von Menschen erzeugt wurden. Daher WIRKT es, als wäre die KI eine Intelligenz. Ist sie aber nicht. Sie denkt nicht nach, sie reiht nur Wörter aufgrund von Wahrscheinlichkeiten aneinander.

        awettesfaiesus@mastodon.socialA This user is from outside of this forum
        awettesfaiesus@mastodon.socialA This user is from outside of this forum
        awettesfaiesus@mastodon.social
        schrieb zuletzt editiert von
        #152

        @Ascendor Das soll sagen: Scheinplausibilität wird oft hingenommen. Warum ist es für uns ein Skandal, dass KI das auch macht?

        ascendor@social.tchncs.deA 1 Antwort Letzte Antwort
        0
        • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

          @Ascendor Das soll sagen: Scheinplausibilität wird oft hingenommen. Warum ist es für uns ein Skandal, dass KI das auch macht?

          ascendor@social.tchncs.deA This user is from outside of this forum
          ascendor@social.tchncs.deA This user is from outside of this forum
          ascendor@social.tchncs.de
          schrieb zuletzt editiert von
          #153

          @AwetTesfaiesus und da habe ich meine Erklärung für oben hingeschrieben.

          1 Antwort Letzte Antwort
          0
          • malte@anticapitalist.partyM malte@anticapitalist.party

            @AwetTesfaiesus ein gegenargument wäre, dass verwaltungsakte unter anderem wegen verschiedenster ismen mit absicht falsch ausgeführt werden, und es gefährlich ist, diese zu industrialisieren.

            zum anderen haben llms ganz neue unknown unkowns wie dinge schiefgehen können, und die tatsache, dass schon mehrere menschen direkt durch die verwendung von llms und ais gestorben sind, ist meiner meinung nach grund genug, ...

            awettesfaiesus@mastodon.socialA This user is from outside of this forum
            awettesfaiesus@mastodon.socialA This user is from outside of this forum
            awettesfaiesus@mastodon.social
            schrieb zuletzt editiert von
            #154

            @malte

            Die "unknown unknowns" sind sicher valide.

            Die "Industrialisierung"... nichts anderes passiert in der Verwaltung doch seit Jahrzehnten.

            malte@anticapitalist.partyM 1 Antwort Letzte Antwort
            0
            • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

              @Aubrieta @oldperl

              Auf welcher Schule warst Du denn? Dass etwa Landkarten falsch sind, war bei uns default.

              aubrieta@social.tchncs.deA This user is from outside of this forum
              aubrieta@social.tchncs.deA This user is from outside of this forum
              aubrieta@social.tchncs.de
              schrieb zuletzt editiert von
              #155

              @AwetTesfaiesus
              Gymnasium während der 2000er.
              Wir hatten nen Diercke Atlas, aber wenig länderspezifisch damit gearbeitet. Eher mit den Klimakarten und den Vegetationszonen etc.
              Später hatte ich geography wg. bilingualem Unterricht, dafür gab es kein klassisches Lehrbuch.

              Ich erinnere mich nur, dass die Erdkunde-Leute irgendwas zu Fruchtfolgen lernen mussten, so als gäbe es noch Kartoffelferien.
              An falsche Landkarten erinnere ich mich nicht.
              In der Zeit war aber auch nicht so viel Umbruch in lehrplanrelevanten Regionen. Könnte also auch ein "Jahrzehnt"-assoziiertes Problem sein.

              @oldperl

              ottilie_katz@troet.cafeO 1 Antwort Letzte Antwort
              0
              • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                @SusanneBonn Allein, mir fehlt der Glaube!

                susannebonn@hessen.socialS This user is from outside of this forum
                susannebonn@hessen.socialS This user is from outside of this forum
                susannebonn@hessen.social
                schrieb zuletzt editiert von
                #156

                @AwetTesfaiesus Das gilt derzeit für ziemlich viele wünschenswerte bis dringend nötige Bestrebungen. Aber vielleicht gibt es ja doch noch sinnvollere Möglichkeiten als aufzugeben.

                1 Antwort Letzte Antwort
                0
                • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                  @jlink Sorry! Worin liegt der Unterschied zu menschlichem Lernen tatsächlich und vor allem: was folgt daraus für die Praxis?

                  Glaubst Du nicht, die Mitarbeiter:in auf dem Jobcenter "lernt" nicht auch täglich Dinge, die sie nicht lernen sollte (und wendet sie nachher unzulässig an)?

                  Beispiel in der Praxis: Der Antrag stinkt nach Raucherwohnung. Nirgendwo im SGB steht das, aber ich kenne Menschen, die daraus schließen: "Wer qualmt, säuft auch".

                  reinald@nrw.socialR This user is from outside of this forum
                  reinald@nrw.socialR This user is from outside of this forum
                  reinald@nrw.social
                  schrieb zuletzt editiert von
                  #157

                  @AwetTesfaiesus @jlink ich glaube das Beispiel sofort, und dennoch hinterlässt es bei mir ein "autsch". Jesus und Maria, sollten die Sachbearbeiter da nicht geschult sein, ihre eigenen Vorurteile reflektiert zu erkennen? Wie mag das dann erst bei Namen, Handschrift und Schreibfehlern sein?

                  awettesfaiesus@mastodon.socialA 2 Antworten Letzte Antwort
                  1
                  0
                  • reinald@nrw.socialR reinald@nrw.social

                    @AwetTesfaiesus @jlink ich glaube das Beispiel sofort, und dennoch hinterlässt es bei mir ein "autsch". Jesus und Maria, sollten die Sachbearbeiter da nicht geschult sein, ihre eigenen Vorurteile reflektiert zu erkennen? Wie mag das dann erst bei Namen, Handschrift und Schreibfehlern sein?

                    awettesfaiesus@mastodon.socialA This user is from outside of this forum
                    awettesfaiesus@mastodon.socialA This user is from outside of this forum
                    awettesfaiesus@mastodon.social
                    schrieb zuletzt editiert von
                    #158

                    @Reinald @jlink die sind alle geschult.

                    Sie sind aber auch Menschen.

                    Und für viele Menschen gilt: das Leben ist eine Glockenkurve! Die meisten Leute sind so wie die meisten Leute eben sind!

                    1 Antwort Letzte Antwort
                    0
                    • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                      @oldperl ich denke, meine Frage wird missverstanden. Natürlich sollten wir hinterfragen. Ich frage mich aber: hinterfragen wir menschliche Ergebnisse mit demselben Eifer?

                      andreas_tengicki@hessen.socialA This user is from outside of this forum
                      andreas_tengicki@hessen.socialA This user is from outside of this forum
                      andreas_tengicki@hessen.social
                      schrieb zuletzt editiert von
                      #159

                      @AwetTesfaiesus @oldperl
                      In kurz:

                      Menschen sind Menschen, manipulierbar fehlerhaft.

                      Der Brockhaus/Wikipedia war recherhiert und "wahr".

                      Computer sind/waren Maschinen die etwas deterministisch berechnet haben. Das Ergebnis war quasi "mathematisch richtig" und nachvollziehbar. Man verlässt sich darauf.

                      LLMs liefern statistisch wahrscheinliche Halluzinationen ohne Verständnis von wahr und falsch. Wir unterstellen aber Intelligenz und nutzen es als Lexikon.

                      Ist halt schwierig/falsch.

                      awettesfaiesus@mastodon.socialA 1 Antwort Letzte Antwort
                      0
                      • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                        @jlink Sorry! Worin liegt der Unterschied zu menschlichem Lernen tatsächlich und vor allem: was folgt daraus für die Praxis?

                        Glaubst Du nicht, die Mitarbeiter:in auf dem Jobcenter "lernt" nicht auch täglich Dinge, die sie nicht lernen sollte (und wendet sie nachher unzulässig an)?

                        Beispiel in der Praxis: Der Antrag stinkt nach Raucherwohnung. Nirgendwo im SGB steht das, aber ich kenne Menschen, die daraus schließen: "Wer qualmt, säuft auch".

                        jlink@det.socialJ This user is from outside of this forum
                        jlink@det.socialJ This user is from outside of this forum
                        jlink@det.social
                        schrieb zuletzt editiert von
                        #160

                        @AwetTesfaiesus Der Unterschied ist mMn die menschliche Fähigkeit zur Reflexion. Und dass wir am Ende Rechenschaft ablegen müssen - zumindest manche von uns.

                        awettesfaiesus@mastodon.socialA 1 Antwort Letzte Antwort
                        0
                        • reinald@nrw.socialR reinald@nrw.social

                          @AwetTesfaiesus @jlink ich glaube das Beispiel sofort, und dennoch hinterlässt es bei mir ein "autsch". Jesus und Maria, sollten die Sachbearbeiter da nicht geschult sein, ihre eigenen Vorurteile reflektiert zu erkennen? Wie mag das dann erst bei Namen, Handschrift und Schreibfehlern sein?

                          awettesfaiesus@mastodon.socialA This user is from outside of this forum
                          awettesfaiesus@mastodon.socialA This user is from outside of this forum
                          awettesfaiesus@mastodon.social
                          schrieb zuletzt editiert von
                          #161

                          @Reinald @jlink

                          Wollt ihr noch ein paar "Alltagswissen" aus dem Jurist:innen-Leben:

                          1. Ob ein männlicher Zeuge lügt, erkannte ein Ausbilder (Richter mit Leitungsfunktion) meiner besseren Hälfte u.A. an deren Unterarmen! (tätowiert=Knastvogel=Lügner)

                          2. Ein:e Polizist:in verriet mir: ob man einen Straftäter vor sich hat, erkennt man (natürlich) an den Schuhen. (Betrüger haben billiges Schuhwerk)

                          Glaubt nicht, dass die Welt vor lauter Menschen nicht sei, wie sie ist.

                          1 Antwort Letzte Antwort
                          0
                          • jlink@det.socialJ jlink@det.social

                            @AwetTesfaiesus Der Unterschied ist mMn die menschliche Fähigkeit zur Reflexion. Und dass wir am Ende Rechenschaft ablegen müssen - zumindest manche von uns.

                            awettesfaiesus@mastodon.socialA This user is from outside of this forum
                            awettesfaiesus@mastodon.socialA This user is from outside of this forum
                            awettesfaiesus@mastodon.social
                            schrieb zuletzt editiert von
                            #162

                            @jlink da irgendwo verorte ich mein Störgefühl auch.

                            1 Antwort Letzte Antwort
                            0
                            • andreas_tengicki@hessen.socialA andreas_tengicki@hessen.social

                              @AwetTesfaiesus @oldperl
                              In kurz:

                              Menschen sind Menschen, manipulierbar fehlerhaft.

                              Der Brockhaus/Wikipedia war recherhiert und "wahr".

                              Computer sind/waren Maschinen die etwas deterministisch berechnet haben. Das Ergebnis war quasi "mathematisch richtig" und nachvollziehbar. Man verlässt sich darauf.

                              LLMs liefern statistisch wahrscheinliche Halluzinationen ohne Verständnis von wahr und falsch. Wir unterstellen aber Intelligenz und nutzen es als Lexikon.

                              Ist halt schwierig/falsch.

                              awettesfaiesus@mastodon.socialA This user is from outside of this forum
                              awettesfaiesus@mastodon.socialA This user is from outside of this forum
                              awettesfaiesus@mastodon.social
                              schrieb zuletzt editiert von
                              #163

                              @andreas_tengicki @oldperl Brockhaus war nicht wahr

                              oldperl@mastodon.onlineO 1 Antwort Letzte Antwort
                              0
                              • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                                Konkret: Ich könnte mir vorstellen, dass in dieser (!) konkreten Herangehensweisen an KI viel Coping steckt. Lügen wir uns hier kollektiv in die eigene (intellektuelle) Tasche?

                                Oder pfeifen wir hier sogar schon verzweifelt im Walde?

                                Liege ich komplett falsch?

                                labonitamascota@muenchen.socialL This user is from outside of this forum
                                labonitamascota@muenchen.socialL This user is from outside of this forum
                                labonitamascota@muenchen.social
                                schrieb zuletzt editiert von
                                #164

                                @AwetTesfaiesus Nein ich seh das auch so. Und nebenbei ist das eine philosophisch ziemlich interessante Frage. Ist unsere natürliche Intelligenz wirklich irgendwie erhaben über die maschinelle? Es gibt dazu viel spannende Literatur. Roger Penrose: The Emperor's new mind fällt mir gerade ein.

                                Witzigerweise scheint mir gerade die IT-Bubble, die ja in gewisser Weise mal besonders verantwortlich ist dafür, besonders streng mit den LLMs zu sein. Haben die einfach nur Angst um ihre Coder-Jobs?

                                1 Antwort Letzte Antwort
                                0
                                • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                                  @BrennpunktUA @marcuwekling

                                  Überhöhen wir uns Menschen da nicht evtl.? "Gewissenhaftes Lektorieren" ist auch nicht die Stärke von Menschen.

                                  Juristen belegen ihre Aussagen (teils wort-weise) mit Fundstellen. Es war schon immer ein Running Gag im Jura-Studium, diese Fundstellen nachzuschlagen und festzustellen, dass das vermeintlich zitierte da überhaupt nicht steht. Gleichwohl wird die Fundstelle brav von einem Gericht nach dem nächsten übernommen. Oft wird nicht geprüft.

                                  lothar@social.tchncs.deL This user is from outside of this forum
                                  lothar@social.tchncs.deL This user is from outside of this forum
                                  lothar@social.tchncs.de
                                  schrieb zuletzt editiert von
                                  #165

                                  @AwetTesfaiesus
                                  Hmm, OK. Wenn ich sowas lese, springt immer mein Advocatus Diaboli an:
                                  Diesen Prozess könnte man signifikant durch den Einsatz von ... "KI" ... verbessern. Also nicht einfach einen Chatbot fragen, sondern richtig, Vektor-DB mit den Inhalten, exakte Scopes und dediziertes, (nach-) trainiertes Netz, meinetwegen noch ein LLM zum nett Aufbereiten der Antworten.
                                  @BrennpunktUA @marcuwekling

                                  awettesfaiesus@mastodon.socialA 1 Antwort Letzte Antwort
                                  0
                                  • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                                    @malte

                                    Die "unknown unknowns" sind sicher valide.

                                    Die "Industrialisierung"... nichts anderes passiert in der Verwaltung doch seit Jahrzehnten.

                                    malte@anticapitalist.partyM This user is from outside of this forum
                                    malte@anticapitalist.partyM This user is from outside of this forum
                                    malte@anticapitalist.party
                                    schrieb zuletzt editiert von
                                    #166

                                    @AwetTesfaiesus jupp, die entwicklung ist überall nicht gut, und ich kann gut verstehen, dass dann manchmal "egal was, hauptsache was anderes" verlockend ist, aber ki, zumindest in dem rahmen wie es momentan benutzt und entwickelt wird, ain't it.

                                    pharmakonzerne sind nicht die guten, aber sie können verhältnismäßig wenig schaden anrichten, weil die regularien ziemlich solide sind. natürlich erst immer *nachdem* menschen zu schaden kamen...

                                    malte@anticapitalist.partyM 1 Antwort Letzte Antwort
                                    0
                                    • lothar@social.tchncs.deL lothar@social.tchncs.de

                                      @AwetTesfaiesus
                                      Hmm, OK. Wenn ich sowas lese, springt immer mein Advocatus Diaboli an:
                                      Diesen Prozess könnte man signifikant durch den Einsatz von ... "KI" ... verbessern. Also nicht einfach einen Chatbot fragen, sondern richtig, Vektor-DB mit den Inhalten, exakte Scopes und dediziertes, (nach-) trainiertes Netz, meinetwegen noch ein LLM zum nett Aufbereiten der Antworten.
                                      @BrennpunktUA @marcuwekling

                                      awettesfaiesus@mastodon.socialA This user is from outside of this forum
                                      awettesfaiesus@mastodon.socialA This user is from outside of this forum
                                      awettesfaiesus@mastodon.social
                                      schrieb zuletzt editiert von
                                      #167

                                      @lothar @BrennpunktUA @marcuwekling 🤣

                                      1 Antwort Letzte Antwort
                                      0
                                      • malte@anticapitalist.partyM malte@anticapitalist.party

                                        @AwetTesfaiesus jupp, die entwicklung ist überall nicht gut, und ich kann gut verstehen, dass dann manchmal "egal was, hauptsache was anderes" verlockend ist, aber ki, zumindest in dem rahmen wie es momentan benutzt und entwickelt wird, ain't it.

                                        pharmakonzerne sind nicht die guten, aber sie können verhältnismäßig wenig schaden anrichten, weil die regularien ziemlich solide sind. natürlich erst immer *nachdem* menschen zu schaden kamen...

                                        malte@anticapitalist.partyM This user is from outside of this forum
                                        malte@anticapitalist.partyM This user is from outside of this forum
                                        malte@anticapitalist.party
                                        schrieb zuletzt editiert von
                                        #168

                                        @AwetTesfaiesus ... und auf der zeitleiste sind wir in der it-branche auf jeden fall noch in der zeit wo sich ärzte vor einer operation vielleicht die hände waschen, wenn sie auf dem weg dahin an einem waschbecken vorbeikommen, und leute auf der titanik zum spaß ganzkörperröntgenaufnahmen von sich machen lassen. 😢

                                        1 Antwort Letzte Antwort
                                        0
                                        • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                                          In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen. @marcuwekling sagte am Montag bei der Lesung Ähnliches.

                                          Dazu:
                                          1️⃣In der juristischen Ausbildung lernst du, dass 50-70% der Verwaltungsakt falsch sind. Default: falsch!
                                          2️⃣Dazu: in meiner Schulzeit waren Atlanten/Karten immer falsch (DDR drin, teils Saarland draußen, Jugoslawien komplett). Ich habe nicht gehört, dass über Schulen ähnlich gesprochen wird, wie über LLMs. #ki

                                          dabo@fedifreu.deD This user is from outside of this forum
                                          dabo@fedifreu.deD This user is from outside of this forum
                                          dabo@fedifreu.de
                                          schrieb zuletzt editiert von
                                          #169

                                          @AwetTesfaiesus

                                          Für mich ist der Unterschied zwischen Fehlern von Menschen und Fehlern von Programmen die Möglichkeit, Korrektur vom Schreiberling verlangen zu können. Es muss für falsche Tatsachenbehautungen Haftung geben.

                                          Wenn ein Polizist in seinem Bericht Müll produziert, kann er identifiziert werden und den Kram korrigieren. Und muss, bei vorsätzlichen Fehlern mit Konsequenzen rechnen. (Ob das in der Realität wirklich passiert lasse ich erstmal außer acht - es gibt wenigstens die rechtliche Möglichkeit)
                                          Bei der KI gibt es keine Möglichkeit für Konsequenzen. Wie sollen die aussehen? Abschaltung für ein par Stunden? Wie soll sie KI denn denn lernen, dass Lügen falsch ist, so ganz ohne Bewusstsein? Wer soll sie denn tragen? Oder soll die Haftung vonder Herstellerfirma, die sich schon beim Füttern ihres Produktes um keine Gesetze geschehrt hat, und damit durchkommt, übernommen werden?
                                          Oder doch wieder von der Person, deren Arbeit die KI machen sollte?

                                          1 Antwort Letzte Antwort
                                          0
                                          Antworten
                                          • In einem neuen Thema antworten
                                          Anmelden zum Antworten
                                          • Älteste zuerst
                                          • Neuste zuerst
                                          • Meiste Stimmen



                                          Copyright (c) 2025 abSpecktrum (@abspecklog@fedimonster.de)

                                          Erstellt mit Schlaflosigkeit, Kaffee, Brokkoli & ♥

                                          Impressum | Datenschutzerklärung | Nutzungsbedingungen

                                          • Anmelden

                                          • Du hast noch kein Konto? Registrieren

                                          • Anmelden oder registrieren, um zu suchen
                                          • Erster Beitrag
                                            Letzter Beitrag
                                          0
                                          • Home
                                          • Aktuell
                                          • Tags
                                          • Über dieses Forum