Mastodon Skip to content
  • Home
  • Aktuell
  • Tags
  • Über dieses Forum
Einklappen
Grafik mit zwei überlappenden Sprechblasen, eine grün und eine lila.
Abspeckgeflüster – Forum für Menschen mit Gewicht(ung)

Kostenlos. Werbefrei. Menschlich. Dein Abnehmforum.

  1. Home
  2. Uncategorized
  3. In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen.

In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen.

Geplant Angeheftet Gesperrt Verschoben Uncategorized
llms
218 Beiträge 54 Kommentatoren 0 Aufrufe
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • G gormfull@mastodon.social

    @AwetTesfaiesus @odrotbohm @marcuwekling
    Offene Frage. Bestenfalls mit dem Wissen, ob die Entscheidung “richtig” war. Das dürfte der Bescheid sein, wenn es keine Revision gab, oder das Revisionsurteil, wenn es eines gab.
    Und hier liegt das Problem: Durch die KI wird lediglich der Filter automatisiert, mit dem ich die Leute ablehne, die keine Verbindungen und Mittel haben. Also wahrscheinlich die Bedürftigeren.

    awettesfaiesus@mastodon.socialA This user is from outside of this forum
    awettesfaiesus@mastodon.socialA This user is from outside of this forum
    awettesfaiesus@mastodon.social
    schrieb zuletzt editiert von
    #117

    @Gormfull @odrotbohm @marcuwekling Da bin ich mir halt nicht sicher.

    G 2 Antworten Letzte Antwort
    0
    • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

      Konkret: Ich könnte mir vorstellen, dass in dieser (!) konkreten Herangehensweisen an KI viel Coping steckt. Lügen wir uns hier kollektiv in die eigene (intellektuelle) Tasche?

      Oder pfeifen wir hier sogar schon verzweifelt im Walde?

      Liege ich komplett falsch?

      gabe@mendeddrum.orgG This user is from outside of this forum
      gabe@mendeddrum.orgG This user is from outside of this forum
      gabe@mendeddrum.org
      schrieb zuletzt editiert von
      #118

      @AwetTesfaiesus die Frage, ob wir insgesamt genug hinterfragen, was von (echten oder vermeintlichen) Autoritäten kommt, ist erstens wichtig und zweitens klar mit "nein" zu beantworten.

      So weit, so uninteressant.

      Was macht man damit? Deine Frage, wie hier gestellt und beschrieben, wirkt auf mich wie "whataboutism", als solle gesagt werden, "das mit der KI kann so bleiben, weil wir Menschen ja auch sehr fehlbar sind". Stattdessen könnte man sagen, "wir Menschen machen schon so viel falsch, absichtlich oder nicht, da wird eine weitere unglaublich fehleranfällige 'Autorität' sicherlich keine positive Wirkung haben".

      (Es gibt keine "neutrale" Fragestellung, es gibt keine "neutrale" Position. Bestenfalls eine instrumentierbare, häufiger eine absichtlich oder versehentlich suggestive.)

      Alles das geht aber an der wichtigen Realität vorbei: es ist tatsächlich völlig egal, ob Sprachmodelle uns richtige Antworten geben, ob sie unsere E-Mails und Artikel schöner schreiben oder akkurat zusammenfassen, ob sie funktionierenden Code schreiben oder diesen korrekt pflegen, ob sie uns für Glückwunsch oder Trauer die "richtigen Worte" geben. Es ist egal.

      Der Energieverbrauch (von der Chip-Produktion bis zum Betrieb), das ungefragte und unbezahlte Aufsaugen und Verwerten der Kreativen Leistung und Arbeit der (online-)Menschheit, die versteckte, unterbezahlte, zermürbende Arbeit für Tagging/Labelling und Tuning, das Abschieben jeder Verantwortung für das Produkt auf die Nutzer... Es gibt keine ethisch akzeptable Nutzung. Es gibt kein Kalkül, kein vertretbares Modell, kein humanes Weltbild nach dem sich die Kosten überhaupt einem Nutzen gegenüberstellen ließen, geschweige denn irgendwie akzeptabel sein könnten.

      Leuchtzifferblätter, die mit Radium bemalt sind, sind im Dunkeln gut lesbar, und sehen auch hübsch aus. Aber egal, wie schön sie sind, egal, wie viele Sammler es gibt, egal, was für schöne Umsätze damit gemacht werden, egal, ob für die Käufer die Strahlung am Arm akzeptabel oder gefahrlos ist - die Belastung der Umwelt und der Menschen durch die Produktion (und am Ende die Entsorgung) war es nie Wert, konnte es nie Wert sein. "Der Nachtwächter kann die Uhr ablesen, ohne seine Augen umzugewöhnen" mag auch noch so nützlich sein, "Arbeiterinnen bekommen vermehrt Krebs" kann nicht aufgewogen werden. Nicht "wird nicht aufgewogen von den paar Nachtwächtern", sondern es ist nicht möglich.

      awettesfaiesus@mastodon.socialA 1 Antwort Letzte Antwort
      0
      • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

        @anwagnerdreas

        Ich weiß ja gar nicht, ob es diesen Vertrauensvorschuss gegenüber KI wirklich so gibt.

        Was sind eigentlich die Konturen des Unterschieds zu Vertrauensankern, wie:

        -Wappen
        -Roben
        -Gerichtssäle
        -Urteilsstil

        Alle Jurist:innen lernen doch den Satz „Es ist so und kann nicht anders sein“ im Hinterkopf zu haben, wenn man Urteilsstil schreibt.

        kraemer_hb@mastodon.socialK This user is from outside of this forum
        kraemer_hb@mastodon.socialK This user is from outside of this forum
        kraemer_hb@mastodon.social
        schrieb zuletzt editiert von
        #119

        @AwetTesfaiesus @anwagnerdreas Ein interessanter Vergleich von Vertrauenskulturen!
        Ich denke, wenn wir die Aussagen von Menschen kritisch reflektieren (was Journalisten, Juristen u.a. beruflich tun sollten), nutzen wir unser Bild von deren "Positionalität" zur Frage nach ihrer möglichen Interessiertheit in der Sache.
        KI hebelt dies aber aus, sie hat das nicht, sie wirkt fälschlich neutral.
        Gerichte haben instit.Interessen, etwa Fälle erledigen, oder nicht von höheren Gerichten korrigiert werden.

        1 Antwort Letzte Antwort
        0
        • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

          @anwagnerdreas

          Ich weiß ja gar nicht, ob es diesen Vertrauensvorschuss gegenüber KI wirklich so gibt.

          Was sind eigentlich die Konturen des Unterschieds zu Vertrauensankern, wie:

          -Wappen
          -Roben
          -Gerichtssäle
          -Urteilsstil

          Alle Jurist:innen lernen doch den Satz „Es ist so und kann nicht anders sein“ im Hinterkopf zu haben, wenn man Urteilsstil schreibt.

          anwagnerdreas@hcommons.socialA This user is from outside of this forum
          anwagnerdreas@hcommons.socialA This user is from outside of this forum
          anwagnerdreas@hcommons.social
          schrieb zuletzt editiert von
          #120

          @AwetTesfaiesus

          Tatsächlich habe ich vielleicht den Mund etwas voll genommen: Ich weiß von Untersuchungen über die vertrauenerweckende Wirkung von Eloquenz und konfidentem Auftreten (und Geschlechterrollen usw.), Merkmalen also, die den Chatsystemen effektiv antrainiert werden (und sei es weil die Humans in the Loop im RLHF das gut finden). Diese Studien stammen allerdings zumeist noch aus der Zeit *vor* den erfolgreichen Chatsystemen, sie untersuchen es also nicht anhand solcher Systeme...

          Ich weiß noch von keinen Studien, die die "deference" gegenüber einem identischen Auftreten hinsichtlich dessen vergleichen, ob es von einem Computer oder einer natürlichen Person (mit variierenden Rollen und Attributen), oder vielleicht auch einem journalistischen Medium entgegen tritt. Müsste man mal machen...

          Oder weiß jemand was in der Richtung?

          1 Antwort Letzte Antwort
          0
          • gabe@mendeddrum.orgG gabe@mendeddrum.org

            @AwetTesfaiesus die Frage, ob wir insgesamt genug hinterfragen, was von (echten oder vermeintlichen) Autoritäten kommt, ist erstens wichtig und zweitens klar mit "nein" zu beantworten.

            So weit, so uninteressant.

            Was macht man damit? Deine Frage, wie hier gestellt und beschrieben, wirkt auf mich wie "whataboutism", als solle gesagt werden, "das mit der KI kann so bleiben, weil wir Menschen ja auch sehr fehlbar sind". Stattdessen könnte man sagen, "wir Menschen machen schon so viel falsch, absichtlich oder nicht, da wird eine weitere unglaublich fehleranfällige 'Autorität' sicherlich keine positive Wirkung haben".

            (Es gibt keine "neutrale" Fragestellung, es gibt keine "neutrale" Position. Bestenfalls eine instrumentierbare, häufiger eine absichtlich oder versehentlich suggestive.)

            Alles das geht aber an der wichtigen Realität vorbei: es ist tatsächlich völlig egal, ob Sprachmodelle uns richtige Antworten geben, ob sie unsere E-Mails und Artikel schöner schreiben oder akkurat zusammenfassen, ob sie funktionierenden Code schreiben oder diesen korrekt pflegen, ob sie uns für Glückwunsch oder Trauer die "richtigen Worte" geben. Es ist egal.

            Der Energieverbrauch (von der Chip-Produktion bis zum Betrieb), das ungefragte und unbezahlte Aufsaugen und Verwerten der Kreativen Leistung und Arbeit der (online-)Menschheit, die versteckte, unterbezahlte, zermürbende Arbeit für Tagging/Labelling und Tuning, das Abschieben jeder Verantwortung für das Produkt auf die Nutzer... Es gibt keine ethisch akzeptable Nutzung. Es gibt kein Kalkül, kein vertretbares Modell, kein humanes Weltbild nach dem sich die Kosten überhaupt einem Nutzen gegenüberstellen ließen, geschweige denn irgendwie akzeptabel sein könnten.

            Leuchtzifferblätter, die mit Radium bemalt sind, sind im Dunkeln gut lesbar, und sehen auch hübsch aus. Aber egal, wie schön sie sind, egal, wie viele Sammler es gibt, egal, was für schöne Umsätze damit gemacht werden, egal, ob für die Käufer die Strahlung am Arm akzeptabel oder gefahrlos ist - die Belastung der Umwelt und der Menschen durch die Produktion (und am Ende die Entsorgung) war es nie Wert, konnte es nie Wert sein. "Der Nachtwächter kann die Uhr ablesen, ohne seine Augen umzugewöhnen" mag auch noch so nützlich sein, "Arbeiterinnen bekommen vermehrt Krebs" kann nicht aufgewogen werden. Nicht "wird nicht aufgewogen von den paar Nachtwächtern", sondern es ist nicht möglich.

            awettesfaiesus@mastodon.socialA This user is from outside of this forum
            awettesfaiesus@mastodon.socialA This user is from outside of this forum
            awettesfaiesus@mastodon.social
            schrieb zuletzt editiert von
            #121

            @gabe
            “…even the Abbot is concerned about the arrival of steam-engines when it isn’t yet steam-engine time.”
            – Terry Pratchett (Raising Steam, aus dem Kopf zitiert)

            1 Antwort Letzte Antwort
            0
            • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

              @Gormfull @odrotbohm @marcuwekling Da bin ich mir halt nicht sicher.

              G This user is from outside of this forum
              G This user is from outside of this forum
              gormfull@mastodon.social
              schrieb zuletzt editiert von
              #122

              @AwetTesfaiesus @odrotbohm @marcuwekling

              Sicher bin ich mir offensichtlich auch nicht, sonst hätte ich ja nicht meiner “all-positive” Aussage selbst widersprochen 😉
              Ein systematischer Fehler, den die KI wahrscheinlich nicht machen würde ist vor dem Mittagessen negativere Bescheide auszustellen, als kurz nach dem Frühstück.
              Beschrieben in diesem auch sonst lesenswerten Buch über fehlerhafte menschliche Heuristiken.

              https://www.genialokal.de/Produkt/Daniel-Kahneman/Schnelles-Denken-langsames-Denken_lid_55264914.html

              awettesfaiesus@mastodon.socialA 1 Antwort Letzte Antwort
              0
              • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                @anwagnerdreas 1x1 der Zeugenaussage:
                "Frau Richterin, ich bin mir ganz sicher, dass sie das war. Da habe ich keinen Zweifel. Das weiß ich deshalb noch so genau, weil zur gleichen Zeit..."

                In meiner Ausbildung hieß es "lügt wie gedruckt" kommt nicht von ungefähr.

                anwagnerdreas@hcommons.socialA This user is from outside of this forum
                anwagnerdreas@hcommons.socialA This user is from outside of this forum
                anwagnerdreas@hcommons.social
                schrieb zuletzt editiert von
                #123

                @AwetTesfaiesus das ist mal eine vorteilhafte déformation professionelle. 😁 Oder nicht?

                awettesfaiesus@mastodon.socialA 1 Antwort Letzte Antwort
                0
                • anwagnerdreas@hcommons.socialA anwagnerdreas@hcommons.social

                  @AwetTesfaiesus das ist mal eine vorteilhafte déformation professionelle. 😁 Oder nicht?

                  awettesfaiesus@mastodon.socialA This user is from outside of this forum
                  awettesfaiesus@mastodon.socialA This user is from outside of this forum
                  awettesfaiesus@mastodon.social
                  schrieb zuletzt editiert von
                  #124

                  @anwagnerdreas

                  Weiiiiiiiss ich nicht! Weiiiiiiiiss ich nicht!

                  Sollten nur Volljuristen LLMs benutzen dürfen? Vielleicht! Würde die Welt dadurch besser? Ich habe erhebliche Zweifel!

                  1 Antwort Letzte Antwort
                  0
                  • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                    @Gormfull @odrotbohm @marcuwekling Da bin ich mir halt nicht sicher.

                    G This user is from outside of this forum
                    G This user is from outside of this forum
                    gormfull@mastodon.social
                    schrieb zuletzt editiert von
                    #125

                    @AwetTesfaiesus @odrotbohm @marcuwekling

                    Was eine richtige Entscheidung ist, ist ja irgendwie auch Verhandlungssache. Und da ist es dann schwer in ein LLM reinzuschauen. Es wird dir einen Text generieren, warum es eine Entscheidung getroffen hat, aber dieser Text wird nicht der Begründung entsprechen, warum es die Entscheidung getroffen hat. Die wäre nämlich schlicht, weil sie in einem 100000 dimensionalen Vektorraum “nahe lag”.

                    awettesfaiesus@mastodon.socialA 1 Antwort Letzte Antwort
                    0
                    • G gormfull@mastodon.social

                      @AwetTesfaiesus @odrotbohm @marcuwekling

                      Was eine richtige Entscheidung ist, ist ja irgendwie auch Verhandlungssache. Und da ist es dann schwer in ein LLM reinzuschauen. Es wird dir einen Text generieren, warum es eine Entscheidung getroffen hat, aber dieser Text wird nicht der Begründung entsprechen, warum es die Entscheidung getroffen hat. Die wäre nämlich schlicht, weil sie in einem 100000 dimensionalen Vektorraum “nahe lag”.

                      awettesfaiesus@mastodon.socialA This user is from outside of this forum
                      awettesfaiesus@mastodon.socialA This user is from outside of this forum
                      awettesfaiesus@mastodon.social
                      schrieb zuletzt editiert von
                      #126

                      @Gormfull @odrotbohm @marcuwekling ich erinnere mich dunkel an eine (für meine profession wenig vorteilhafte) Dissertation, die (nach meiner Erinnerung) die Rechtspraxis kaum anders darstellte. Ich denke es könnte Somek, Rechtliches Wissen, gewesen sein :

                      https://www.suhrkamp.de/buch/alexander-somek-rechtliches-wissen-t-9783518294024

                      1 Antwort Letzte Antwort
                      0
                      • G gormfull@mastodon.social

                        @AwetTesfaiesus @odrotbohm @marcuwekling

                        Sicher bin ich mir offensichtlich auch nicht, sonst hätte ich ja nicht meiner “all-positive” Aussage selbst widersprochen 😉
                        Ein systematischer Fehler, den die KI wahrscheinlich nicht machen würde ist vor dem Mittagessen negativere Bescheide auszustellen, als kurz nach dem Frühstück.
                        Beschrieben in diesem auch sonst lesenswerten Buch über fehlerhafte menschliche Heuristiken.

                        https://www.genialokal.de/Produkt/Daniel-Kahneman/Schnelles-Denken-langsames-Denken_lid_55264914.html

                        awettesfaiesus@mastodon.socialA This user is from outside of this forum
                        awettesfaiesus@mastodon.socialA This user is from outside of this forum
                        awettesfaiesus@mastodon.social
                        schrieb zuletzt editiert von
                        #127

                        @Gormfull @odrotbohm @marcuwekling 😁

                        1 Antwort Letzte Antwort
                        0
                        • energisch_@troet.cafeE energisch_@troet.cafe shared this topic
                        • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                          Konkret: Ich könnte mir vorstellen, dass in dieser (!) konkreten Herangehensweisen an KI viel Coping steckt. Lügen wir uns hier kollektiv in die eigene (intellektuelle) Tasche?

                          Oder pfeifen wir hier sogar schon verzweifelt im Walde?

                          Liege ich komplett falsch?

                          energisch_@troet.cafeE This user is from outside of this forum
                          energisch_@troet.cafeE This user is from outside of this forum
                          energisch_@troet.cafe
                          schrieb zuletzt editiert von
                          #128

                          @AwetTesfaiesus Klar, Menschen machen Fehler. Aber Fehler werden durch Menschen wieder abgefedert, korrigiert, berichtigt. Bei LLMs scheint das nicht der Fall, im Gegenteil! Der Zwang zu Ergebnissen führt dazu, dass immer mehr Fehler generiert werden (auch aus der Quelle menschlicher Fehler). Das potenziert die Fehlerquote.

                          theoneswit@det.socialT 1 Antwort Letzte Antwort
                          0
                          • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                            @oldperl ich denke, meine Frage wird missverstanden. Natürlich sollten wir hinterfragen. Ich frage mich aber: hinterfragen wir menschliche Ergebnisse mit demselben Eifer?

                            energisch_@troet.cafeE This user is from outside of this forum
                            energisch_@troet.cafeE This user is from outside of this forum
                            energisch_@troet.cafe
                            schrieb zuletzt editiert von
                            #129

                            @AwetTesfaiesus Ja, dort wo ich selbst Kompetenz mitbringe und dort wo nicht: da suche ich immer nach mehreren glaubwürdigen Quellen. Aber klar, irgendwo kommen alle an Grenzen. Dehalb liebe ich das Fediverse. Das ist ein Netzwerk für menschliche Kompetenzerweiterung @oldperl

                            oldperl@mastodon.onlineO 1 Antwort Letzte Antwort
                            0
                            • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                              Konkret: Ich könnte mir vorstellen, dass in dieser (!) konkreten Herangehensweisen an KI viel Coping steckt. Lügen wir uns hier kollektiv in die eigene (intellektuelle) Tasche?

                              Oder pfeifen wir hier sogar schon verzweifelt im Walde?

                              Liege ich komplett falsch?

                              ascendor@social.tchncs.deA This user is from outside of this forum
                              ascendor@social.tchncs.deA This user is from outside of this forum
                              ascendor@social.tchncs.de
                              schrieb zuletzt editiert von
                              #130

                              @AwetTesfaiesus Interessante Betrachtungsweise. Ich denke einfach, Maschinen werden gebaut, um exakt und deterministisch zu arbeiten - in der Vergangenheit. Kreative und nicht-deterministische Maschinen sind in der Gesellschaft einfach nicht bekannt. Man ERWARTET von Maschinen Korrektheit, und nimmt deren Ergebnisse daher für bare Münze. (Was würdest Du zu einer Suchmaschine sagen, die Links ausspuckt, die es gar nicht gibt?)
                              Und dann ist die Überraschung und Empörung natürlich groß, wenn es nicht so ist.
                              Die von Dir aufgezeigten Beispiele von menschlichen Fehlern sind keine Empörung wert, genau aus dem Grund, den Du nennst. Menschen machen ständig Fehler. Hier gibt es keine andere Erwartungshaltung.

                              Meines Erachtens ist das aber auch alles richtig so. Wir müssen lernen, dass ein ...

                              ascendor@social.tchncs.deA 1 Antwort Letzte Antwort
                              0
                              • ascendor@social.tchncs.deA ascendor@social.tchncs.de

                                @AwetTesfaiesus Interessante Betrachtungsweise. Ich denke einfach, Maschinen werden gebaut, um exakt und deterministisch zu arbeiten - in der Vergangenheit. Kreative und nicht-deterministische Maschinen sind in der Gesellschaft einfach nicht bekannt. Man ERWARTET von Maschinen Korrektheit, und nimmt deren Ergebnisse daher für bare Münze. (Was würdest Du zu einer Suchmaschine sagen, die Links ausspuckt, die es gar nicht gibt?)
                                Und dann ist die Überraschung und Empörung natürlich groß, wenn es nicht so ist.
                                Die von Dir aufgezeigten Beispiele von menschlichen Fehlern sind keine Empörung wert, genau aus dem Grund, den Du nennst. Menschen machen ständig Fehler. Hier gibt es keine andere Erwartungshaltung.

                                Meines Erachtens ist das aber auch alles richtig so. Wir müssen lernen, dass ein ...

                                ascendor@social.tchncs.deA This user is from outside of this forum
                                ascendor@social.tchncs.deA This user is from outside of this forum
                                ascendor@social.tchncs.de
                                schrieb zuletzt editiert von
                                #131

                                @AwetTesfaiesus ... stochastischer Papagei eben KEINE Intelligenz ist. Er reiht Wörter aneinander, weil es wahrscheinlich ist, dass Wort B auf Wort A folgt.

                                awettesfaiesus@mastodon.socialA 2 Antworten Letzte Antwort
                                0
                                • ascendor@social.tchncs.deA ascendor@social.tchncs.de

                                  @AwetTesfaiesus ... stochastischer Papagei eben KEINE Intelligenz ist. Er reiht Wörter aneinander, weil es wahrscheinlich ist, dass Wort B auf Wort A folgt.

                                  awettesfaiesus@mastodon.socialA This user is from outside of this forum
                                  awettesfaiesus@mastodon.socialA This user is from outside of this forum
                                  awettesfaiesus@mastodon.social
                                  schrieb zuletzt editiert von
                                  #132

                                  @Ascendor Ich vermute: Du hast nicht Jura studiert.

                                  ascendor@social.tchncs.deA 1 Antwort Letzte Antwort
                                  0
                                  • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                                    In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen. @marcuwekling sagte am Montag bei der Lesung Ähnliches.

                                    Dazu:
                                    1️⃣In der juristischen Ausbildung lernst du, dass 50-70% der Verwaltungsakt falsch sind. Default: falsch!
                                    2️⃣Dazu: in meiner Schulzeit waren Atlanten/Karten immer falsch (DDR drin, teils Saarland draußen, Jugoslawien komplett). Ich habe nicht gehört, dass über Schulen ähnlich gesprochen wird, wie über LLMs. #ki

                                    jlink@det.socialJ This user is from outside of this forum
                                    jlink@det.socialJ This user is from outside of this forum
                                    jlink@det.social
                                    schrieb zuletzt editiert von
                                    #133

                                    @AwetTesfaiesus @marcuwekling Ein Unterschied ist, dass wir menschliche Urheber befragen und verantwortlich machen können. Diese können lernen, die gleichen Fehler und Unwahrheiten nicht mehr zu verbreiten. LLMs sind grundsätzlich nicht lernfähig. Was als Lernen verkauft wird, ist ein (aus Kostengründen) sehr beschränkter Kontext, der außerdem „das Gelernte“ nicht sicherstellt, sondern lediglich wahrscheinlicher macht.

                                    awettesfaiesus@mastodon.socialA 1 Antwort Letzte Antwort
                                    0
                                    • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                                      @oldperl ich möchte klarstellen: ich frage mich u.A. warum wir menschlichen Aussagen nicht mit derselben Skepsis begegnen, wie der KI und zwar selbst dann nicht, wenn wir wissen, dass die Ergebnisse mit über 50%iger Wahrscheinlichkeit falsch sind (Jobcenterbescheid?). Wieso ist die falsche „Map of Europe“ ein Anlass zur Empörung, die 10tausend falschen Karten in unseren Schulen aber nicht?

                                      pdh@hessen.socialP This user is from outside of this forum
                                      pdh@hessen.socialP This user is from outside of this forum
                                      pdh@hessen.social
                                      schrieb zuletzt editiert von
                                      #134

                                      @AwetTesfaiesus @oldperl Ich denke, dass in der Diskussion die Differenzierung zwischen Menschen und Fachgebieten zu kurz kommt. Ich habe einen Verwandten, den ich gerne zum Thema Automobil befrage, bei dem aber die meisten Aussagen zu Politikern oder Politik auf Falschinformationen beruhen. Ich empfinde es auch nicht so, dass grundsätzlich keine Skepsis an menschlichen Aussagen vorhanden ist. Im Gegenteil kann zu viel Skepsis sogar zu zwischenmenschlichen Problemen führen.

                                      pdh@hessen.socialP 1 Antwort Letzte Antwort
                                      0
                                      • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                                        In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen. @marcuwekling sagte am Montag bei der Lesung Ähnliches.

                                        Dazu:
                                        1️⃣In der juristischen Ausbildung lernst du, dass 50-70% der Verwaltungsakt falsch sind. Default: falsch!
                                        2️⃣Dazu: in meiner Schulzeit waren Atlanten/Karten immer falsch (DDR drin, teils Saarland draußen, Jugoslawien komplett). Ich habe nicht gehört, dass über Schulen ähnlich gesprochen wird, wie über LLMs. #ki

                                        thierna@mastodon.greenT This user is from outside of this forum
                                        thierna@mastodon.greenT This user is from outside of this forum
                                        thierna@mastodon.green
                                        schrieb zuletzt editiert von
                                        #135

                                        @AwetTesfaiesus yepp, Bildung ist problematisch. Verwaltung auch.

                                        Ermessensspielraum bei einer Bank, kenne ich nur von vermögenden Menschen, die persönlichen Kontakt zum Bankberater haben.

                                        Menschen, die Schulentwicklung machen, reden darüber schon lange. z.b. im #FediLZ gibts da bestimmt mehr.

                                        Aber das kickt halt nicht so in der Presse. und irgendwie läuft da zuviel getrennt und parallel.

                                        1 Antwort Letzte Antwort
                                        0
                                        • ascendor@social.tchncs.deA ascendor@social.tchncs.de

                                          @AwetTesfaiesus ... stochastischer Papagei eben KEINE Intelligenz ist. Er reiht Wörter aneinander, weil es wahrscheinlich ist, dass Wort B auf Wort A folgt.

                                          awettesfaiesus@mastodon.socialA This user is from outside of this forum
                                          awettesfaiesus@mastodon.socialA This user is from outside of this forum
                                          awettesfaiesus@mastodon.social
                                          schrieb zuletzt editiert von
                                          #136

                                          @Ascendor Ein Beispiel:

                                          D könnte sich wegen einer Beihilfe zum Diebstahl des B in einem besonders schweren Fall nach §§
                                          242 I, 243 I S. 2 Nr. 1, 27 I strafbar gemacht haben, indem er ...

                                          Hierzu bedarf es einer beihilfefähigen Haupttat des B.

                                          B könnte sich gemäß §§ 242 I, 243 I 2 Nr. 1 strafbar gemacht haben, indem er … mitnahm.

                                          Diebstahl gem. § 242 I ist …
                                          ---
                                          Ein Wort plausibel wahrscheinlich nach dem anderen.

                                          ascendor@social.tchncs.deA 1 Antwort Letzte Antwort
                                          0
                                          Antworten
                                          • In einem neuen Thema antworten
                                          Anmelden zum Antworten
                                          • Älteste zuerst
                                          • Neuste zuerst
                                          • Meiste Stimmen



                                          Copyright (c) 2025 abSpecktrum (@abspecklog@fedimonster.de)

                                          Erstellt mit Schlaflosigkeit, Kaffee, Brokkoli & ♥

                                          Impressum | Datenschutzerklärung | Nutzungsbedingungen

                                          • Anmelden

                                          • Du hast noch kein Konto? Registrieren

                                          • Anmelden oder registrieren, um zu suchen
                                          • Erster Beitrag
                                            Letzter Beitrag
                                          0
                                          • Home
                                          • Aktuell
                                          • Tags
                                          • Über dieses Forum