Mastodon Skip to content
  • Home
  • Aktuell
  • Tags
  • Über dieses Forum
Einklappen
Grafik mit zwei überlappenden Sprechblasen, eine grün und eine lila.
Abspeckgeflüster – Forum für Menschen mit Gewicht(ung)

Kostenlos. Werbefrei. Menschlich. Dein Abnehmforum.

  1. Home
  2. Uncategorized
  3. In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen.

In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen.

Geplant Angeheftet Gesperrt Verschoben Uncategorized
llms
218 Beiträge 54 Kommentatoren 0 Aufrufe
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • awettesfaiesus@mastodon.socialA This user is from outside of this forum
    awettesfaiesus@mastodon.socialA This user is from outside of this forum
    awettesfaiesus@mastodon.social
    schrieb zuletzt editiert von
    #1

    In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen. @marcuwekling sagte am Montag bei der Lesung Ähnliches.

    Dazu:
    1️⃣In der juristischen Ausbildung lernst du, dass 50-70% der Verwaltungsakt falsch sind. Default: falsch!
    2️⃣Dazu: in meiner Schulzeit waren Atlanten/Karten immer falsch (DDR drin, teils Saarland draußen, Jugoslawien komplett). Ich habe nicht gehört, dass über Schulen ähnlich gesprochen wird, wie über LLMs. #ki

    awettesfaiesus@mastodon.socialA morsuapri@troet.cafeM ulrich@hub.netzgemeinde.euU sascha@fedinaut.deS A 14 Antworten Letzte Antwort
    1
    0
    • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

      In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen. @marcuwekling sagte am Montag bei der Lesung Ähnliches.

      Dazu:
      1️⃣In der juristischen Ausbildung lernst du, dass 50-70% der Verwaltungsakt falsch sind. Default: falsch!
      2️⃣Dazu: in meiner Schulzeit waren Atlanten/Karten immer falsch (DDR drin, teils Saarland draußen, Jugoslawien komplett). Ich habe nicht gehört, dass über Schulen ähnlich gesprochen wird, wie über LLMs. #ki

      awettesfaiesus@mastodon.socialA This user is from outside of this forum
      awettesfaiesus@mastodon.socialA This user is from outside of this forum
      awettesfaiesus@mastodon.social
      schrieb zuletzt editiert von
      #2

      3️⃣40%-50% der Internetseiten sind jur. fehlerhaft.

      Bei aller offensichtlichen Gefährlichkeit gerade für die Kreativbrache: Menschen machen mE ständig (!) Fehler!

      Ich frage mich, ob wir bei #KI zu oft/leicht mit zweierlei Maß für Richtigkeit messen, wenn es um Fehlerhaftigkeit geht.

      Ich frage mich auch ehrlich, welche Mechanismen bei uns am Werk sind. Welches Maß legen wir hier an und warum?

      Sind wir evtl (zu sehr) daran gewöhnt, dass Algorithmen zu zuverlässig sind?

      awettesfaiesus@mastodon.socialA P derasket@mastodon.socialD 3 Antworten Letzte Antwort
      0
      • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

        3️⃣40%-50% der Internetseiten sind jur. fehlerhaft.

        Bei aller offensichtlichen Gefährlichkeit gerade für die Kreativbrache: Menschen machen mE ständig (!) Fehler!

        Ich frage mich, ob wir bei #KI zu oft/leicht mit zweierlei Maß für Richtigkeit messen, wenn es um Fehlerhaftigkeit geht.

        Ich frage mich auch ehrlich, welche Mechanismen bei uns am Werk sind. Welches Maß legen wir hier an und warum?

        Sind wir evtl (zu sehr) daran gewöhnt, dass Algorithmen zu zuverlässig sind?

        awettesfaiesus@mastodon.socialA This user is from outside of this forum
        awettesfaiesus@mastodon.socialA This user is from outside of this forum
        awettesfaiesus@mastodon.social
        schrieb zuletzt editiert von
        #3

        Konkret: Ich könnte mir vorstellen, dass in dieser (!) konkreten Herangehensweisen an KI viel Coping steckt. Lügen wir uns hier kollektiv in die eigene (intellektuelle) Tasche?

        Oder pfeifen wir hier sogar schon verzweifelt im Walde?

        Liege ich komplett falsch?

        oldperl@mastodon.onlineO chris_evelyn@troet.cafeC hbauer@social.caserio.deH paulatothepeople@climatejustice.socialP jabgoe2089@hub.netzgemeinde.euJ 17 Antworten Letzte Antwort
        0
        • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

          3️⃣40%-50% der Internetseiten sind jur. fehlerhaft.

          Bei aller offensichtlichen Gefährlichkeit gerade für die Kreativbrache: Menschen machen mE ständig (!) Fehler!

          Ich frage mich, ob wir bei #KI zu oft/leicht mit zweierlei Maß für Richtigkeit messen, wenn es um Fehlerhaftigkeit geht.

          Ich frage mich auch ehrlich, welche Mechanismen bei uns am Werk sind. Welches Maß legen wir hier an und warum?

          Sind wir evtl (zu sehr) daran gewöhnt, dass Algorithmen zu zuverlässig sind?

          P This user is from outside of this forum
          P This user is from outside of this forum
          proscience@toot.community
          schrieb zuletzt editiert von
          #4

          @AwetTesfaiesus

          Ad 1: Nein.
          Ad 2: Nein.
          Ad 3: Nein.

          1 Antwort Letzte Antwort
          0
          • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

            Konkret: Ich könnte mir vorstellen, dass in dieser (!) konkreten Herangehensweisen an KI viel Coping steckt. Lügen wir uns hier kollektiv in die eigene (intellektuelle) Tasche?

            Oder pfeifen wir hier sogar schon verzweifelt im Walde?

            Liege ich komplett falsch?

            oldperl@mastodon.onlineO This user is from outside of this forum
            oldperl@mastodon.onlineO This user is from outside of this forum
            oldperl@mastodon.online
            schrieb zuletzt editiert von
            #5

            @AwetTesfaiesus
            Ja, das ist in meinen Augen der komplett falsche Ansatz, der noch dazu die "Hirngespinnste" von #KI herunterspielt.
            Es fängt schon beim Begriff an, der uns vorhandene Intelligenz vorgaukelt. Weder diese noch Empathie ist wirklich vorhanden. Es werden Inputdaten einfach nur ausgewertet und in Beziehung gesetzt.
            Aber wir nehmen die Ergebnisse als verwendbar (und wahr) as is wahr, nutzen sie sogar als Argumentation, gar als Beweis.

            Darum sollte KI immer hinterfragt werden.

            awettesfaiesus@mastodon.socialA 1 Antwort Letzte Antwort
            1
            0
            • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

              In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen. @marcuwekling sagte am Montag bei der Lesung Ähnliches.

              Dazu:
              1️⃣In der juristischen Ausbildung lernst du, dass 50-70% der Verwaltungsakt falsch sind. Default: falsch!
              2️⃣Dazu: in meiner Schulzeit waren Atlanten/Karten immer falsch (DDR drin, teils Saarland draußen, Jugoslawien komplett). Ich habe nicht gehört, dass über Schulen ähnlich gesprochen wird, wie über LLMs. #ki

              morsuapri@troet.cafeM This user is from outside of this forum
              morsuapri@troet.cafeM This user is from outside of this forum
              morsuapri@troet.cafe
              schrieb zuletzt editiert von
              #6

              @marcuwekling @AwetTesfaiesus
              Kürzlich habe ich eine KI gefragt, wer ich (Klarname) bin. Ergebnis:
              AfD-Mitglied mit gewalttätiger Vergangenheit in diversen rechtsradikalen Gruppen und MdL im Landtag BW.
              Nach dem Hinweis, dass es im Landtag BW nie eine Person gab, rudert die KI zurück und gibt zu, dass alles erfunden war.
              Ich kenne mich, aber jemand anderes, potenzieller AG vielleicht, nicht und glaubt der KI.

              awettesfaiesus@mastodon.socialA 1 Antwort Letzte Antwort
              0
              • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen. @marcuwekling sagte am Montag bei der Lesung Ähnliches.

                Dazu:
                1️⃣In der juristischen Ausbildung lernst du, dass 50-70% der Verwaltungsakt falsch sind. Default: falsch!
                2️⃣Dazu: in meiner Schulzeit waren Atlanten/Karten immer falsch (DDR drin, teils Saarland draußen, Jugoslawien komplett). Ich habe nicht gehört, dass über Schulen ähnlich gesprochen wird, wie über LLMs. #ki

                awettesfaiesus@mastodon.socialA This user is from outside of this forum
                awettesfaiesus@mastodon.socialA This user is from outside of this forum
                awettesfaiesus@mastodon.social
                schrieb zuletzt editiert von
                #7

                Quasi passend dazu: das klingt für normale Menschen sicher skurril, aber in der Ausbildung habe ich reichlich (menschliche) Berichte (uA auch von der Polizei) gelesen, die kaum weniger hanebüchene (wiewohl weniger offensichtlich) waren als dieser „Frosch“. Typische Fehler zB: alle Farben, rechts/links, Personen vertauscht, Rechenfehler, Reihenfolgen vertauscht.

                https://t3n.de/news/polizei-ki-schreibt-einsatzbericht-und-verwandelt-beamten-in-einen-frosch-1723893/

                dasgehtgleichwieder@norden.socialD janananena@det.socialJ eisnerjosef@mastodon.wienE 3 Antworten Letzte Antwort
                1
                0
                • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                  Konkret: Ich könnte mir vorstellen, dass in dieser (!) konkreten Herangehensweisen an KI viel Coping steckt. Lügen wir uns hier kollektiv in die eigene (intellektuelle) Tasche?

                  Oder pfeifen wir hier sogar schon verzweifelt im Walde?

                  Liege ich komplett falsch?

                  chris_evelyn@troet.cafeC This user is from outside of this forum
                  chris_evelyn@troet.cafeC This user is from outside of this forum
                  chris_evelyn@troet.cafe
                  schrieb zuletzt editiert von
                  #8

                  @AwetTesfaiesus LLMs erzeugen plausibel aussehende Texte. Die sind *immer* zufällig gewürfelt, aber ziemlich oft passen sie, weil die statistische Verteilung des Ausgangsmaterials die Wahrscheinlichkeiten vorgibt.

                  Das ist es was passiert. Das große Problem ist, dass diese Dinger mit viel zu viel Bedeutung aufgeladen werden, von Befürwortern wie von manchen Gegnern.

                  Mein persönlicher Standpunkt entspricht ungefähr dem Artikel „I am an AI hater“: http://anthonymoser.github.io/writing/ai/haterdom/2025/08/26/i-am-an-ai-hater.html

                  awettesfaiesus@mastodon.socialA 1 Antwort Letzte Antwort
                  1
                  0
                  • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                    Konkret: Ich könnte mir vorstellen, dass in dieser (!) konkreten Herangehensweisen an KI viel Coping steckt. Lügen wir uns hier kollektiv in die eigene (intellektuelle) Tasche?

                    Oder pfeifen wir hier sogar schon verzweifelt im Walde?

                    Liege ich komplett falsch?

                    hbauer@social.caserio.deH This user is from outside of this forum
                    hbauer@social.caserio.deH This user is from outside of this forum
                    hbauer@social.caserio.de
                    schrieb zuletzt editiert von
                    #9

                    @AwetTesfaiesus Ich denke dieser Gedankengang ist falsch. Ja auch Menschen machen Fehler. Aber nicht alle und automatisiert. Und es gibt (nicht bei allen) eine Fähigkeit der Selbstreflektion und ein Risikobewuststein. https://social.caserio.de/deck/@kobaltauge@social.tchncs.de/115844406500940711

                    awettesfaiesus@mastodon.socialA 1 Antwort Letzte Antwort
                    0
                    • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                      In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen. @marcuwekling sagte am Montag bei der Lesung Ähnliches.

                      Dazu:
                      1️⃣In der juristischen Ausbildung lernst du, dass 50-70% der Verwaltungsakt falsch sind. Default: falsch!
                      2️⃣Dazu: in meiner Schulzeit waren Atlanten/Karten immer falsch (DDR drin, teils Saarland draußen, Jugoslawien komplett). Ich habe nicht gehört, dass über Schulen ähnlich gesprochen wird, wie über LLMs. #ki

                      ulrich@hub.netzgemeinde.euU This user is from outside of this forum
                      ulrich@hub.netzgemeinde.euU This user is from outside of this forum
                      ulrich@hub.netzgemeinde.eu
                      schrieb zuletzt editiert von
                      #10
                      @Awet Tesfaiesus, MdB So im Schnitt fahren Menschen so 3.000 Menschen im Jahr tot. Wenn selbstfahrenden KI auf 500 käme, wäre die KI fehlerhaft, wir würden sie nicht zulassen.
                      1 Antwort Letzte Antwort
                      0
                      • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                        Konkret: Ich könnte mir vorstellen, dass in dieser (!) konkreten Herangehensweisen an KI viel Coping steckt. Lügen wir uns hier kollektiv in die eigene (intellektuelle) Tasche?

                        Oder pfeifen wir hier sogar schon verzweifelt im Walde?

                        Liege ich komplett falsch?

                        paulatothepeople@climatejustice.socialP This user is from outside of this forum
                        paulatothepeople@climatejustice.socialP This user is from outside of this forum
                        paulatothepeople@climatejustice.social
                        schrieb zuletzt editiert von
                        #11

                        @AwetTesfaiesus KI "lernt" von unzuverlässigen Quellen. Klar ist da die Fehlerrate ähnlich hoch.

                        Der Grund, wieso das bei KI so oft erwähnt wird ist m.M.n., dass so viele Menschen, die KI verwenden, glauben die KI ist gscheit.

                        https://mastodon.social/@gvwilson/115786387599873733

                        Aber ich glaube auch, wir sollten viel weniger darüber reden. M.M.n. lenkt jedes Argument gegen KI, das nicht "KI ist Ökozid-Automation" von der wahren Gefahr von KI ab und die Leute denken sich "Na wenn das gefährlichste an KI bloß ist, dass sie oft falsch liegt, einen faschistischen Bias hat und Milliardären dient, dann ists ja nicht so schlimm, wenn ich sie verwende".

                        awettesfaiesus@mastodon.socialA 1 Antwort Letzte Antwort
                        0
                        • oldperl@mastodon.onlineO oldperl@mastodon.online

                          @AwetTesfaiesus
                          Ja, das ist in meinen Augen der komplett falsche Ansatz, der noch dazu die "Hirngespinnste" von #KI herunterspielt.
                          Es fängt schon beim Begriff an, der uns vorhandene Intelligenz vorgaukelt. Weder diese noch Empathie ist wirklich vorhanden. Es werden Inputdaten einfach nur ausgewertet und in Beziehung gesetzt.
                          Aber wir nehmen die Ergebnisse als verwendbar (und wahr) as is wahr, nutzen sie sogar als Argumentation, gar als Beweis.

                          Darum sollte KI immer hinterfragt werden.

                          awettesfaiesus@mastodon.socialA This user is from outside of this forum
                          awettesfaiesus@mastodon.socialA This user is from outside of this forum
                          awettesfaiesus@mastodon.social
                          schrieb zuletzt editiert von
                          #12

                          @oldperl ich denke, meine Frage wird missverstanden. Natürlich sollten wir hinterfragen. Ich frage mich aber: hinterfragen wir menschliche Ergebnisse mit demselben Eifer?

                          oldperl@mastodon.onlineO dasgehtgleichwieder@norden.socialD energisch_@troet.cafeE andreas_tengicki@hessen.socialA ottilie_katz@troet.cafeO 5 Antworten Letzte Antwort
                          0
                          • morsuapri@troet.cafeM morsuapri@troet.cafe

                            @marcuwekling @AwetTesfaiesus
                            Kürzlich habe ich eine KI gefragt, wer ich (Klarname) bin. Ergebnis:
                            AfD-Mitglied mit gewalttätiger Vergangenheit in diversen rechtsradikalen Gruppen und MdL im Landtag BW.
                            Nach dem Hinweis, dass es im Landtag BW nie eine Person gab, rudert die KI zurück und gibt zu, dass alles erfunden war.
                            Ich kenne mich, aber jemand anderes, potenzieller AG vielleicht, nicht und glaubt der KI.

                            awettesfaiesus@mastodon.socialA This user is from outside of this forum
                            awettesfaiesus@mastodon.socialA This user is from outside of this forum
                            awettesfaiesus@mastodon.social
                            schrieb zuletzt editiert von
                            #13

                            @morsuapri @marcuwekling das ist schon schlimm .

                            Aber mehrfach wurde ich im Gerichtssaal für die Dolmetscherin gehalten. Obwohl ich dort in Robbe (!) saß. Einmal wollte der Richter mir ein Ordnungsgeld aufbrummen wegen Nichterscheinens (Amtsgericht München!). Ich möchte ja glauben, er hat meine Identität auch falsch zugeordnet.

                            morsuapri@troet.cafeM 1 Antwort Letzte Antwort
                            0
                            • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                              @oldperl ich denke, meine Frage wird missverstanden. Natürlich sollten wir hinterfragen. Ich frage mich aber: hinterfragen wir menschliche Ergebnisse mit demselben Eifer?

                              oldperl@mastodon.onlineO This user is from outside of this forum
                              oldperl@mastodon.onlineO This user is from outside of this forum
                              oldperl@mastodon.online
                              schrieb zuletzt editiert von
                              #14

                              @AwetTesfaiesus ich denke nicht, dass ich die Frage missverstehe.

                              Allein der Vergleich zu menschlichen Ergebnissen zeigt doch schon das Missverständnis in der Frage, denn #KI ist eben nicht menschlich, hat keine eigene Intelligenz. Und gerade deswegen, weil es eben NUR eine Maschine, ein Algorithmus, ein #llm ist, gerade deswegen müssen wir es noch stärker hinterfragen und darauf bestehen, dass Ergebnisse korrekt sind, dort eben keine "menschlichen" Fehler auftauchen.

                              oldperl@mastodon.onlineO awettesfaiesus@mastodon.socialA 2 Antworten Letzte Antwort
                              0
                              • oldperl@mastodon.onlineO oldperl@mastodon.online

                                @AwetTesfaiesus ich denke nicht, dass ich die Frage missverstehe.

                                Allein der Vergleich zu menschlichen Ergebnissen zeigt doch schon das Missverständnis in der Frage, denn #KI ist eben nicht menschlich, hat keine eigene Intelligenz. Und gerade deswegen, weil es eben NUR eine Maschine, ein Algorithmus, ein #llm ist, gerade deswegen müssen wir es noch stärker hinterfragen und darauf bestehen, dass Ergebnisse korrekt sind, dort eben keine "menschlichen" Fehler auftauchen.

                                oldperl@mastodon.onlineO This user is from outside of this forum
                                oldperl@mastodon.onlineO This user is from outside of this forum
                                oldperl@mastodon.online
                                schrieb zuletzt editiert von
                                #15

                                @AwetTesfaiesus und zur letzten Frage, nein, tun wir nicht, und die Politik geht da "mit gutem Beispiel" voran. Wer Hinterfragt #Trump denn wirklich, und öffentlich? Die Zivilgesellschaft, nicht die Politik.

                                Und weitere Beispiele könnte ich hier noch massenhaft aufzählen.

                                oldperl@mastodon.onlineO 1 Antwort Letzte Antwort
                                0
                                • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                                  Quasi passend dazu: das klingt für normale Menschen sicher skurril, aber in der Ausbildung habe ich reichlich (menschliche) Berichte (uA auch von der Polizei) gelesen, die kaum weniger hanebüchene (wiewohl weniger offensichtlich) waren als dieser „Frosch“. Typische Fehler zB: alle Farben, rechts/links, Personen vertauscht, Rechenfehler, Reihenfolgen vertauscht.

                                  https://t3n.de/news/polizei-ki-schreibt-einsatzbericht-und-verwandelt-beamten-in-einen-frosch-1723893/

                                  dasgehtgleichwieder@norden.socialD This user is from outside of this forum
                                  dasgehtgleichwieder@norden.socialD This user is from outside of this forum
                                  dasgehtgleichwieder@norden.social
                                  schrieb zuletzt editiert von
                                  #16

                                  @AwetTesfaiesus

                                  Alle machen Fehler. Das zu erkennen ist der erste Schritt zur Intelligenz.
                                  Menschen, die behaupten keine Fehler zu machen, sind "Die Dummen"!

                                  Der Staatsapparat hat besondere Rechte bei der #Gewaltausübung, daraus resultiert auch eine besondere #Sorgfaltspflicht!

                                  https://www.zdf.de/dokus/ganz-normale-maenner-movie-100

                                  https://www.dbb.de/lexikon/themenartikel/r/remonstrationspflicht.html

                                  Sollte es belegbare Zweifel an der Sorgfaltspflicht der Beamten geben, hat der Bürger ein #Widerstandsrecht.
                                  #Notwehr

                                  https://www.gesetze-im-internet.de/gg/art_20.html

                                  1 Antwort Letzte Antwort
                                  0
                                  • oldperl@mastodon.onlineO oldperl@mastodon.online

                                    @AwetTesfaiesus ich denke nicht, dass ich die Frage missverstehe.

                                    Allein der Vergleich zu menschlichen Ergebnissen zeigt doch schon das Missverständnis in der Frage, denn #KI ist eben nicht menschlich, hat keine eigene Intelligenz. Und gerade deswegen, weil es eben NUR eine Maschine, ein Algorithmus, ein #llm ist, gerade deswegen müssen wir es noch stärker hinterfragen und darauf bestehen, dass Ergebnisse korrekt sind, dort eben keine "menschlichen" Fehler auftauchen.

                                    awettesfaiesus@mastodon.socialA This user is from outside of this forum
                                    awettesfaiesus@mastodon.socialA This user is from outside of this forum
                                    awettesfaiesus@mastodon.social
                                    schrieb zuletzt editiert von
                                    #17

                                    @oldperl ich möchte klarstellen: ich frage mich u.A. warum wir menschlichen Aussagen nicht mit derselben Skepsis begegnen, wie der KI und zwar selbst dann nicht, wenn wir wissen, dass die Ergebnisse mit über 50%iger Wahrscheinlichkeit falsch sind (Jobcenterbescheid?). Wieso ist die falsche „Map of Europe“ ein Anlass zur Empörung, die 10tausend falschen Karten in unseren Schulen aber nicht?

                                    oldperl@mastodon.onlineO pdh@hessen.socialP aubrieta@social.tchncs.deA 3 Antworten Letzte Antwort
                                    1
                                    0
                                    • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                                      @morsuapri @marcuwekling das ist schon schlimm .

                                      Aber mehrfach wurde ich im Gerichtssaal für die Dolmetscherin gehalten. Obwohl ich dort in Robbe (!) saß. Einmal wollte der Richter mir ein Ordnungsgeld aufbrummen wegen Nichterscheinens (Amtsgericht München!). Ich möchte ja glauben, er hat meine Identität auch falsch zugeordnet.

                                      morsuapri@troet.cafeM This user is from outside of this forum
                                      morsuapri@troet.cafeM This user is from outside of this forum
                                      morsuapri@troet.cafe
                                      schrieb zuletzt editiert von
                                      #18

                                      @marcuwekling @AwetTesfaiesus
                                      Wenn die betreffende Person zugegen ist und den Irrtum aufklären kann, ist das eine andere Situation, wie wenn da jemand alleine vor dem PC sitzt und „recherchiert“.
                                      Natürlich könnte die Person selbst einige Punkte der Darstellung der KI nachprüfen, aber da bin ich eher misstrauisch.
                                      Eine Anfrage an eine KI KANN einen Hinweis in die richtige Richtung geben, muss aber nachgeprüft (Fachbücher, Zeitschriften,...) werden.

                                      1 Antwort Letzte Antwort
                                      0
                                      • oldperl@mastodon.onlineO oldperl@mastodon.online

                                        @AwetTesfaiesus und zur letzten Frage, nein, tun wir nicht, und die Politik geht da "mit gutem Beispiel" voran. Wer Hinterfragt #Trump denn wirklich, und öffentlich? Die Zivilgesellschaft, nicht die Politik.

                                        Und weitere Beispiele könnte ich hier noch massenhaft aufzählen.

                                        oldperl@mastodon.onlineO This user is from outside of this forum
                                        oldperl@mastodon.onlineO This user is from outside of this forum
                                        oldperl@mastodon.online
                                        schrieb zuletzt editiert von
                                        #19

                                        @AwetTesfaiesus
                                        Mitglieder des Bundestages sind (sollten sein) Vertreter des Volkes, und sollen dort nach bestem (eigenen) Gewissen Entscheidungen für eben dieses Volk treffen.

                                        Doch geschieht das wirklich noch. Ich denke nicht. Wir werden inzwischen von Einzelnen und Partei-Vorgaben regiert, und wer sich dem Fraktionszwang nicht unterwirft, ist schnell raus.

                                        Und dann kommt noch eine "lügende" Maschine daher, gesteuert von Oligarchen, und wir sollen dort auch weg oder nicht so genau schauen.

                                        awettesfaiesus@mastodon.socialA 1 Antwort Letzte Antwort
                                        0
                                        • paulatothepeople@climatejustice.socialP paulatothepeople@climatejustice.social

                                          @AwetTesfaiesus KI "lernt" von unzuverlässigen Quellen. Klar ist da die Fehlerrate ähnlich hoch.

                                          Der Grund, wieso das bei KI so oft erwähnt wird ist m.M.n., dass so viele Menschen, die KI verwenden, glauben die KI ist gscheit.

                                          https://mastodon.social/@gvwilson/115786387599873733

                                          Aber ich glaube auch, wir sollten viel weniger darüber reden. M.M.n. lenkt jedes Argument gegen KI, das nicht "KI ist Ökozid-Automation" von der wahren Gefahr von KI ab und die Leute denken sich "Na wenn das gefährlichste an KI bloß ist, dass sie oft falsch liegt, einen faschistischen Bias hat und Milliardären dient, dann ists ja nicht so schlimm, wenn ich sie verwende".

                                          awettesfaiesus@mastodon.socialA This user is from outside of this forum
                                          awettesfaiesus@mastodon.socialA This user is from outside of this forum
                                          awettesfaiesus@mastodon.social
                                          schrieb zuletzt editiert von
                                          #20

                                          @PaulaToThePeople

                                          Das scheint mir so plausibel und eher korrekt.

                                          1 Antwort Letzte Antwort
                                          0
                                          Antworten
                                          • In einem neuen Thema antworten
                                          Anmelden zum Antworten
                                          • Älteste zuerst
                                          • Neuste zuerst
                                          • Meiste Stimmen



                                          Copyright (c) 2025 abSpecktrum (@abspecklog@fedimonster.de)

                                          Erstellt mit Schlaflosigkeit, Kaffee, Brokkoli & ♥

                                          Impressum | Datenschutzerklärung | Nutzungsbedingungen

                                          • Anmelden

                                          • Du hast noch kein Konto? Registrieren

                                          • Anmelden oder registrieren, um zu suchen
                                          • Erster Beitrag
                                            Letzter Beitrag
                                          0
                                          • Home
                                          • Aktuell
                                          • Tags
                                          • Über dieses Forum