In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen.
-
3️⃣40%-50% der Internetseiten sind jur. fehlerhaft.
Bei aller offensichtlichen Gefährlichkeit gerade für die Kreativbrache: Menschen machen mE ständig (!) Fehler!
Ich frage mich, ob wir bei #KI zu oft/leicht mit zweierlei Maß für Richtigkeit messen, wenn es um Fehlerhaftigkeit geht.
Ich frage mich auch ehrlich, welche Mechanismen bei uns am Werk sind. Welches Maß legen wir hier an und warum?
Sind wir evtl (zu sehr) daran gewöhnt, dass Algorithmen zu zuverlässig sind?
Konkret: Ich könnte mir vorstellen, dass in dieser (!) konkreten Herangehensweisen an KI viel Coping steckt. Lügen wir uns hier kollektiv in die eigene (intellektuelle) Tasche?
Oder pfeifen wir hier sogar schon verzweifelt im Walde?
Liege ich komplett falsch?
-
3️⃣40%-50% der Internetseiten sind jur. fehlerhaft.
Bei aller offensichtlichen Gefährlichkeit gerade für die Kreativbrache: Menschen machen mE ständig (!) Fehler!
Ich frage mich, ob wir bei #KI zu oft/leicht mit zweierlei Maß für Richtigkeit messen, wenn es um Fehlerhaftigkeit geht.
Ich frage mich auch ehrlich, welche Mechanismen bei uns am Werk sind. Welches Maß legen wir hier an und warum?
Sind wir evtl (zu sehr) daran gewöhnt, dass Algorithmen zu zuverlässig sind?
Ad 1: Nein.
Ad 2: Nein.
Ad 3: Nein. -
Konkret: Ich könnte mir vorstellen, dass in dieser (!) konkreten Herangehensweisen an KI viel Coping steckt. Lügen wir uns hier kollektiv in die eigene (intellektuelle) Tasche?
Oder pfeifen wir hier sogar schon verzweifelt im Walde?
Liege ich komplett falsch?
@AwetTesfaiesus
Ja, das ist in meinen Augen der komplett falsche Ansatz, der noch dazu die "Hirngespinnste" von #KI herunterspielt.
Es fängt schon beim Begriff an, der uns vorhandene Intelligenz vorgaukelt. Weder diese noch Empathie ist wirklich vorhanden. Es werden Inputdaten einfach nur ausgewertet und in Beziehung gesetzt.
Aber wir nehmen die Ergebnisse als verwendbar (und wahr) as is wahr, nutzen sie sogar als Argumentation, gar als Beweis.Darum sollte KI immer hinterfragt werden.
-
In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen. @marcuwekling sagte am Montag bei der Lesung Ähnliches.
Dazu:
1️⃣In der juristischen Ausbildung lernst du, dass 50-70% der Verwaltungsakt falsch sind. Default: falsch!
2️⃣Dazu: in meiner Schulzeit waren Atlanten/Karten immer falsch (DDR drin, teils Saarland draußen, Jugoslawien komplett). Ich habe nicht gehört, dass über Schulen ähnlich gesprochen wird, wie über LLMs. #ki@marcuwekling @AwetTesfaiesus
Kürzlich habe ich eine KI gefragt, wer ich (Klarname) bin. Ergebnis:
AfD-Mitglied mit gewalttätiger Vergangenheit in diversen rechtsradikalen Gruppen und MdL im Landtag BW.
Nach dem Hinweis, dass es im Landtag BW nie eine Person gab, rudert die KI zurück und gibt zu, dass alles erfunden war.
Ich kenne mich, aber jemand anderes, potenzieller AG vielleicht, nicht und glaubt der KI. -
In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen. @marcuwekling sagte am Montag bei der Lesung Ähnliches.
Dazu:
1️⃣In der juristischen Ausbildung lernst du, dass 50-70% der Verwaltungsakt falsch sind. Default: falsch!
2️⃣Dazu: in meiner Schulzeit waren Atlanten/Karten immer falsch (DDR drin, teils Saarland draußen, Jugoslawien komplett). Ich habe nicht gehört, dass über Schulen ähnlich gesprochen wird, wie über LLMs. #kiQuasi passend dazu: das klingt für normale Menschen sicher skurril, aber in der Ausbildung habe ich reichlich (menschliche) Berichte (uA auch von der Polizei) gelesen, die kaum weniger hanebüchene (wiewohl weniger offensichtlich) waren als dieser „Frosch“. Typische Fehler zB: alle Farben, rechts/links, Personen vertauscht, Rechenfehler, Reihenfolgen vertauscht.
-
Konkret: Ich könnte mir vorstellen, dass in dieser (!) konkreten Herangehensweisen an KI viel Coping steckt. Lügen wir uns hier kollektiv in die eigene (intellektuelle) Tasche?
Oder pfeifen wir hier sogar schon verzweifelt im Walde?
Liege ich komplett falsch?
@AwetTesfaiesus LLMs erzeugen plausibel aussehende Texte. Die sind *immer* zufällig gewürfelt, aber ziemlich oft passen sie, weil die statistische Verteilung des Ausgangsmaterials die Wahrscheinlichkeiten vorgibt.
Das ist es was passiert. Das große Problem ist, dass diese Dinger mit viel zu viel Bedeutung aufgeladen werden, von Befürwortern wie von manchen Gegnern.
Mein persönlicher Standpunkt entspricht ungefähr dem Artikel „I am an AI hater“: http://anthonymoser.github.io/writing/ai/haterdom/2025/08/26/i-am-an-ai-hater.html
-
Konkret: Ich könnte mir vorstellen, dass in dieser (!) konkreten Herangehensweisen an KI viel Coping steckt. Lügen wir uns hier kollektiv in die eigene (intellektuelle) Tasche?
Oder pfeifen wir hier sogar schon verzweifelt im Walde?
Liege ich komplett falsch?
@AwetTesfaiesus Ich denke dieser Gedankengang ist falsch. Ja auch Menschen machen Fehler. Aber nicht alle und automatisiert. Und es gibt (nicht bei allen) eine Fähigkeit der Selbstreflektion und ein Risikobewuststein. https://social.caserio.de/deck/@kobaltauge@social.tchncs.de/115844406500940711
-
In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen. @marcuwekling sagte am Montag bei der Lesung Ähnliches.
Dazu:
1️⃣In der juristischen Ausbildung lernst du, dass 50-70% der Verwaltungsakt falsch sind. Default: falsch!
2️⃣Dazu: in meiner Schulzeit waren Atlanten/Karten immer falsch (DDR drin, teils Saarland draußen, Jugoslawien komplett). Ich habe nicht gehört, dass über Schulen ähnlich gesprochen wird, wie über LLMs. #ki@Awet Tesfaiesus, MdB So im Schnitt fahren Menschen so 3.000 Menschen im Jahr tot. Wenn selbstfahrenden KI auf 500 käme, wäre die KI fehlerhaft, wir würden sie nicht zulassen. -
Konkret: Ich könnte mir vorstellen, dass in dieser (!) konkreten Herangehensweisen an KI viel Coping steckt. Lügen wir uns hier kollektiv in die eigene (intellektuelle) Tasche?
Oder pfeifen wir hier sogar schon verzweifelt im Walde?
Liege ich komplett falsch?
@AwetTesfaiesus KI "lernt" von unzuverlässigen Quellen. Klar ist da die Fehlerrate ähnlich hoch.
Der Grund, wieso das bei KI so oft erwähnt wird ist m.M.n., dass so viele Menschen, die KI verwenden, glauben die KI ist gscheit.
https://mastodon.social/@gvwilson/115786387599873733
Aber ich glaube auch, wir sollten viel weniger darüber reden. M.M.n. lenkt jedes Argument gegen KI, das nicht "KI ist Ökozid-Automation" von der wahren Gefahr von KI ab und die Leute denken sich "Na wenn das gefährlichste an KI bloß ist, dass sie oft falsch liegt, einen faschistischen Bias hat und Milliardären dient, dann ists ja nicht so schlimm, wenn ich sie verwende".
-
@AwetTesfaiesus
Ja, das ist in meinen Augen der komplett falsche Ansatz, der noch dazu die "Hirngespinnste" von #KI herunterspielt.
Es fängt schon beim Begriff an, der uns vorhandene Intelligenz vorgaukelt. Weder diese noch Empathie ist wirklich vorhanden. Es werden Inputdaten einfach nur ausgewertet und in Beziehung gesetzt.
Aber wir nehmen die Ergebnisse als verwendbar (und wahr) as is wahr, nutzen sie sogar als Argumentation, gar als Beweis.Darum sollte KI immer hinterfragt werden.
@oldperl ich denke, meine Frage wird missverstanden. Natürlich sollten wir hinterfragen. Ich frage mich aber: hinterfragen wir menschliche Ergebnisse mit demselben Eifer?
-
@marcuwekling @AwetTesfaiesus
Kürzlich habe ich eine KI gefragt, wer ich (Klarname) bin. Ergebnis:
AfD-Mitglied mit gewalttätiger Vergangenheit in diversen rechtsradikalen Gruppen und MdL im Landtag BW.
Nach dem Hinweis, dass es im Landtag BW nie eine Person gab, rudert die KI zurück und gibt zu, dass alles erfunden war.
Ich kenne mich, aber jemand anderes, potenzieller AG vielleicht, nicht und glaubt der KI.@morsuapri @marcuwekling das ist schon schlimm .
Aber mehrfach wurde ich im Gerichtssaal für die Dolmetscherin gehalten. Obwohl ich dort in Robbe (!) saß. Einmal wollte der Richter mir ein Ordnungsgeld aufbrummen wegen Nichterscheinens (Amtsgericht München!). Ich möchte ja glauben, er hat meine Identität auch falsch zugeordnet.
-
@oldperl ich denke, meine Frage wird missverstanden. Natürlich sollten wir hinterfragen. Ich frage mich aber: hinterfragen wir menschliche Ergebnisse mit demselben Eifer?
@AwetTesfaiesus ich denke nicht, dass ich die Frage missverstehe.
Allein der Vergleich zu menschlichen Ergebnissen zeigt doch schon das Missverständnis in der Frage, denn #KI ist eben nicht menschlich, hat keine eigene Intelligenz. Und gerade deswegen, weil es eben NUR eine Maschine, ein Algorithmus, ein #llm ist, gerade deswegen müssen wir es noch stärker hinterfragen und darauf bestehen, dass Ergebnisse korrekt sind, dort eben keine "menschlichen" Fehler auftauchen.
-
@AwetTesfaiesus ich denke nicht, dass ich die Frage missverstehe.
Allein der Vergleich zu menschlichen Ergebnissen zeigt doch schon das Missverständnis in der Frage, denn #KI ist eben nicht menschlich, hat keine eigene Intelligenz. Und gerade deswegen, weil es eben NUR eine Maschine, ein Algorithmus, ein #llm ist, gerade deswegen müssen wir es noch stärker hinterfragen und darauf bestehen, dass Ergebnisse korrekt sind, dort eben keine "menschlichen" Fehler auftauchen.
@AwetTesfaiesus und zur letzten Frage, nein, tun wir nicht, und die Politik geht da "mit gutem Beispiel" voran. Wer Hinterfragt #Trump denn wirklich, und öffentlich? Die Zivilgesellschaft, nicht die Politik.
Und weitere Beispiele könnte ich hier noch massenhaft aufzählen.
-
Quasi passend dazu: das klingt für normale Menschen sicher skurril, aber in der Ausbildung habe ich reichlich (menschliche) Berichte (uA auch von der Polizei) gelesen, die kaum weniger hanebüchene (wiewohl weniger offensichtlich) waren als dieser „Frosch“. Typische Fehler zB: alle Farben, rechts/links, Personen vertauscht, Rechenfehler, Reihenfolgen vertauscht.
Alle machen Fehler. Das zu erkennen ist der erste Schritt zur Intelligenz.
Menschen, die behaupten keine Fehler zu machen, sind "Die Dummen"!Der Staatsapparat hat besondere Rechte bei der #Gewaltausübung, daraus resultiert auch eine besondere #Sorgfaltspflicht!
https://www.zdf.de/dokus/ganz-normale-maenner-movie-100
https://www.dbb.de/lexikon/themenartikel/r/remonstrationspflicht.html
Sollte es belegbare Zweifel an der Sorgfaltspflicht der Beamten geben, hat der Bürger ein #Widerstandsrecht.
#Notwehr -
@AwetTesfaiesus ich denke nicht, dass ich die Frage missverstehe.
Allein der Vergleich zu menschlichen Ergebnissen zeigt doch schon das Missverständnis in der Frage, denn #KI ist eben nicht menschlich, hat keine eigene Intelligenz. Und gerade deswegen, weil es eben NUR eine Maschine, ein Algorithmus, ein #llm ist, gerade deswegen müssen wir es noch stärker hinterfragen und darauf bestehen, dass Ergebnisse korrekt sind, dort eben keine "menschlichen" Fehler auftauchen.
@oldperl ich möchte klarstellen: ich frage mich u.A. warum wir menschlichen Aussagen nicht mit derselben Skepsis begegnen, wie der KI und zwar selbst dann nicht, wenn wir wissen, dass die Ergebnisse mit über 50%iger Wahrscheinlichkeit falsch sind (Jobcenterbescheid?). Wieso ist die falsche „Map of Europe“ ein Anlass zur Empörung, die 10tausend falschen Karten in unseren Schulen aber nicht?
-
@morsuapri @marcuwekling das ist schon schlimm .
Aber mehrfach wurde ich im Gerichtssaal für die Dolmetscherin gehalten. Obwohl ich dort in Robbe (!) saß. Einmal wollte der Richter mir ein Ordnungsgeld aufbrummen wegen Nichterscheinens (Amtsgericht München!). Ich möchte ja glauben, er hat meine Identität auch falsch zugeordnet.
@marcuwekling @AwetTesfaiesus
Wenn die betreffende Person zugegen ist und den Irrtum aufklären kann, ist das eine andere Situation, wie wenn da jemand alleine vor dem PC sitzt und „recherchiert“.
Natürlich könnte die Person selbst einige Punkte der Darstellung der KI nachprüfen, aber da bin ich eher misstrauisch.
Eine Anfrage an eine KI KANN einen Hinweis in die richtige Richtung geben, muss aber nachgeprüft (Fachbücher, Zeitschriften,...) werden. -
@AwetTesfaiesus und zur letzten Frage, nein, tun wir nicht, und die Politik geht da "mit gutem Beispiel" voran. Wer Hinterfragt #Trump denn wirklich, und öffentlich? Die Zivilgesellschaft, nicht die Politik.
Und weitere Beispiele könnte ich hier noch massenhaft aufzählen.
@AwetTesfaiesus
Mitglieder des Bundestages sind (sollten sein) Vertreter des Volkes, und sollen dort nach bestem (eigenen) Gewissen Entscheidungen für eben dieses Volk treffen.Doch geschieht das wirklich noch. Ich denke nicht. Wir werden inzwischen von Einzelnen und Partei-Vorgaben regiert, und wer sich dem Fraktionszwang nicht unterwirft, ist schnell raus.
Und dann kommt noch eine "lügende" Maschine daher, gesteuert von Oligarchen, und wir sollen dort auch weg oder nicht so genau schauen.
-
@AwetTesfaiesus KI "lernt" von unzuverlässigen Quellen. Klar ist da die Fehlerrate ähnlich hoch.
Der Grund, wieso das bei KI so oft erwähnt wird ist m.M.n., dass so viele Menschen, die KI verwenden, glauben die KI ist gscheit.
https://mastodon.social/@gvwilson/115786387599873733
Aber ich glaube auch, wir sollten viel weniger darüber reden. M.M.n. lenkt jedes Argument gegen KI, das nicht "KI ist Ökozid-Automation" von der wahren Gefahr von KI ab und die Leute denken sich "Na wenn das gefährlichste an KI bloß ist, dass sie oft falsch liegt, einen faschistischen Bias hat und Milliardären dient, dann ists ja nicht so schlimm, wenn ich sie verwende".
Das scheint mir so plausibel und eher korrekt.
-
@oldperl ich denke, meine Frage wird missverstanden. Natürlich sollten wir hinterfragen. Ich frage mich aber: hinterfragen wir menschliche Ergebnisse mit demselben Eifer?
Das Weltbild vieler Menschen ist sehr eingeschränkt. Das ist seit tausenden von Jahren dokumentiert. Nimm ein #Buch und behaupte dann zu #wissen was drin steht und viele Menschen werden es einfach #glauben, ohne selbst das Buch zu lesen, andere glauben es auch nicht, aber lesen trotzdem nicht das Buch.
Sie sind nicht an der #Wahrheit interessiert!
https://www.psychologie-guide.de/die-dummheit-ist-allgegenwaertig-und-kennt-keine-grenzen.html -
@AwetTesfaiesus Ich denke dieser Gedankengang ist falsch. Ja auch Menschen machen Fehler. Aber nicht alle und automatisiert. Und es gibt (nicht bei allen) eine Fähigkeit der Selbstreflektion und ein Risikobewuststein. https://social.caserio.de/deck/@kobaltauge@social.tchncs.de/115844406500940711
Grundsätzlich richtig (allerdings: ich erinnere Zeiten, in denen alle (!) Widerrufsbelehrungen und alle (!) Hartz4-Bescheide falsch waren, restlos alle).
Aber mich interessiert hier die menschliche Seite, nicht die technische. Warum reagieren wir in der aktuellen Situation, wie wir reagieren?