In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen.
-
@Der_zuversichtliche_Daniel @marcuwekling wie ich bereits schrieb: die Prozentangaben stammen aus der Ausbildung. Viele davon kannst du googeln.
Die Angaben zu den BAMF-bescheiden schöpfe ich aus eigener Anschauung
Ich habe die gleiche Ausbildung genossen, solche Zahlen wurden mir nie genannt
Vor allem aber muss es da ja einen Maßstab geben. Meinst Du weltweit, deutschlandweit, Steuerbescheide, Hartz IV-Bescheide, Asyl-Bescheide, Baugenehmigungen usw.?
Du siehst ich bin an dieser Stelle skeptisch mit Dir und das obwohl Du bei mir anhand vieler Deiner sonstigen Posts durchaus Vertrauen genießt.
-
Ja, und da stimme ich dir zu was die Erwartung an LLM's betrifft. Wie können wir perfektion von künstlicher Intelligenz erwarten wenn unsere reale Intelligenz schon so mangelhaft ist.
Wie können wir auf erfolg hoffen wenn ein Elon Musk seine LLM schon so programmiert dass sie seine Wahrheiten verbreiten soll und seine großartigkeit preisen.
Einzigen Vorteil einer LLM seh ich im fehlen von Emotionen. Mit den richtigen Daten als Input erhält man nüchterne Antwort
@TheOneSwit mag sein, aber zum heutigen Stand erhältst du keine logische Antwort. Du erhältst das Ergebnis, das laut vorhandener Datenlage das häufigste und deshalb das wahrscheinlichste ist. Und das dann auch noch mit einem Datenhaufen, in dem wissenschaftliche Erkenntnisse, die auf Evidenz basieren gleich gewichtet werden mit Hokuspokus und Schwurbelei. Da verzichte ich dann lieber auf diesen #AISlop @AwetTesfaiesus
-
@TheOneSwit Und diese Erfahrung zeigt, dass die Robert Kennedys dieser Welt eher sterben als die, die sich auf wissenschaftliche Evidenz verlassen. Wobei wir wieder bei LLMs landen. Da werden Daten selten gewichtet. Die Esoterik und Schwurbelei wiegen ebenso schwer im Input wie die Wissenschaft. @AwetTesfaiesus
Ja, das "Werkzeug" ist fehlerhaft programmiert und soll aus kapitalistischen/politischen Gründen auch gar nicht richtig funktionieren.
Wäre ja schrecklich wenn so ein Ding nicht bestätigt was Trump, Chamenei, Putin oder auch nur ein Söder sagt. Es würde ja unser Ego verletzen wenn so ein Ding eher recht hätte als ein Mensch.
-
@AwetTesfaiesus Interessante Frage. Ich habe einige der Diskussionsthreads quer gelesen. Ich habe keinerlei juristische Erfahrung. Hier meine 2c.

Der eigentliche Skandal deiner Aussagen liegt IMHO in der hohen Anzahl der menschlichen Fehler. Wobei politisch motivierte rechtliche Fehler da nicht eingerechnet werden sollten - wir haben verschiedene Ebenen von Fehlern.
1/x
@AwetTesfaiesus
Das was du über Juristische Fehler schreibst, hört sich für mich nach einem Skandal an und gebe ich dir Recht: Das sollten wir mindestens so scharf kritisieren und versuchen, zu verbessern. Böse gesprochen (aus Laiensicht): Ist sich die juristische Zunft hier menschlich nicht selbst mehr Wert? Fehler passieren, aber Bullshittexte als quasi Standard der Juristerei - das ist ein gefährliches strukturelles Problem.2/x
-
@Der_zuversichtliche_Daniel @marcuwekling das Gebiet der DDR wurde extra nicht als Ausland markiert. Die DDR saß mit der Bundesrepublik zur gleichen Zeit in der UN Vollversammlung.
Das war nicht in allen Atlanten so und selbst nach Deinem Beispiel ein Spezialfall, der politisch gesteuert war, weil man dadurch die Teilung Deutschlands nicht "anerkennen" wollte.
-
@Der_zuversichtliche_Daniel @marcuwekling mir ist nicht klar, was du mit falsch positiven bescheiden meinst. Hartz IV, dass gewährt wird, obwohl die Voraussetzung nicht vorliegen?
genau
-
@AwetTesfaiesus
Das was du über Juristische Fehler schreibst, hört sich für mich nach einem Skandal an und gebe ich dir Recht: Das sollten wir mindestens so scharf kritisieren und versuchen, zu verbessern. Böse gesprochen (aus Laiensicht): Ist sich die juristische Zunft hier menschlich nicht selbst mehr Wert? Fehler passieren, aber Bullshittexte als quasi Standard der Juristerei - das ist ein gefährliches strukturelles Problem.2/x
@AwetTesfaiesus Zurück zu den LLM.
Die grundlegende Ablehnung sehe ich nicht. Hier ist das Fediverse eine Blase. Dass KI nicht so viel wie erwartet genutzt wird, liegt an einer Überschätzung des Bedarfs gegenüber Investierenden. Und daran, dass wir (in DE) sehr viel weniger weit in der Digitalisierung der Bevölkerung sind, als wir glauben.
3/x
-
@AwetTesfaiesus Zurück zu den LLM.
Die grundlegende Ablehnung sehe ich nicht. Hier ist das Fediverse eine Blase. Dass KI nicht so viel wie erwartet genutzt wird, liegt an einer Überschätzung des Bedarfs gegenüber Investierenden. Und daran, dass wir (in DE) sehr viel weniger weit in der Digitalisierung der Bevölkerung sind, als wir glauben.
3/x
@AwetTesfaiesus In den Diskussionen wird von einer neutralen LLM ausgegangen. Die Machtverhältnisse und Beeinflussung sind aber entscheidender Bestandteil der Diskussion oder sollten es sein. Man schaue sich nur die bekannt gewordenen Fälle ein wie zum Beispiel bei Grok. Die diskutierten Fälle der "absichtlichen Fehler zur Erreichung politischer Ziele" werden mit LLM skaliert und (noch) weniger nachvollziehbar.
4/x
-
@AwetTesfaiesus In den Diskussionen wird von einer neutralen LLM ausgegangen. Die Machtverhältnisse und Beeinflussung sind aber entscheidender Bestandteil der Diskussion oder sollten es sein. Man schaue sich nur die bekannt gewordenen Fälle ein wie zum Beispiel bei Grok. Die diskutierten Fälle der "absichtlichen Fehler zur Erreichung politischer Ziele" werden mit LLM skaliert und (noch) weniger nachvollziehbar.
4/x
@AwetTesfaiesus Daher ist eine kritische Betrachtung der Eingaben und Ausgaben der Maschine absolut elementar, muss ständig passieren und wird nie enden. So wie Sicherheitstests, TüV und so weiter beim KFZ. Und trotzdem schlüpfen Fehler durch und verursachen Unfälle.
5/6
-
Ergebnisse auswirft.
Zuletzt noch eine Frage dazu, welche Schlussfolgerung Du aus dem Vergleich ziehst:
Für mich ist klar, dass Automatisierung nur dann Sinn ergibt, wenn dadurch die Fehlerzahl sinkt. Das scheint mir aber gerade nicht der Fall. Vielmehr sinkt nur die Überprüf- und Feststellbarkeit. Dann doch lieber falsche, aber nachvollziehbare menschliche Entscheidungen, oder?
Dann können die RA, die vor allem streiten um Geld zu verdienen, durch...
4/x
@Der_zuversichtliche_Daniel @marcuwekling das ist eben der springende Punkt! Aber jedenfalls ist auch Schnelligkeit ein Problem! Bei deutschen Gerichten liege 1 Mio Verfahren unerledigt
-
@AwetTesfaiesus Daher ist eine kritische Betrachtung der Eingaben und Ausgaben der Maschine absolut elementar, muss ständig passieren und wird nie enden. So wie Sicherheitstests, TüV und so weiter beim KFZ. Und trotzdem schlüpfen Fehler durch und verursachen Unfälle.
5/6
Mal bis hierher zusammengefasst, IMHO:
- Die Juristerei (hier als Beispiel, also nicht nur diese) muss ihren eigenen Anspruch wieder erhöhen, und wir alle sollten da lauter und mehr kritisieren. (Es ist halt nicht einfach für uns Laien)- LLMs skalieren Probleme, die wir ohne diese schon massiv haben. Aber was lösen sie wirklich? Wer profitiert davon? Und wer hat die Macht?
(Danke für das Aufmachen der interessanten Diskussion:) ).
-
@TheOneSwit mag sein, aber zum heutigen Stand erhältst du keine logische Antwort. Du erhältst das Ergebnis, das laut vorhandener Datenlage das häufigste und deshalb das wahrscheinlichste ist. Und das dann auch noch mit einem Datenhaufen, in dem wissenschaftliche Erkenntnisse, die auf Evidenz basieren gleich gewichtet werden mit Hokuspokus und Schwurbelei. Da verzichte ich dann lieber auf diesen #AISlop @AwetTesfaiesus
Stimme ich absolut zu. Das Grundproblem ist hier jedoch dass die meisten LLM nicht dazu da sind dir eine korrekte Antwort aus den zugrundeliegenden Daten zu liefern, sondern dir zu schmeicheln und nach dem Mund zu reden damit du es toll findest, es häufig benutzt und viel Geld dafür bezahlst. Und nebenbei soll am besten noch etwas Werbung für Partnerprodukte gemacht werden und deine Informationsvetsorgung kontrolliert werden.
-
@Der_zuversichtliche_Daniel @marcuwekling das ist eben der springende Punkt! Aber jedenfalls ist auch Schnelligkeit ein Problem! Bei deutschen Gerichten liege 1 Mio Verfahren unerledigt
Also lieber schnell nicht nachvollziehbare Ergebnisse als langsamer nachvollziehbare Ergebnisse?
-
Stimme ich absolut zu. Das Grundproblem ist hier jedoch dass die meisten LLM nicht dazu da sind dir eine korrekte Antwort aus den zugrundeliegenden Daten zu liefern, sondern dir zu schmeicheln und nach dem Mund zu reden damit du es toll findest, es häufig benutzt und viel Geld dafür bezahlst. Und nebenbei soll am besten noch etwas Werbung für Partnerprodukte gemacht werden und deine Informationsvetsorgung kontrolliert werden.
@TheOneSwit Das kommt noch dazu, es ist auch Manipulationstool und Finanzblase für Spekulanten. @AwetTesfaiesus
-
Konkret: Ich könnte mir vorstellen, dass in dieser (!) konkreten Herangehensweisen an KI viel Coping steckt. Lügen wir uns hier kollektiv in die eigene (intellektuelle) Tasche?
Oder pfeifen wir hier sogar schon verzweifelt im Walde?
Liege ich komplett falsch?
@AwetTesfaiesus Am schönsten finde ich, wenn KI-Ludditen Nutzern von KI "Denkfaulheit" vorwerfen. Deren Argumente sind die Satanic Panic von TV, Videospielen, Google, Wikipedia, Kazaa, jeder neuen Technologie nur in pseudo-intellektuellem Gewand nochmal aufgewärmt und wirkt, als wären sie Lobbyisten der Rechteverwertungsindustrie.
Wären Computer ohne KI die deterministischen Maschinen die sie fordern würde nicht 3 mal am Tag ihr Word abstürzen weil sie Malware haben. Ich finds lächerlich
-
In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen. @marcuwekling sagte am Montag bei der Lesung Ähnliches.
Dazu:
1️⃣In der juristischen Ausbildung lernst du, dass 50-70% der Verwaltungsakt falsch sind. Default: falsch!
2️⃣Dazu: in meiner Schulzeit waren Atlanten/Karten immer falsch (DDR drin, teils Saarland draußen, Jugoslawien komplett). Ich habe nicht gehört, dass über Schulen ähnlich gesprochen wird, wie über LLMs. #kiFehler können mehr oder weniger schwerwiegend sein. Da LLMs im Gegensatz zu Menschen kein Weltmodell besitzen, ist die Schwere der Fehler nicht sinnvoll begrenzbar. Ein menschlicher Koch kann Zucker und Salz verwechseln, aber er wird nie auf die Idee kommen, Klebstoff auf die Pizza zu schmieren.
LLMs sind vor allem dort sinnvoll, wo es nicht auf die Schwere der gemachten Fehler ankommt. Oft liegt das aber schlicht und ergreifend daran, dass es um Vorgänge geht, wo das Ergebnis ohnehin irrelevant ist.
-
hm, was meint denn "nachbilden"? Letztlich ist eine Rechen-/und Rechner-Leistung immer ("nur") eine Rechenleistung und schlicht etwas anderes als die Leistung eines menchlichen Gehirns. Die Verarbeitungsprozesse eines Körpers mit entsprechenden Schnittstellen zur Umwelt können nicht "nachgebildet" werden. Man sollte aufhören, diese schrägen Narrative von sog. Künstlicher "Intelligenz" usw. mitzutragen.
@Ottilie_Katz
Auch hier widerspreche ich.Captain Kirk flog vor Jahrzehnten durch das Weltall und funkte über seinen aufklappbaren Kommunikator, "Scotty, beam mich rauf!"
Auch damals habe ich gehört, so was wie bei Star Trek wird es wohl nie geben.Heute haben wir Smartphones, die ein vielfaches von dem, was ein einfacher Kommunikator kann, können.
Daher will und werde ich nie irgendetwas ausschließen, und spätestens mit Quantenrechnern wird noch mehr möglich.
-
@AwetTesfaiesus Am schönsten finde ich, wenn KI-Ludditen Nutzern von KI "Denkfaulheit" vorwerfen. Deren Argumente sind die Satanic Panic von TV, Videospielen, Google, Wikipedia, Kazaa, jeder neuen Technologie nur in pseudo-intellektuellem Gewand nochmal aufgewärmt und wirkt, als wären sie Lobbyisten der Rechteverwertungsindustrie.
Wären Computer ohne KI die deterministischen Maschinen die sie fordern würde nicht 3 mal am Tag ihr Word abstürzen weil sie Malware haben. Ich finds lächerlich
@AwetTesfaiesus Schau dir mal an, wie elektronische Komponenten im AKW in sicherheitsrelevanten Bereichen zertifiziert werden müssen. Chips sind eben nicht deterministisch.
Nicht-KI Algorithmen sind genauso ein Problem, angefangen in HR die Bewerber hart diskriminiert, PLZ, (Nach)name, Hautfarbe, ...
Und finde ich richtig übel: Rückfallwahrscheinlichkeit bei Straftätern - und damit Strafmaß und Haftentlassung
Aber das ist ok, denn es ist getarnt als objektive Mathematik.
-
@Der_zuversichtliche_Daniel @marcuwekling vergleichsweise: verschwindend gering! Das wäre fast immer Sozialkriminalität. Kannst du googeln.
-
@andreas_tengicki @oldperl Brockhaus war nicht wahr
@AwetTesfaiesus @andreas_tengicki
deswegen wohl das wahr auch in Anführungszeichen.
Schriftliche Sammlungen haben halt auch zumeist einen Zeitbezug mit ihrer Wahrheit, den man bei der Bewertung auch immer beachten sollte.
Kein einfaches Thema...