In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen.
-
@oldperl ich möchte klarstellen: ich frage mich u.A. warum wir menschlichen Aussagen nicht mit derselben Skepsis begegnen, wie der KI und zwar selbst dann nicht, wenn wir wissen, dass die Ergebnisse mit über 50%iger Wahrscheinlichkeit falsch sind (Jobcenterbescheid?). Wieso ist die falsche „Map of Europe“ ein Anlass zur Empörung, die 10tausend falschen Karten in unseren Schulen aber nicht?
@AwetTesfaiesus
Vertrauen ist ein sehenden Auges eingegangenes Risiko zur Komplexitätsreduzierung.Ganz ohne geht es meiner Meinung nach nicht.
Deshalb sollten Prozesse Prüfschleifen haben, spätestens dann, wenn sie zu irreversiblen Konsequenzen führen ( zB Abbruch eines Hauses).
Je größer der Aufwand, die Verbreitung und das Ansehen einer Quelle (zB Schulbücher), desto mehr Qualitätssicherungsmaßnahmen erwarte ich. Alleine schon deswegen, weil die -> Informationsdarbietung <- deren Existenzgrundlage ist. Es ist ihre primäre Aufgabe.Früher bedeutete ein Fehler in einer solchen Drucksache einen Reputationsverlust und war damit geschäftsschädigend.
-
@BrennpunktUA @AwetTesfaiesus Gut geschrieben, genau die Erfahrungen habe ich auch gemacht.
-
@jlink Sorry! Worin liegt der Unterschied zu menschlichem Lernen tatsächlich und vor allem: was folgt daraus für die Praxis?
Glaubst Du nicht, die Mitarbeiter:in auf dem Jobcenter "lernt" nicht auch täglich Dinge, die sie nicht lernen sollte (und wendet sie nachher unzulässig an)?
Beispiel in der Praxis: Der Antrag stinkt nach Raucherwohnung. Nirgendwo im SGB steht das, aber ich kenne Menschen, die daraus schließen: "Wer qualmt, säuft auch".
-
@AwetTesfaiesus
Vertrauen ist ein sehenden Auges eingegangenes Risiko zur Komplexitätsreduzierung.Ganz ohne geht es meiner Meinung nach nicht.
Deshalb sollten Prozesse Prüfschleifen haben, spätestens dann, wenn sie zu irreversiblen Konsequenzen führen ( zB Abbruch eines Hauses).
Je größer der Aufwand, die Verbreitung und das Ansehen einer Quelle (zB Schulbücher), desto mehr Qualitätssicherungsmaßnahmen erwarte ich. Alleine schon deswegen, weil die -> Informationsdarbietung <- deren Existenzgrundlage ist. Es ist ihre primäre Aufgabe.Früher bedeutete ein Fehler in einer solchen Drucksache einen Reputationsverlust und war damit geschäftsschädigend.
-
@AwetTesfaiesus Da erscheint es mir irgendwie sinnvoller, die vorhandenen Fehler und ihre Quellen zu reduzieren, anstatt neue zu verbreiten.
@SusanneBonn Allein, mir fehlt der Glaube!
-
Konkret: Ich könnte mir vorstellen, dass in dieser (!) konkreten Herangehensweisen an KI viel Coping steckt. Lügen wir uns hier kollektiv in die eigene (intellektuelle) Tasche?
Oder pfeifen wir hier sogar schon verzweifelt im Walde?
Liege ich komplett falsch?
@AwetTesfaiesus ein gegenargument wäre, dass verwaltungsakte unter anderem wegen verschiedenster ismen mit absicht falsch ausgeführt werden, und es gefährlich ist, diese zu industrialisieren.
zum anderen haben llms ganz neue unknown unkowns wie dinge schiefgehen können, und die tatsache, dass schon mehrere menschen direkt durch die verwendung von llms und ais gestorben sind, ist meiner meinung nach grund genug, ...
-
@AwetTesfaiesus ein gegenargument wäre, dass verwaltungsakte unter anderem wegen verschiedenster ismen mit absicht falsch ausgeführt werden, und es gefährlich ist, diese zu industrialisieren.
zum anderen haben llms ganz neue unknown unkowns wie dinge schiefgehen können, und die tatsache, dass schon mehrere menschen direkt durch die verwendung von llms und ais gestorben sind, ist meiner meinung nach grund genug, ...
@AwetTesfaiesus ... sie wie andere experimentelle technologien, nur in klar abgesteckten räumen einzusetzen.
-
@AwetTesfaiesus OK, und was beweist das? Natürlich ist es wahrscheinlich, dass in menschlichen Texten Wörter wahrscheinlich auf andere Wörter folgen. Nur haben die Menschen diese Wörter nicht aufgrund von Wahrscheinlichkeitsberechnungen aneinander gereiht, sondern weil sie nachgedacht haben und die Worte einen semantischen Sinn ergeben haben.
Die Wahrscheinlichkeit, die die KI benutzt, ist also gerade dadurch entstanden, dass sie Texte zum Training verwendet hat, die von Menschen erzeugt wurden. Daher WIRKT es, als wäre die KI eine Intelligenz. Ist sie aber nicht. Sie denkt nicht nach, sie reiht nur Wörter aufgrund von Wahrscheinlichkeiten aneinander.@Ascendor Das soll sagen: Scheinplausibilität wird oft hingenommen. Warum ist es für uns ein Skandal, dass KI das auch macht?
-
@Ascendor Das soll sagen: Scheinplausibilität wird oft hingenommen. Warum ist es für uns ein Skandal, dass KI das auch macht?
@AwetTesfaiesus und da habe ich meine Erklärung für oben hingeschrieben.
-
@AwetTesfaiesus ein gegenargument wäre, dass verwaltungsakte unter anderem wegen verschiedenster ismen mit absicht falsch ausgeführt werden, und es gefährlich ist, diese zu industrialisieren.
zum anderen haben llms ganz neue unknown unkowns wie dinge schiefgehen können, und die tatsache, dass schon mehrere menschen direkt durch die verwendung von llms und ais gestorben sind, ist meiner meinung nach grund genug, ...
Die "unknown unknowns" sind sicher valide.
Die "Industrialisierung"... nichts anderes passiert in der Verwaltung doch seit Jahrzehnten.
-
@AwetTesfaiesus
Gymnasium während der 2000er.
Wir hatten nen Diercke Atlas, aber wenig länderspezifisch damit gearbeitet. Eher mit den Klimakarten und den Vegetationszonen etc.
Später hatte ich geography wg. bilingualem Unterricht, dafür gab es kein klassisches Lehrbuch.Ich erinnere mich nur, dass die Erdkunde-Leute irgendwas zu Fruchtfolgen lernen mussten, so als gäbe es noch Kartoffelferien.
An falsche Landkarten erinnere ich mich nicht.
In der Zeit war aber auch nicht so viel Umbruch in lehrplanrelevanten Regionen. Könnte also auch ein "Jahrzehnt"-assoziiertes Problem sein. -
@SusanneBonn Allein, mir fehlt der Glaube!
@AwetTesfaiesus Das gilt derzeit für ziemlich viele wünschenswerte bis dringend nötige Bestrebungen. Aber vielleicht gibt es ja doch noch sinnvollere Möglichkeiten als aufzugeben.
-
@jlink Sorry! Worin liegt der Unterschied zu menschlichem Lernen tatsächlich und vor allem: was folgt daraus für die Praxis?
Glaubst Du nicht, die Mitarbeiter:in auf dem Jobcenter "lernt" nicht auch täglich Dinge, die sie nicht lernen sollte (und wendet sie nachher unzulässig an)?
Beispiel in der Praxis: Der Antrag stinkt nach Raucherwohnung. Nirgendwo im SGB steht das, aber ich kenne Menschen, die daraus schließen: "Wer qualmt, säuft auch".
@AwetTesfaiesus @jlink ich glaube das Beispiel sofort, und dennoch hinterlässt es bei mir ein "autsch". Jesus und Maria, sollten die Sachbearbeiter da nicht geschult sein, ihre eigenen Vorurteile reflektiert zu erkennen? Wie mag das dann erst bei Namen, Handschrift und Schreibfehlern sein?
-
@AwetTesfaiesus @jlink ich glaube das Beispiel sofort, und dennoch hinterlässt es bei mir ein "autsch". Jesus und Maria, sollten die Sachbearbeiter da nicht geschult sein, ihre eigenen Vorurteile reflektiert zu erkennen? Wie mag das dann erst bei Namen, Handschrift und Schreibfehlern sein?
-
@oldperl ich denke, meine Frage wird missverstanden. Natürlich sollten wir hinterfragen. Ich frage mich aber: hinterfragen wir menschliche Ergebnisse mit demselben Eifer?
@AwetTesfaiesus @oldperl
In kurz:Menschen sind Menschen, manipulierbar fehlerhaft.
Der Brockhaus/Wikipedia war recherhiert und "wahr".
Computer sind/waren Maschinen die etwas deterministisch berechnet haben. Das Ergebnis war quasi "mathematisch richtig" und nachvollziehbar. Man verlässt sich darauf.
LLMs liefern statistisch wahrscheinliche Halluzinationen ohne Verständnis von wahr und falsch. Wir unterstellen aber Intelligenz und nutzen es als Lexikon.
Ist halt schwierig/falsch.
-
@jlink Sorry! Worin liegt der Unterschied zu menschlichem Lernen tatsächlich und vor allem: was folgt daraus für die Praxis?
Glaubst Du nicht, die Mitarbeiter:in auf dem Jobcenter "lernt" nicht auch täglich Dinge, die sie nicht lernen sollte (und wendet sie nachher unzulässig an)?
Beispiel in der Praxis: Der Antrag stinkt nach Raucherwohnung. Nirgendwo im SGB steht das, aber ich kenne Menschen, die daraus schließen: "Wer qualmt, säuft auch".
@AwetTesfaiesus Der Unterschied ist mMn die menschliche Fähigkeit zur Reflexion. Und dass wir am Ende Rechenschaft ablegen müssen - zumindest manche von uns.
-
@AwetTesfaiesus @jlink ich glaube das Beispiel sofort, und dennoch hinterlässt es bei mir ein "autsch". Jesus und Maria, sollten die Sachbearbeiter da nicht geschult sein, ihre eigenen Vorurteile reflektiert zu erkennen? Wie mag das dann erst bei Namen, Handschrift und Schreibfehlern sein?
Wollt ihr noch ein paar "Alltagswissen" aus dem Jurist:innen-Leben:
1. Ob ein männlicher Zeuge lügt, erkannte ein Ausbilder (Richter mit Leitungsfunktion) meiner besseren Hälfte u.A. an deren Unterarmen! (tätowiert=Knastvogel=Lügner)
2. Ein:e Polizist:in verriet mir: ob man einen Straftäter vor sich hat, erkennt man (natürlich) an den Schuhen. (Betrüger haben billiges Schuhwerk)
Glaubt nicht, dass die Welt vor lauter Menschen nicht sei, wie sie ist.
-
@AwetTesfaiesus Der Unterschied ist mMn die menschliche Fähigkeit zur Reflexion. Und dass wir am Ende Rechenschaft ablegen müssen - zumindest manche von uns.
@jlink da irgendwo verorte ich mein Störgefühl auch.
-
@AwetTesfaiesus @oldperl
In kurz:Menschen sind Menschen, manipulierbar fehlerhaft.
Der Brockhaus/Wikipedia war recherhiert und "wahr".
Computer sind/waren Maschinen die etwas deterministisch berechnet haben. Das Ergebnis war quasi "mathematisch richtig" und nachvollziehbar. Man verlässt sich darauf.
LLMs liefern statistisch wahrscheinliche Halluzinationen ohne Verständnis von wahr und falsch. Wir unterstellen aber Intelligenz und nutzen es als Lexikon.
Ist halt schwierig/falsch.
@andreas_tengicki @oldperl Brockhaus war nicht wahr
-
Konkret: Ich könnte mir vorstellen, dass in dieser (!) konkreten Herangehensweisen an KI viel Coping steckt. Lügen wir uns hier kollektiv in die eigene (intellektuelle) Tasche?
Oder pfeifen wir hier sogar schon verzweifelt im Walde?
Liege ich komplett falsch?
@AwetTesfaiesus Nein ich seh das auch so. Und nebenbei ist das eine philosophisch ziemlich interessante Frage. Ist unsere natürliche Intelligenz wirklich irgendwie erhaben über die maschinelle? Es gibt dazu viel spannende Literatur. Roger Penrose: The Emperor's new mind fällt mir gerade ein.
Witzigerweise scheint mir gerade die IT-Bubble, die ja in gewisser Weise mal besonders verantwortlich ist dafür, besonders streng mit den LLMs zu sein. Haben die einfach nur Angst um ihre Coder-Jobs?