In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen.
-
@AwetTesfaiesus Der Unterschied ist mMn die menschliche Fähigkeit zur Reflexion. Und dass wir am Ende Rechenschaft ablegen müssen - zumindest manche von uns.
@jlink da irgendwo verorte ich mein Störgefühl auch.
-
@AwetTesfaiesus @oldperl
In kurz:Menschen sind Menschen, manipulierbar fehlerhaft.
Der Brockhaus/Wikipedia war recherhiert und "wahr".
Computer sind/waren Maschinen die etwas deterministisch berechnet haben. Das Ergebnis war quasi "mathematisch richtig" und nachvollziehbar. Man verlässt sich darauf.
LLMs liefern statistisch wahrscheinliche Halluzinationen ohne Verständnis von wahr und falsch. Wir unterstellen aber Intelligenz und nutzen es als Lexikon.
Ist halt schwierig/falsch.
@andreas_tengicki @oldperl Brockhaus war nicht wahr
-
Konkret: Ich könnte mir vorstellen, dass in dieser (!) konkreten Herangehensweisen an KI viel Coping steckt. Lügen wir uns hier kollektiv in die eigene (intellektuelle) Tasche?
Oder pfeifen wir hier sogar schon verzweifelt im Walde?
Liege ich komplett falsch?
@AwetTesfaiesus Nein ich seh das auch so. Und nebenbei ist das eine philosophisch ziemlich interessante Frage. Ist unsere natürliche Intelligenz wirklich irgendwie erhaben über die maschinelle? Es gibt dazu viel spannende Literatur. Roger Penrose: The Emperor's new mind fällt mir gerade ein.
Witzigerweise scheint mir gerade die IT-Bubble, die ja in gewisser Weise mal besonders verantwortlich ist dafür, besonders streng mit den LLMs zu sein. Haben die einfach nur Angst um ihre Coder-Jobs?
-
Überhöhen wir uns Menschen da nicht evtl.? "Gewissenhaftes Lektorieren" ist auch nicht die Stärke von Menschen.
Juristen belegen ihre Aussagen (teils wort-weise) mit Fundstellen. Es war schon immer ein Running Gag im Jura-Studium, diese Fundstellen nachzuschlagen und festzustellen, dass das vermeintlich zitierte da überhaupt nicht steht. Gleichwohl wird die Fundstelle brav von einem Gericht nach dem nächsten übernommen. Oft wird nicht geprüft.
@AwetTesfaiesus
Hmm, OK. Wenn ich sowas lese, springt immer mein Advocatus Diaboli an:
Diesen Prozess könnte man signifikant durch den Einsatz von ... "KI" ... verbessern. Also nicht einfach einen Chatbot fragen, sondern richtig, Vektor-DB mit den Inhalten, exakte Scopes und dediziertes, (nach-) trainiertes Netz, meinetwegen noch ein LLM zum nett Aufbereiten der Antworten.
@BrennpunktUA @marcuwekling -
Die "unknown unknowns" sind sicher valide.
Die "Industrialisierung"... nichts anderes passiert in der Verwaltung doch seit Jahrzehnten.
@AwetTesfaiesus jupp, die entwicklung ist überall nicht gut, und ich kann gut verstehen, dass dann manchmal "egal was, hauptsache was anderes" verlockend ist, aber ki, zumindest in dem rahmen wie es momentan benutzt und entwickelt wird, ain't it.
pharmakonzerne sind nicht die guten, aber sie können verhältnismäßig wenig schaden anrichten, weil die regularien ziemlich solide sind. natürlich erst immer *nachdem* menschen zu schaden kamen...
-
@AwetTesfaiesus
Hmm, OK. Wenn ich sowas lese, springt immer mein Advocatus Diaboli an:
Diesen Prozess könnte man signifikant durch den Einsatz von ... "KI" ... verbessern. Also nicht einfach einen Chatbot fragen, sondern richtig, Vektor-DB mit den Inhalten, exakte Scopes und dediziertes, (nach-) trainiertes Netz, meinetwegen noch ein LLM zum nett Aufbereiten der Antworten.
@BrennpunktUA @marcuwekling -
@AwetTesfaiesus jupp, die entwicklung ist überall nicht gut, und ich kann gut verstehen, dass dann manchmal "egal was, hauptsache was anderes" verlockend ist, aber ki, zumindest in dem rahmen wie es momentan benutzt und entwickelt wird, ain't it.
pharmakonzerne sind nicht die guten, aber sie können verhältnismäßig wenig schaden anrichten, weil die regularien ziemlich solide sind. natürlich erst immer *nachdem* menschen zu schaden kamen...
@AwetTesfaiesus ... und auf der zeitleiste sind wir in der it-branche auf jeden fall noch in der zeit wo sich ärzte vor einer operation vielleicht die hände waschen, wenn sie auf dem weg dahin an einem waschbecken vorbeikommen, und leute auf der titanik zum spaß ganzkörperröntgenaufnahmen von sich machen lassen.

-
In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen. @marcuwekling sagte am Montag bei der Lesung Ähnliches.
Dazu:
1️⃣In der juristischen Ausbildung lernst du, dass 50-70% der Verwaltungsakt falsch sind. Default: falsch!
2️⃣Dazu: in meiner Schulzeit waren Atlanten/Karten immer falsch (DDR drin, teils Saarland draußen, Jugoslawien komplett). Ich habe nicht gehört, dass über Schulen ähnlich gesprochen wird, wie über LLMs. #kiFür mich ist der Unterschied zwischen Fehlern von Menschen und Fehlern von Programmen die Möglichkeit, Korrektur vom Schreiberling verlangen zu können. Es muss für falsche Tatsachenbehautungen Haftung geben.
Wenn ein Polizist in seinem Bericht Müll produziert, kann er identifiziert werden und den Kram korrigieren. Und muss, bei vorsätzlichen Fehlern mit Konsequenzen rechnen. (Ob das in der Realität wirklich passiert lasse ich erstmal außer acht - es gibt wenigstens die rechtliche Möglichkeit)
Bei der KI gibt es keine Möglichkeit für Konsequenzen. Wie sollen die aussehen? Abschaltung für ein par Stunden? Wie soll sie KI denn denn lernen, dass Lügen falsch ist, so ganz ohne Bewusstsein? Wer soll sie denn tragen? Oder soll die Haftung vonder Herstellerfirma, die sich schon beim Füttern ihres Produktes um keine Gesetze geschehrt hat, und damit durchkommt, übernommen werden?
Oder doch wieder von der Person, deren Arbeit die KI machen sollte? -
Dieser Beitrag wurde gelöscht!
hmm, und wenn wir jetzt da einen Menschen wie Trump dazu vergleichen?
Menschen fantasieren recht ähnlich und sind recht ähnlich von ihrer eigenen Genialität überzeugt. Wir zerstören wissentlich gerade unseren Planeten, glauben an irgendwelche Götter und das Thema Fakenews oder Vorurteile brauch ich kaum ansprechen. Wäre toll wenn irgendwas unsere Fehler korrigieren würde, dann bräuchten wir nicht mal mehr irgendwelche Parteien wählen.
-
Quasi passend dazu: das klingt für normale Menschen sicher skurril, aber in der Ausbildung habe ich reichlich (menschliche) Berichte (uA auch von der Polizei) gelesen, die kaum weniger hanebüchene (wiewohl weniger offensichtlich) waren als dieser „Frosch“. Typische Fehler zB: alle Farben, rechts/links, Personen vertauscht, Rechenfehler, Reihenfolgen vertauscht.
@AwetTesfaiesus vielleicht sollten die berichte einfach wichtig genug
sein dass sie irgendwer liest und dann merkt wenn scheiße drinsteht? wenn ich die mit chatbots erstelle (ich weigere mich das intelligenz zu nennen) kann ich sie lieber weglassen -
hmm, und wenn wir jetzt da einen Menschen wie Trump dazu vergleichen?
Menschen fantasieren recht ähnlich und sind recht ähnlich von ihrer eigenen Genialität überzeugt. Wir zerstören wissentlich gerade unseren Planeten, glauben an irgendwelche Götter und das Thema Fakenews oder Vorurteile brauch ich kaum ansprechen. Wäre toll wenn irgendwas unsere Fehler korrigieren würde, dann bräuchten wir nicht mal mehr irgendwelche Parteien wählen.
Dieser Beitrag wurde gelöscht! -
Dieser Beitrag wurde gelöscht!
Das irgendwas bezog sich auf die Aussage dass unsere menschlichen Fehler von uns Menschen korrigiert werden würden. Das seh ich weder bei uns Menschen noch bei den LLM die wir nach unserem Vorbild gestalten und für göttlich halten.
Bei LLM und Menschen sehe ich jedoch starke ähnlichkeiten was Informationsverarbeitung betrifft vor allem bei fehlerhaften oder mangelnden Informationen.
Da spinnen wir noch viel mehr Blödsinn als so eine LLM.
-
Quasi passend dazu: das klingt für normale Menschen sicher skurril, aber in der Ausbildung habe ich reichlich (menschliche) Berichte (uA auch von der Polizei) gelesen, die kaum weniger hanebüchene (wiewohl weniger offensichtlich) waren als dieser „Frosch“. Typische Fehler zB: alle Farben, rechts/links, Personen vertauscht, Rechenfehler, Reihenfolgen vertauscht.
@AwetTesfaiesus KI kann keine Validität garantieren, im Gegenteil. Dem Stumpfsinn wird mancherorts Tür und Tor geöffnet!
-
Das irgendwas bezog sich auf die Aussage dass unsere menschlichen Fehler von uns Menschen korrigiert werden würden. Das seh ich weder bei uns Menschen noch bei den LLM die wir nach unserem Vorbild gestalten und für göttlich halten.
Bei LLM und Menschen sehe ich jedoch starke ähnlichkeiten was Informationsverarbeitung betrifft vor allem bei fehlerhaften oder mangelnden Informationen.
Da spinnen wir noch viel mehr Blödsinn als so eine LLM.
Dieser Beitrag wurde gelöscht! -
@oldperl ich denke, meine Frage wird missverstanden. Natürlich sollten wir hinterfragen. Ich frage mich aber: hinterfragen wir menschliche Ergebnisse mit demselben Eifer?
@AwetTesfaiesus
Um beim Beispiel VA zu bleiben: Wenn ein fehlerhafter VA vorliegt, kann man den/die entspr. Sachbearbeiter*in auffordern, diesen zu prüfen. V.a. weil es sich häufig um Flüchtigkeits- und Unaufmerksamkeitsfehler handelt, ist mein Vertrauen darin, dass ein Mensch einen Vorgang überprüft und anschließend richtigstellt, deutlich größer als in eine Überprüfung durch LLMs, die dann neu fabulieren.
@oldperl -
Dieser Beitrag wurde gelöscht!
Ein Mediziner hat sich entsprechend gebildet und seine "Datenbank" entsprechend mit Informationen versorgt um anhand der Informationen zu einer Beurteilung zu kommen die fachlich korrekt sein mag.
Robert F Kennedy glaubt auch sich entsprechend gebildet zu haben, aufgrund seiner fehlethaften Informationen in seiner "Datenbank" kommt er jedoch auf andere Ergebnisse.
Unser "Wissen" ist auch nur die Sumne unserer Erfahrungen.
-
Ein Mediziner hat sich entsprechend gebildet und seine "Datenbank" entsprechend mit Informationen versorgt um anhand der Informationen zu einer Beurteilung zu kommen die fachlich korrekt sein mag.
Robert F Kennedy glaubt auch sich entsprechend gebildet zu haben, aufgrund seiner fehlethaften Informationen in seiner "Datenbank" kommt er jedoch auf andere Ergebnisse.
Unser "Wissen" ist auch nur die Sumne unserer Erfahrungen.
und ich hatte 15 Jahre Schmerztherapie, bin von Arzt zu Arzt geschickt worden mit dutzenden Diagnosen. Nicht alle Ärzte sind automatisch kompetent.
-
Ein Mediziner hat sich entsprechend gebildet und seine "Datenbank" entsprechend mit Informationen versorgt um anhand der Informationen zu einer Beurteilung zu kommen die fachlich korrekt sein mag.
Robert F Kennedy glaubt auch sich entsprechend gebildet zu haben, aufgrund seiner fehlethaften Informationen in seiner "Datenbank" kommt er jedoch auf andere Ergebnisse.
Unser "Wissen" ist auch nur die Sumne unserer Erfahrungen.
Dieser Beitrag wurde gelöscht! -
In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen. @marcuwekling sagte am Montag bei der Lesung Ähnliches.
Dazu:
1️⃣In der juristischen Ausbildung lernst du, dass 50-70% der Verwaltungsakt falsch sind. Default: falsch!
2️⃣Dazu: in meiner Schulzeit waren Atlanten/Karten immer falsch (DDR drin, teils Saarland draußen, Jugoslawien komplett). Ich habe nicht gehört, dass über Schulen ähnlich gesprochen wird, wie über LLMs. #ki"Ich habe nicht gehört, dass über Schulen ähnlich gesprochen wird, wie über LLMs"
- Ich schon, und zwar z.B. hier: https://social.tchncs.de/deck/@pikarl@reporter.social/115592442929731733 was zu xn--berholt-m2a.schule/ führte. -
@AwetTesfaiesus weil wir von Maschinen eben korrekte Antworten erwarten. Was würdest Du zu einem Taschenrechner sagen, der zu Deiner Frage, was ist 1 + 1? mal mit 3, mal mit 1 oder mal mit 2 antwortet.
Und ja, das ist zweierlei Maß, und in vielen Bereichen nicht ok. Doch daran müsstet zu allererst ihr, als MdB arbeiten.
@oldperl
hm, aus meiner Perspektive ist es eben nicht "zweierlei Maß", weil es sich um unterschiedliche Formen der Bearbeitung von Aufträgen handelt. Was Menschen machen, können/machen nur Menschen; Menschen können nicht "künstlich" denken, so wie Algorithmen nicht "menschlich" denken/arbeiten. Es ist eine Folge der (unterstelltermaßen interessengeleiteten) Benennuung
jenes Arbeits-/Forschungs-/Wirtschaftsbereiches rund um LLMs etc. als "Künstliche Intelligenz".
@AwetTesfaiesus
