In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen.
-
@falk @AwetTesfaiesus
Es ist lukrativer, weil unsere Regeln erlauben, dass es lukrativer ist.
️ -
@sascha @marcuwekling Ignoranz?
@marcuwekling @AwetTesfaiesus Ok das kommt in vielen Fällen sicher noch dazu. Und auch Ressentiments etc. -
@AwetTesfaiesus @Lamal
Ich finde man muss differenzieren. Nicht jede technische Entwicklung ist schlecht, aber jede technische Entwicklung kann man für Schlechtes nutzen.Auch Elektrizität galt mal als Zauberei. Sie kann dafür genutzt werden, Menschen umzubringen - oder sie bei einer Herz-OP am Leben zu halten.
️Am schwierigsten finde ich, dass wir uns aktuell global in eine Situation manövrieren, wo es unmöglich zu werden scheint, Regeln auszuhandeln.
-
@AwetTesfaiesus @Lamal
Ich finde man muss differenzieren. Nicht jede technische Entwicklung ist schlecht, aber jede technische Entwicklung kann man für Schlechtes nutzen.Auch Elektrizität galt mal als Zauberei. Sie kann dafür genutzt werden, Menschen umzubringen - oder sie bei einer Herz-OP am Leben zu halten.
️Am schwierigsten finde ich, dass wir uns aktuell global in eine Situation manövrieren, wo es unmöglich zu werden scheint, Regeln auszuhandeln.
-
@falk @AwetTesfaiesus
Es ist lukrativer, weil unsere Regeln erlauben, dass es lukrativer ist.
️@Chaotica @AwetTesfaiesus Na ja, auf globaler Ebene ist es pure Illusion, diese „Regeln“ in den Griff zu bekommen, da die Interessen mancher Player dagegen sprechen.
Das Problem lieg m. M. n. In der Bildung. Klar könnten KI-basierte Systeme die ganzen einfachen Tätigkeiten eliminieren. Aber was machen wir dann mit den Menschen, die damit ihren Lebensunterhalt bestreiten? Darauf sind wir als Gesellschaft gar nicht vorbereitet.
-
@AwetTesfaiesus @Chaotica @Lamal Das trifft den Nagel auf den Kopf. Genau das ist das Problem.
-
@AwetTesfaiesus @Chaotica @Lamal
Das ist aber eher ein Problem verursacht von unserer Bildungskatastrophe
-
@AwetTesfaiesus @Lamal
Das ist dann noch zusätzlich das Problem. Bei Elektrizität ist es noch verschmerzbar, weil der Komplexitätsgrad noch überschaubar ist und Normalmensch das einfach Profis überlassen können.
Bei allem was mit IT und digitalem zu tun hat, finde ich, dass man inzwischen von #Digitalfeudalismus sprechen kann. Die große Mehrheit muss einfach glauben, was ihnen eine kleine Gruppe wissender erzählt. „Der Computer sagt nein!“ -
"ausschließen" ist ein absoluter Begriff.
Aber: wenn Deine Fehlerquote bei den Leistungsbescheiden bei 50% liegt (und die Bearbeitungszeit bei > 3 Monaten), dann scheint es mir berechtigt zu fragen:
Wäre eine Fehlerquote on 20% bei einer Bearbeitungsdauer von 30 Minuten nicht das bessere System?
Deine Vergleiche der Fehlerquote finde ich spannend, aber so nicht für sinnvoll, denn Du vergleichst Äpfel mit Birnen:
1.) Bescheide, die intentionell Fehlerhaft sind: Der Fehler wird absichtlich gemacht, etwa, um einer politischen Vorgabe zu folgen.
2.) Fehler, die LLMs unabsichtlich herbeiphantasieren. Dabei kann man sie allerdings sehr wohl zu 1.) ebenfalls heran ziehen. -
@Chaotica @AwetTesfaiesus Na ja, auf globaler Ebene ist es pure Illusion, diese „Regeln“ in den Griff zu bekommen, da die Interessen mancher Player dagegen sprechen.
Das Problem lieg m. M. n. In der Bildung. Klar könnten KI-basierte Systeme die ganzen einfachen Tätigkeiten eliminieren. Aber was machen wir dann mit den Menschen, die damit ihren Lebensunterhalt bestreiten? Darauf sind wir als Gesellschaft gar nicht vorbereitet.
@falk @AwetTesfaiesus
Ich wäre dafür, dass wir die Sache mit dem „Lebensunterhalt“ ganz grundsätzlich neu denken.
Aber das schweift jetzt erheblich ab.
-
Deine Vergleiche der Fehlerquote finde ich spannend, aber so nicht für sinnvoll, denn Du vergleichst Äpfel mit Birnen:
1.) Bescheide, die intentionell Fehlerhaft sind: Der Fehler wird absichtlich gemacht, etwa, um einer politischen Vorgabe zu folgen.
2.) Fehler, die LLMs unabsichtlich herbeiphantasieren. Dabei kann man sie allerdings sehr wohl zu 1.) ebenfalls heran ziehen.@Saupreiss @odrotbohm @marcuwekling
Aber das ist halt in vielen Bereichen die Realität. Schau dir nur mal die Nichtanwendungserlasse an https://de.wikipedia.org/wiki/Nichtanwendungserlass
Oder, nimm die Hartz4-Bescheide: 50+% falsch. Nicht-intendiert.
-
@AwetTesfaiesus @Lamal
Das ist dann noch zusätzlich das Problem. Bei Elektrizität ist es noch verschmerzbar, weil der Komplexitätsgrad noch überschaubar ist und Normalmensch das einfach Profis überlassen können.
Bei allem was mit IT und digitalem zu tun hat, finde ich, dass man inzwischen von #Digitalfeudalismus sprechen kann. Die große Mehrheit muss einfach glauben, was ihnen eine kleine Gruppe wissender erzählt. „Der Computer sagt nein!“ -
@Saupreiss @odrotbohm @marcuwekling
Aber das ist halt in vielen Bereichen die Realität. Schau dir nur mal die Nichtanwendungserlasse an https://de.wikipedia.org/wiki/Nichtanwendungserlass
Oder, nimm die Hartz4-Bescheide: 50+% falsch. Nicht-intendiert.
Man nehme übermäßige Komplexität, handwerklich an dieser Stelle wohl oft schlechte Gesetze, die streckenweise selbst einer juristischen Prüfung nicht gehalten haben, zunächst schrottige Software, Zeitdruck (bei Software wie Bearbeitern) - dann bekommt man sowas.
Ich sehe aber nicht, wie LLMs hier helfen würden: Die liefern flott Ergebnisse, wirken aber ebenfalls wie ein DOS, denn das tun sie weit schneller, als man es überprüfen könnte; dabei… -
ich wisst schon dass jeder moderne cmos sensor viele pixel errechnet und nicht misst?
Die Grenze zu erraten ist da auch fließend.
-
@AwetTesfaiesus @Lamal
Ich finde man muss differenzieren. Nicht jede technische Entwicklung ist schlecht, aber jede technische Entwicklung kann man für Schlechtes nutzen.Auch Elektrizität galt mal als Zauberei. Sie kann dafür genutzt werden, Menschen umzubringen - oder sie bei einer Herz-OP am Leben zu halten.
️Am schwierigsten finde ich, dass wir uns aktuell global in eine Situation manövrieren, wo es unmöglich zu werden scheint, Regeln auszuhandeln.
@Chaotica
Das ist die gleiche Situation wie seit sehr langer Zeit. Die Fragen lauten immer noch:
Was ist der Wert menschlicher Arbeit? Wer verfügt über die Produktionsmittel? Und, spezieller zu LLM und "Lügen": wie wollen wir miteinander, mit den Menschen um uns herum umgehen?
Die Fragen wurden alle schon vor der ersten Glühbirne behandelt und sind bis heute nicht allgemeingültig beantwortet.
Die Gefahr von ChatGPT ist, dass es zuerst eine soziale Technologie ist.
@AwetTesfaiesus -
Man nehme übermäßige Komplexität, handwerklich an dieser Stelle wohl oft schlechte Gesetze, die streckenweise selbst einer juristischen Prüfung nicht gehalten haben, zunächst schrottige Software, Zeitdruck (bei Software wie Bearbeitern) - dann bekommt man sowas.
Ich sehe aber nicht, wie LLMs hier helfen würden: Die liefern flott Ergebnisse, wirken aber ebenfalls wie ein DOS, denn das tun sie weit schneller, als man es überprüfen könnte; dabei…@AwetTesfaiesus 2/2 …dabei referenzieren sie sich mit zunehmender Menge auch noch selbst und trainieren sich an gemachten Fehlern.
Wenn ich will, phantasiert mir das Ding einige hundert Seiten Begründung mit, die zwar Bullshit ist, aber jede Bescheidprüfung prohibitiv teuer macht…
-
@AwetTesfaiesus
Ich finde die Analogie zur Alphabetisierung recht hilfreich.
Meine Bank zB kann mir - selbst auf Nachfrage in der technischen Abteilung - nicht präzise erklären, wie mein Kreditscore zustande kommt. „Der Computer“ spuckt halt eine Zahl aus und die wird dann geglaubt.
Da ist kein wesentlicher Unterschied mehr zu „Priester liest aus Buch vor und man muss das einfach glauben.“
@Lamal -
@falk @AwetTesfaiesus
Ich wäre dafür, dass wir die Sache mit dem „Lebensunterhalt“ ganz grundsätzlich neu denken.
Aber das schweift jetzt erheblich ab.
-
@AwetTesfaiesus 2/2 …dabei referenzieren sie sich mit zunehmender Menge auch noch selbst und trainieren sich an gemachten Fehlern.
Wenn ich will, phantasiert mir das Ding einige hundert Seiten Begründung mit, die zwar Bullshit ist, aber jede Bescheidprüfung prohibitiv teuer macht…
@Saupreiss das fasst weite Teile des Jurastudiums in Deutschland auch ganz gut zusammen
-
Konkret: Ich könnte mir vorstellen, dass in dieser (!) konkreten Herangehensweisen an KI viel Coping steckt. Lügen wir uns hier kollektiv in die eigene (intellektuelle) Tasche?
Oder pfeifen wir hier sogar schon verzweifelt im Walde?
Liege ich komplett falsch?
Ein Teil deiner Annahmen wird "Eliza Effekt" genannt.
Und folgender Satz klingt sehr nach dem Coping, dass du beschreibst:
"Der Mensch wünscht sich zwar menschliche Empathie von der KI, gleichzeitig genießt er die Gewissheit, es mit einer Maschine zu tun zu haben."
https://www.impulse.de/organisation/eliza-effekt/7632397.html
