In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen.
-
@AwetTesfaiesus @Lamal
Das ist dann noch zusätzlich das Problem. Bei Elektrizität ist es noch verschmerzbar, weil der Komplexitätsgrad noch überschaubar ist und Normalmensch das einfach Profis überlassen können.
Bei allem was mit IT und digitalem zu tun hat, finde ich, dass man inzwischen von #Digitalfeudalismus sprechen kann. Die große Mehrheit muss einfach glauben, was ihnen eine kleine Gruppe wissender erzählt. „Der Computer sagt nein!“ -
"ausschließen" ist ein absoluter Begriff.
Aber: wenn Deine Fehlerquote bei den Leistungsbescheiden bei 50% liegt (und die Bearbeitungszeit bei > 3 Monaten), dann scheint es mir berechtigt zu fragen:
Wäre eine Fehlerquote on 20% bei einer Bearbeitungsdauer von 30 Minuten nicht das bessere System?
Deine Vergleiche der Fehlerquote finde ich spannend, aber so nicht für sinnvoll, denn Du vergleichst Äpfel mit Birnen:
1.) Bescheide, die intentionell Fehlerhaft sind: Der Fehler wird absichtlich gemacht, etwa, um einer politischen Vorgabe zu folgen.
2.) Fehler, die LLMs unabsichtlich herbeiphantasieren. Dabei kann man sie allerdings sehr wohl zu 1.) ebenfalls heran ziehen. -
@Chaotica @AwetTesfaiesus Na ja, auf globaler Ebene ist es pure Illusion, diese „Regeln“ in den Griff zu bekommen, da die Interessen mancher Player dagegen sprechen.
Das Problem lieg m. M. n. In der Bildung. Klar könnten KI-basierte Systeme die ganzen einfachen Tätigkeiten eliminieren. Aber was machen wir dann mit den Menschen, die damit ihren Lebensunterhalt bestreiten? Darauf sind wir als Gesellschaft gar nicht vorbereitet.
@falk @AwetTesfaiesus
Ich wäre dafür, dass wir die Sache mit dem „Lebensunterhalt“ ganz grundsätzlich neu denken.
Aber das schweift jetzt erheblich ab.
-
Deine Vergleiche der Fehlerquote finde ich spannend, aber so nicht für sinnvoll, denn Du vergleichst Äpfel mit Birnen:
1.) Bescheide, die intentionell Fehlerhaft sind: Der Fehler wird absichtlich gemacht, etwa, um einer politischen Vorgabe zu folgen.
2.) Fehler, die LLMs unabsichtlich herbeiphantasieren. Dabei kann man sie allerdings sehr wohl zu 1.) ebenfalls heran ziehen.@Saupreiss @odrotbohm @marcuwekling
Aber das ist halt in vielen Bereichen die Realität. Schau dir nur mal die Nichtanwendungserlasse an https://de.wikipedia.org/wiki/Nichtanwendungserlass
Oder, nimm die Hartz4-Bescheide: 50+% falsch. Nicht-intendiert.
-
@AwetTesfaiesus @Lamal
Das ist dann noch zusätzlich das Problem. Bei Elektrizität ist es noch verschmerzbar, weil der Komplexitätsgrad noch überschaubar ist und Normalmensch das einfach Profis überlassen können.
Bei allem was mit IT und digitalem zu tun hat, finde ich, dass man inzwischen von #Digitalfeudalismus sprechen kann. Die große Mehrheit muss einfach glauben, was ihnen eine kleine Gruppe wissender erzählt. „Der Computer sagt nein!“ -
@Saupreiss @odrotbohm @marcuwekling
Aber das ist halt in vielen Bereichen die Realität. Schau dir nur mal die Nichtanwendungserlasse an https://de.wikipedia.org/wiki/Nichtanwendungserlass
Oder, nimm die Hartz4-Bescheide: 50+% falsch. Nicht-intendiert.
Man nehme übermäßige Komplexität, handwerklich an dieser Stelle wohl oft schlechte Gesetze, die streckenweise selbst einer juristischen Prüfung nicht gehalten haben, zunächst schrottige Software, Zeitdruck (bei Software wie Bearbeitern) - dann bekommt man sowas.
Ich sehe aber nicht, wie LLMs hier helfen würden: Die liefern flott Ergebnisse, wirken aber ebenfalls wie ein DOS, denn das tun sie weit schneller, als man es überprüfen könnte; dabei… -
ich wisst schon dass jeder moderne cmos sensor viele pixel errechnet und nicht misst?
Die Grenze zu erraten ist da auch fließend.
-
@AwetTesfaiesus @Lamal
Ich finde man muss differenzieren. Nicht jede technische Entwicklung ist schlecht, aber jede technische Entwicklung kann man für Schlechtes nutzen.Auch Elektrizität galt mal als Zauberei. Sie kann dafür genutzt werden, Menschen umzubringen - oder sie bei einer Herz-OP am Leben zu halten.
️Am schwierigsten finde ich, dass wir uns aktuell global in eine Situation manövrieren, wo es unmöglich zu werden scheint, Regeln auszuhandeln.
@Chaotica
Das ist die gleiche Situation wie seit sehr langer Zeit. Die Fragen lauten immer noch:
Was ist der Wert menschlicher Arbeit? Wer verfügt über die Produktionsmittel? Und, spezieller zu LLM und "Lügen": wie wollen wir miteinander, mit den Menschen um uns herum umgehen?
Die Fragen wurden alle schon vor der ersten Glühbirne behandelt und sind bis heute nicht allgemeingültig beantwortet.
Die Gefahr von ChatGPT ist, dass es zuerst eine soziale Technologie ist.
@AwetTesfaiesus -
Man nehme übermäßige Komplexität, handwerklich an dieser Stelle wohl oft schlechte Gesetze, die streckenweise selbst einer juristischen Prüfung nicht gehalten haben, zunächst schrottige Software, Zeitdruck (bei Software wie Bearbeitern) - dann bekommt man sowas.
Ich sehe aber nicht, wie LLMs hier helfen würden: Die liefern flott Ergebnisse, wirken aber ebenfalls wie ein DOS, denn das tun sie weit schneller, als man es überprüfen könnte; dabei…@AwetTesfaiesus 2/2 …dabei referenzieren sie sich mit zunehmender Menge auch noch selbst und trainieren sich an gemachten Fehlern.
Wenn ich will, phantasiert mir das Ding einige hundert Seiten Begründung mit, die zwar Bullshit ist, aber jede Bescheidprüfung prohibitiv teuer macht…
-
@AwetTesfaiesus
Ich finde die Analogie zur Alphabetisierung recht hilfreich.
Meine Bank zB kann mir - selbst auf Nachfrage in der technischen Abteilung - nicht präzise erklären, wie mein Kreditscore zustande kommt. „Der Computer“ spuckt halt eine Zahl aus und die wird dann geglaubt.
Da ist kein wesentlicher Unterschied mehr zu „Priester liest aus Buch vor und man muss das einfach glauben.“
@Lamal -
@falk @AwetTesfaiesus
Ich wäre dafür, dass wir die Sache mit dem „Lebensunterhalt“ ganz grundsätzlich neu denken.
Aber das schweift jetzt erheblich ab.
-
@AwetTesfaiesus 2/2 …dabei referenzieren sie sich mit zunehmender Menge auch noch selbst und trainieren sich an gemachten Fehlern.
Wenn ich will, phantasiert mir das Ding einige hundert Seiten Begründung mit, die zwar Bullshit ist, aber jede Bescheidprüfung prohibitiv teuer macht…
@Saupreiss das fasst weite Teile des Jurastudiums in Deutschland auch ganz gut zusammen
-
Konkret: Ich könnte mir vorstellen, dass in dieser (!) konkreten Herangehensweisen an KI viel Coping steckt. Lügen wir uns hier kollektiv in die eigene (intellektuelle) Tasche?
Oder pfeifen wir hier sogar schon verzweifelt im Walde?
Liege ich komplett falsch?
Ein Teil deiner Annahmen wird "Eliza Effekt" genannt.
Und folgender Satz klingt sehr nach dem Coping, dass du beschreibst:
"Der Mensch wünscht sich zwar menschliche Empathie von der KI, gleichzeitig genießt er die Gewissheit, es mit einer Maschine zu tun zu haben."
https://www.impulse.de/organisation/eliza-effekt/7632397.html
-
ich wisst schon dass jeder moderne cmos sensor viele pixel errechnet und nicht misst?
Die Grenze zu erraten ist da auch fließend.
ich sehe Technologie nicht per se als gut oder schlecht an.
Wichtig ist, zu wissen, wo die Gefahren sind sie zu hinterfragen und was Mensch daraus macht.
Klar nutze ich KI. Ich weiß nur noch nicht ob ich damit schneller zum Ziel komme.
Und bei einige Sachen muss man echt höllisch aufpassen weil es oft verwechselt wird, was gerade der aktuelle Stand ist.
Aber die Büchse der Pandora ist eh schon offen. Ich finde die alte Eu Regulierung zur Ki gut und wichtig.
-
@AwetTesfaiesus @Chaotica @Lamal
Vielleicht hilft es, die Strukturen und Organisationen/Personen "dahinter" zu betrachten.
KI/AI wird von Personen und Orgas gehypt und überwiegend betrieben, die klare faschistische Strukturen aufzeigen.
Es ist mehr als gut belegt, dass KI/AI durch das notwendige Training nicht nur die. in den Trainingsdaten vorhandenen Vorurteile erlernt, sondern sogar verfestigt und das Training nur durch Ausbeutung gelingt. -
@AwetTesfaiesus @Chaotica @Lamal
Das ist aber eher ein Problem verursacht von unserer Bildungskatastrophe
@expertenkommision_cyberunfall
Meh. Bildungskatastrophe hin oder her: Es ist illusorisch, die Mathematik, die da et large am Werken ist, sinnvoll zu vermitteln.
Auch Spezialisten können bestenfalls in Einzelfällen nachvollziehen, wie welche Antwort zu welchem Zeitpunkt zustande kam. Natürlich ist das alles deterministische Mathematik. Aber mit so vielen Variablen, dass es im Regelfall nicht deterministisch überprüft werden kann.
-
"ausschließen" ist ein absoluter Begriff.
Aber: wenn Deine Fehlerquote bei den Leistungsbescheiden bei 50% liegt (und die Bearbeitungszeit bei > 3 Monaten), dann scheint es mir berechtigt zu fragen:
Wäre eine Fehlerquote on 20% bei einer Bearbeitungsdauer von 30 Minuten nicht das bessere System?
@AwetTesfaiesus @odrotbohm @marcuwekling
Wenn 50% falsch sind bei > 3Monaten bearbeitungszeit, wäre dann nicht ein System mit 50% Fehleranfälligkeit und 1 Minute Bearbeitung das bessere System? z.B. Münzwurf oder Würfel?
Woher nimmst du die Annahme, dass das LLM nur 20% Fehleranfällig wäre? Es hat doch lediglich die bisherigen Daten als Grundlage. Und falls 50% falsch sind, dann sind ja auch (im Schnitt) 50% der Revisionen falsch. Es gibt also keine besseren Daten. -
"ausschließen" ist ein absoluter Begriff.
Aber: wenn Deine Fehlerquote bei den Leistungsbescheiden bei 50% liegt (und die Bearbeitungszeit bei > 3 Monaten), dann scheint es mir berechtigt zu fragen:
Wäre eine Fehlerquote on 20% bei einer Bearbeitungsdauer von 30 Minuten nicht das bessere System?
@AwetTesfaiesus @odrotbohm @marcuwekling
Wenn 50% falsch sind bei > 3Monaten bearbeitungszeit, wäre dann nicht ein System mit 50% Fehleranfälligkeit und 1 Minute Bearbeitung das bessere System? z.B. Münzwurf oder Würfel?
Woher nimmst du die Annahme, dass das LLM nur 20% Fehleranfällig wäre? Es hat doch lediglich die bisherigen Daten als Grundlage. Und falls 50% falsch sind, dann sind ja auch (im Schnitt) 50% der Revisionen falsch. Es gibt also keine besseren Daten. -
@expertenkommision_cyberunfall
Meh. Bildungskatastrophe hin oder her: Es ist illusorisch, die Mathematik, die da et large am Werken ist, sinnvoll zu vermitteln.
Auch Spezialisten können bestenfalls in Einzelfällen nachvollziehen, wie welche Antwort zu welchem Zeitpunkt zustande kam. Natürlich ist das alles deterministische Mathematik. Aber mit so vielen Variablen, dass es im Regelfall nicht deterministisch überprüft werden kann.
Ich bezog mich auf Elektrizität. Die Mathematik wird erst hart, wenn es um Elektronik oder Nachrichtentechnik geht.
Also zumindest empfand ich das so. -
@AwetTesfaiesus @Chaotica @Lamal
Vielleicht hilft es, die Strukturen und Organisationen/Personen "dahinter" zu betrachten.
KI/AI wird von Personen und Orgas gehypt und überwiegend betrieben, die klare faschistische Strukturen aufzeigen.
Es ist mehr als gut belegt, dass KI/AI durch das notwendige Training nicht nur die. in den Trainingsdaten vorhandenen Vorurteile erlernt, sondern sogar verfestigt und das Training nur durch Ausbeutung gelingt.@expertenkommision_cyberunfall @Chaotica @Lamal
Erlaube mir eine Polemik zu früher Stunde zu replizieren, die hier kürzlich ein junges Familienmitglied vorbrachte:
„Ihr immer mit eurem bequemen Tesla-Haß; wie oft fragt ihr euch eigentlich, wieviel KdF-Wagen in so einem supadupa p.c. ID.3 steckt?“
Vielleicht anders gesagt: wieviel Kaiserreich steckt eigentlich jetzt noch (de lege lata) in unserem Staat.
