In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen.
-
Das empfinde ich auch so, aber: warum nehmen wir hin, dass eine menschliche Struktur mit krassen Fehlerquoten entscheidet?
@AwetTesfaiesus @marcuwekling Ich empfinde das nicht so. Wir leben in einem System mit eingebauten Korrekturmechanismen und um deren Qualität wird in Politik und Gesellschaft gestritten um diese kontinuierlich zu verbessern und dazu kann man sicher auch Technolgie nutzen. Technologie, die den Status Quo jedoch nur manifestiert und die Verbesserungsmöglichkeiten weitestgehend in die Hände einiger weniger, nicht gesellschaftlich Legitimierter legt, ist da IMO eben kritisch(er) zu betrachten.
-
@AwetTesfaiesus @marcuwekling Ich empfinde das nicht so. Wir leben in einem System mit eingebauten Korrekturmechanismen und um deren Qualität wird in Politik und Gesellschaft gestritten um diese kontinuierlich zu verbessern und dazu kann man sicher auch Technolgie nutzen. Technologie, die den Status Quo jedoch nur manifestiert und die Verbesserungsmöglichkeiten weitestgehend in die Hände einiger weniger, nicht gesellschaftlich Legitimierter legt, ist da IMO eben kritisch(er) zu betrachten.
Verstehe ich richtig: "Wenn Palantir.AI das Sozialamt betreibt, wäre sicher nichts gewonnen"?
-
@AwetTesfaiesus
Der wesentliche Unterschied besteht in meinen Augen in der Geschwindigkeit.
Bisher war es schon so, dass das Debunking einer Falschaussage 10x so lang gebraucht hat.Die Geschwindigkeit mit der LLM Texte produzieren macht eine Kontrolle oder Überprüfung endgültig völlig unmöglich.
@Chaotica
Flood the zone with shit?
Auch ein Problem, aber wie Du selbst sagst, braucht die "Wahrheit" viel mehr Ressourcen, weil Lügen leichter produziert werden.
Das eigentliche Problem sehe ich in der Verantwortung. Böswillige Nutzer _wollen_ Lügen produzieren, wenn aber die AI mit x% falschen/fehlerhaften Datensätzen trainiert wurde, werden für alle User fehlerhafte Antworten produziert.
@AwetTesfaiesus -
"ausschließen" ist ein absoluter Begriff.
Aber: wenn Deine Fehlerquote bei den Leistungsbescheiden bei 50% liegt (und die Bearbeitungszeit bei > 3 Monaten), dann scheint es mir berechtigt zu fragen:
Wäre eine Fehlerquote on 20% bei einer Bearbeitungsdauer von 30 Minuten nicht das bessere System?
@AwetTesfaiesus @marcuwekling Das würde ich grundsätzlich auch so sehen, wären da nicht die anderen Faktoren wie gesellschaftliche Legitimation, Steuerbarkeit, Ressourcenverbrauch. Ich wollte nur darauf hinaus, dass es IMO nicht so ist, dass die Fehleranfälligkeit von menschengetriebenen Prozessen nicht problematisiert wird. Es gibt nur Arten und Weisen, diese anzugehen, die selbst weniger problembehaftet sind als KI. IT-getriebene Automatisierung gibt es ja nicht erst seit OpenAI.
-
@Chaotica
Flood the zone with shit?
Auch ein Problem, aber wie Du selbst sagst, braucht die "Wahrheit" viel mehr Ressourcen, weil Lügen leichter produziert werden.
Das eigentliche Problem sehe ich in der Verantwortung. Böswillige Nutzer _wollen_ Lügen produzieren, wenn aber die AI mit x% falschen/fehlerhaften Datensätzen trainiert wurde, werden für alle User fehlerhafte Antworten produziert.
@AwetTesfaiesus@Chaotica
Wer soll dafür verantwortlich sein?
Was sind die sozialen Implikationen einer technischen Entwicklung?
Ich habe immer mehr das Gefühl, dass "wir" von ChatGPT, Gemini aber auch Temu oder Primark so begeistert sind, weil sie uns ebenso faszinieren und begeistern wie vom Himmel fallende Holzkisten oder Glasperlen.
@AwetTesfaiesus -
@Chaotica
Wer soll dafür verantwortlich sein?
Was sind die sozialen Implikationen einer technischen Entwicklung?
Ich habe immer mehr das Gefühl, dass "wir" von ChatGPT, Gemini aber auch Temu oder Primark so begeistert sind, weil sie uns ebenso faszinieren und begeistern wie vom Himmel fallende Holzkisten oder Glasperlen.
@AwetTesfaiesus -
@Chaotica @AwetTesfaiesus Es ist halt lukrativer, Milliarden Klaus’ und Dörtes ein Tool zu gebe, mit dem sie lustige Bildchen für ihre WhatsApp Gruppe machen können (und deren Input dann via Profiling zu versilbern) oder „intelligente“ Waffen zu verkaufen, als etwas für finanzklamme Medizinprojekte zu bauen.
@falk @AwetTesfaiesus
Es ist lukrativer, weil unsere Regeln erlauben, dass es lukrativer ist.
️ -
@falk @AwetTesfaiesus
Es ist lukrativer, weil unsere Regeln erlauben, dass es lukrativer ist.
️ -
@sascha @marcuwekling Ignoranz?
@marcuwekling @AwetTesfaiesus Ok das kommt in vielen Fällen sicher noch dazu. Und auch Ressentiments etc. -
@AwetTesfaiesus @Lamal
Ich finde man muss differenzieren. Nicht jede technische Entwicklung ist schlecht, aber jede technische Entwicklung kann man für Schlechtes nutzen.Auch Elektrizität galt mal als Zauberei. Sie kann dafür genutzt werden, Menschen umzubringen - oder sie bei einer Herz-OP am Leben zu halten.
️Am schwierigsten finde ich, dass wir uns aktuell global in eine Situation manövrieren, wo es unmöglich zu werden scheint, Regeln auszuhandeln.
-
@AwetTesfaiesus @Lamal
Ich finde man muss differenzieren. Nicht jede technische Entwicklung ist schlecht, aber jede technische Entwicklung kann man für Schlechtes nutzen.Auch Elektrizität galt mal als Zauberei. Sie kann dafür genutzt werden, Menschen umzubringen - oder sie bei einer Herz-OP am Leben zu halten.
️Am schwierigsten finde ich, dass wir uns aktuell global in eine Situation manövrieren, wo es unmöglich zu werden scheint, Regeln auszuhandeln.
-
@falk @AwetTesfaiesus
Es ist lukrativer, weil unsere Regeln erlauben, dass es lukrativer ist.
️@Chaotica @AwetTesfaiesus Na ja, auf globaler Ebene ist es pure Illusion, diese „Regeln“ in den Griff zu bekommen, da die Interessen mancher Player dagegen sprechen.
Das Problem lieg m. M. n. In der Bildung. Klar könnten KI-basierte Systeme die ganzen einfachen Tätigkeiten eliminieren. Aber was machen wir dann mit den Menschen, die damit ihren Lebensunterhalt bestreiten? Darauf sind wir als Gesellschaft gar nicht vorbereitet.
-
@AwetTesfaiesus @Chaotica @Lamal Das trifft den Nagel auf den Kopf. Genau das ist das Problem.
-
@AwetTesfaiesus @Chaotica @Lamal
Das ist aber eher ein Problem verursacht von unserer Bildungskatastrophe
-
@AwetTesfaiesus @Lamal
Das ist dann noch zusätzlich das Problem. Bei Elektrizität ist es noch verschmerzbar, weil der Komplexitätsgrad noch überschaubar ist und Normalmensch das einfach Profis überlassen können.
Bei allem was mit IT und digitalem zu tun hat, finde ich, dass man inzwischen von #Digitalfeudalismus sprechen kann. Die große Mehrheit muss einfach glauben, was ihnen eine kleine Gruppe wissender erzählt. „Der Computer sagt nein!“ -
"ausschließen" ist ein absoluter Begriff.
Aber: wenn Deine Fehlerquote bei den Leistungsbescheiden bei 50% liegt (und die Bearbeitungszeit bei > 3 Monaten), dann scheint es mir berechtigt zu fragen:
Wäre eine Fehlerquote on 20% bei einer Bearbeitungsdauer von 30 Minuten nicht das bessere System?
Deine Vergleiche der Fehlerquote finde ich spannend, aber so nicht für sinnvoll, denn Du vergleichst Äpfel mit Birnen:
1.) Bescheide, die intentionell Fehlerhaft sind: Der Fehler wird absichtlich gemacht, etwa, um einer politischen Vorgabe zu folgen.
2.) Fehler, die LLMs unabsichtlich herbeiphantasieren. Dabei kann man sie allerdings sehr wohl zu 1.) ebenfalls heran ziehen. -
@Chaotica @AwetTesfaiesus Na ja, auf globaler Ebene ist es pure Illusion, diese „Regeln“ in den Griff zu bekommen, da die Interessen mancher Player dagegen sprechen.
Das Problem lieg m. M. n. In der Bildung. Klar könnten KI-basierte Systeme die ganzen einfachen Tätigkeiten eliminieren. Aber was machen wir dann mit den Menschen, die damit ihren Lebensunterhalt bestreiten? Darauf sind wir als Gesellschaft gar nicht vorbereitet.
@falk @AwetTesfaiesus
Ich wäre dafür, dass wir die Sache mit dem „Lebensunterhalt“ ganz grundsätzlich neu denken.
Aber das schweift jetzt erheblich ab.
-
Deine Vergleiche der Fehlerquote finde ich spannend, aber so nicht für sinnvoll, denn Du vergleichst Äpfel mit Birnen:
1.) Bescheide, die intentionell Fehlerhaft sind: Der Fehler wird absichtlich gemacht, etwa, um einer politischen Vorgabe zu folgen.
2.) Fehler, die LLMs unabsichtlich herbeiphantasieren. Dabei kann man sie allerdings sehr wohl zu 1.) ebenfalls heran ziehen.@Saupreiss @odrotbohm @marcuwekling
Aber das ist halt in vielen Bereichen die Realität. Schau dir nur mal die Nichtanwendungserlasse an https://de.wikipedia.org/wiki/Nichtanwendungserlass
Oder, nimm die Hartz4-Bescheide: 50+% falsch. Nicht-intendiert.
-
@AwetTesfaiesus @Lamal
Das ist dann noch zusätzlich das Problem. Bei Elektrizität ist es noch verschmerzbar, weil der Komplexitätsgrad noch überschaubar ist und Normalmensch das einfach Profis überlassen können.
Bei allem was mit IT und digitalem zu tun hat, finde ich, dass man inzwischen von #Digitalfeudalismus sprechen kann. Die große Mehrheit muss einfach glauben, was ihnen eine kleine Gruppe wissender erzählt. „Der Computer sagt nein!“ -
@Saupreiss @odrotbohm @marcuwekling
Aber das ist halt in vielen Bereichen die Realität. Schau dir nur mal die Nichtanwendungserlasse an https://de.wikipedia.org/wiki/Nichtanwendungserlass
Oder, nimm die Hartz4-Bescheide: 50+% falsch. Nicht-intendiert.
Man nehme übermäßige Komplexität, handwerklich an dieser Stelle wohl oft schlechte Gesetze, die streckenweise selbst einer juristischen Prüfung nicht gehalten haben, zunächst schrottige Software, Zeitdruck (bei Software wie Bearbeitern) - dann bekommt man sowas.
Ich sehe aber nicht, wie LLMs hier helfen würden: Die liefern flott Ergebnisse, wirken aber ebenfalls wie ein DOS, denn das tun sie weit schneller, als man es überprüfen könnte; dabei…
