All watched over by #MachinesOfLovingGrace?
-
Mein größtes Problem ist, dass "KI" eine Worthülse ist die nirgends einheitlich definiert ist und man kann darunter verstehen was man möchte.
Jede*r mit der ich über das Thema gesprochen meinte damit was anders und ich frage inzwischen immer zuerst nach was damit gemeint ist. Die Spannbreite war von Anwendungen die eigentlich nur Statistik machen das aber als KI verkaufen zu Menschen die darunter nur "autonome Agenten" verstehen wollen.
@brolf Und was meinst Du?
-
Das klingt aber nach Kapitulation: als Grüns Fahrradwege gefordert haben, waren die Autobahnen alle gebaut. Als wir Biosigel geschützt haben, lag der Anteil der Konventionellen LaWi bei über 99%. Als Grüns Solar gepusht haben, war der Anteil bei <1%.
@AwetTesfaiesus Würde sagen klingt nach zurück erobern. Momentan wissen wir nicht wie KI durchsetzt unser Leben und Ämter sind.
Erstmal für Trennschärfe und Kennzeichnung der Dienste sorgen. Abhängigkeiten, Gefahren und Dringlichkeiten analysieren.
Dann sehen wir, ob es überhaupt möglich ist.
In jedem Fall Schaden begrenzen:
Iterativer Rückbau von KI durchsetzten Systemen und Software mit Alternativen, bzw. KI kann auch als zweite Option bleiben, wenn sie an der Stelle sinnvoll ist. -
@larsmb konkreter: muss Mensch den Entschluss, frei von Technik (und in der Folge auch: KI) leben zu wollen eigentlich begründen?
@larsmb sorry, wenn ich mich in eure Diskussion einmische, aber da @AwetTesfaiesus nach Rückmeldungen gefragt hat gebe ich meinen Senf dazu.
Ich denke du solltest ein "technikfreies Leben" nicht (vor dem Staat) begründen müssen aber auch, dass du dann halt Einschränkungen hinnehmen musst.
Grundlegende Prozesse und Leistungen müssen allen Menschen zugänglich sein aber das heißt nicht, dass wir wegen diesen Menschen jede Weiterentwicklung einstellen müssen. -
Ich wüsste gern von Euch:
️ Brauchen wir dasselbe für KI?Ich denke nämlich, es ist absehbar, dass KI sehr schnell in alle Lebensbereiche diffundieren wird.
Es sind sicher mehrere Modelle denkbar. Z.B. drängt sich m.E. auf:
1. Ein Recht auf Leben, das nicht strukturell von KI abhängt
2. Ein Recht auf Leben in dem eine Interaktion mit KI (Staat/Privat) nicht erzwungen wird
3. Ein Recht auf menschliche Überprüfung einer KI Entscheidung.
4. Sigel für KI-freie Produkte/Dienstleistungen?
2/3@AwetTesfaiesus gerade erst Bericht über Studie gelesen, die zeigt das gerade jüngere Frauen genAI KI aus Bewusstsein für die sozialen Risiken weniger nutzen und dafür vermutlich auf dem Arbeitsmarkt bestraft werden https://www.unite.ai/research-finds-women-use-generative-ai-less-due-to-moral-concerns/
Ich hätte gerne Regulierung für KI, wie bei Röntgen. Das haben wir als Technologie auch, aber halt nicht überall und ständig, sondern dann wenn es notwendig ist.
-
@AwetTesfaiesus Würde sagen klingt nach zurück erobern. Momentan wissen wir nicht wie KI durchsetzt unser Leben und Ämter sind.
Erstmal für Trennschärfe und Kennzeichnung der Dienste sorgen. Abhängigkeiten, Gefahren und Dringlichkeiten analysieren.
Dann sehen wir, ob es überhaupt möglich ist.
In jedem Fall Schaden begrenzen:
Iterativer Rückbau von KI durchsetzten Systemen und Software mit Alternativen, bzw. KI kann auch als zweite Option bleiben, wenn sie an der Stelle sinnvoll ist.@AwetTesfaiesus Wichtiger finde ich aber sich aus der Abhängigkeit von Gatekeepern und sehr großen online Plattformen zu lösen und auf eigene Lösungen zu setzen.
Alternativen bevorzugen und Ausschreibungen mit Anforderungen wo man auch Eigentümer der Software, Daten und Infrastruktur wird.
Nebenbei wird dann auch automatisch das Thema mit der KI besser.
-
@larsmb sorry, wenn ich mich in eure Diskussion einmische, aber da @AwetTesfaiesus nach Rückmeldungen gefragt hat gebe ich meinen Senf dazu.
Ich denke du solltest ein "technikfreies Leben" nicht (vor dem Staat) begründen müssen aber auch, dass du dann halt Einschränkungen hinnehmen musst.
Grundlegende Prozesse und Leistungen müssen allen Menschen zugänglich sein aber das heißt nicht, dass wir wegen diesen Menschen jede Weiterentwicklung einstellen müssen.Ich würde hier den Vergleich zum Leben ohne Girokonto aufmachen. Das muss möglich sein aber dann hast du mit vielen Einschränkungen zu rechnen. Dabei gibt es ein Recht auf ein Konto damit du nicht wegen Repressalien auf einmal kein Konto mehr hast und alles verlierst.
Im Allgemeinen finde ich wir sollten hier eher über die Rechte von Menschen argumentieren und weniger über technische Details.
-
@AwetTesfaiesus Schwierig.
Einerseits fand ich die grünen Positionen schon bei Kernenergie und Gentechnik immer etwas sehr holzschnittartig und würde hier wieder die gleiche Gefahr sehen. Mag aber ebenso sein, dass „stabile“ Ablehnung bei den Wähler*innen in der Zielgruppe in all diesen Fällen gut ankommt.
Andererseits ist der LLM-Hype wirklich anstrengend.
Aber kriegt man da schnell genug Regelungen formuliert, die auch Sinn ergeben? Was heißt „KI-frei“? Reicht es, dass das Produkt, die Dienstleistung „KI-frei“ ist? Oder muss es auch der Support, die Kontakt-Kanäle sein? Alle? Dürfen die Entwickler*innen LLMs in ihrer Arbeit einsetzen, solange kein LLM im letztendlichen Produkt direkt enthalten ist?
@AwetTesfaiesus Besteht vielleicht doch noch die Hoffnung, dass die Blase rechtzeitig platzt und das Ganze auf ein Normalmaß zurechtstutzt, bevor ein Gesetzgebungs-Verfahren überhaupt durch wäre?
Der Privatwirtschaft Kontaktwege vorzuschreiben, erscheint mir auch erst mal schwierig. Ein irgendwo auf der Welt ausgelagerter First-Level-Support, der ein wenig hilfreiches Skript abarbeitet, ist im Zweifel nicht so viel besser als ein LLM. Wenn man das macht, sollte es vielleicht nicht (nur) auf „KI“ abzielen, sondern generell auf die barrierearme Erreichbarkeit von Menschen mit Entscheidungskompetenz? Im Zweifel teuer – am Ende auch für die Kund*innen – und killt das Business sehr billiger Call-Center.
-
@AwetTesfaiesus Für mich ist KI ein Tool, welches Firmen neben anderen Dingen (z.B. Datenbanken, menschliche Mitarbeiter, beliebige Software) einsetzen, um Prozesse auszugestalten. Die Regulierung dieser Dinge sollte sich IMO auf die Verarbeitung der Daten und das Ergebnis beziehen; nicht auf die Auswahl der “Tools”.
Überspitzt formuliert: Würde sich die Garantie eines Excel-freiern Prozesses sinnvoll umsetzen lassen?@lysis das sehe ich nicht so. Ich vermute auch, du denkst hier nicht (wie ich) an den Staatlichen Einsatz. Deutschland reguliert immer schon die „Mittel“ des Staates. Krasse Bsp: viele PolizeiG verbieten den Einsatz von Sprengmitteln oder Maschinengewehren (nicht -pistolen) gegen Menschen in der polizeilichen Arbeit. Manche Länder verbieten den Einsatz von bestimmten Waffen gegen Personen in Menschenmengen.
Es geht auch um „Tools“
https://www.rv.hessenrecht.hessen.de/bshe/document/jlr-SOGHEV5P55
https://voris.wolterskluwer-online.de/browse/document/7b0e247f-3789-309a-82e5-f72ba043e8d9
-
@momo Guter Punkt. Mir fehlt vielleicht noch ein Element, dass klar stellt, dass es hier um krasseste Skaleneffekte geht
@AwetTesfaiesus
Die lassen sich selten klar rausarbeiten. KI ist im Moment super unprofitabel. Die Infrastruktur kostet, die Zugänge sind billig ohne Ende und nur durch externe Investoren sind die ganzen Konzerne überhaupt in der Lage, den Betrieb aufrecht zu erhalten und um Markanteile zu kämpfen. Gewinner sind da nur die, die ein fettes Gehalt raustragen und das nächste goldene Kalb rausholen, wenn die Blase platzt.Ich erinnere mich an eine Hauptversammlung der BASF, ich glaub 2022. Damals hatten sie ihr Offshore-Solarprojekt in der Nordsee sowie Photovoltarik auf den Gebäuden angekündigt. Ein Mitarbeiter fragte, warum die BASF hier in Windkraft und Solarstromerzeugung investiert, ob Atomkraft nicht sinnvoller sei. Herr Brudermüller antwortete seinerzeit "Ja, das haben wir durchgerechnet. Um es kurz zu machen: Atomkraft ist viel zu teuer!" Und das lässt sich genauso auf die bundesdeutschen AKWs anwenden, die kochten literally auch nur Wasser. Und da stellt sich schon die Frage: Eine Technologie, die teuer ist und ohne Subventionen keinen Gewinn abwirft, wie kann man da Geld raustragen? Aber sehr offensichtlich ging das...
-
@brolf Und was meinst Du?
@AwetTesfaiesus Ich mag den Begriff so gar nicht und verwende ihn ungern. Ich würde lieber über Klassifizierer, statistische Text-/Bildgeneratoren, Häufigkeitsanalyse und Fuzzysearch reden.
-
@AwetTesfaiesus Würde sagen klingt nach zurück erobern. Momentan wissen wir nicht wie KI durchsetzt unser Leben und Ämter sind.
Erstmal für Trennschärfe und Kennzeichnung der Dienste sorgen. Abhängigkeiten, Gefahren und Dringlichkeiten analysieren.
Dann sehen wir, ob es überhaupt möglich ist.
In jedem Fall Schaden begrenzen:
Iterativer Rückbau von KI durchsetzten Systemen und Software mit Alternativen, bzw. KI kann auch als zweite Option bleiben, wenn sie an der Stelle sinnvoll ist.@streetcoder ich unterstelle: sie wird überall schon genutzt. Überall!
-
Was meint Ihr: ist das abgedrehte „Technikfeindlichkeit“ und „Spinnerei“ oder sollte es einen Anspruch auf KI-Freie Gemeinden, KI-freie Schulen, KI-freie Ämter, KI-freies Leben geben (bzw. gibt es ihn bereits, z.B. wg der Würdegaratie, vgl https://de.wikipedia.org/wiki/Objektformel)?
Und sollte er (grundrechtlich?) garantiert sein?
3/3
@AwetTesfaiesus Ich bin nur so mittel von allgemeinen Regeln begeistert und glaube, dass es primär auf den Einsatzzweck ankommt.
In Niedersachsen haben wir zum KI-Einsatz in der Sicherheitspolitik mit der @digital_gruen_nds den folgenden Beschluss erwirkt, den ich sehr gut finde:https://gruene-niedersachsen.de/ki-und-sicherheit/
Ob meine Steuererklärung von einer KI geprüft wird ist mir ehrlicherweise egal, allerdings ist es mir wichtig, dass ich im Streitfall einen menschlichen Richter anrufen kann.
-
@AwetTesfaiesus Ich bin nur so mittel von allgemeinen Regeln begeistert und glaube, dass es primär auf den Einsatzzweck ankommt.
In Niedersachsen haben wir zum KI-Einsatz in der Sicherheitspolitik mit der @digital_gruen_nds den folgenden Beschluss erwirkt, den ich sehr gut finde:https://gruene-niedersachsen.de/ki-und-sicherheit/
Ob meine Steuererklärung von einer KI geprüft wird ist mir ehrlicherweise egal, allerdings ist es mir wichtig, dass ich im Streitfall einen menschlichen Richter anrufen kann.
@AwetTesfaiesus
allgemein kann ich es vielleicht so sagen: Wenn ich eine Dienstleistung in Anspruch nehme (staatlich oder nicht), dann ist es mir erstmal egal wie diese erbracht wird. Am Ende verbleibt die Verantwortung dafür aber bei einem Menschen - wenn die KI einen Fehler macht, dann ist der Anbieter zuständig. -
@AwetTesfaiesus Besteht vielleicht doch noch die Hoffnung, dass die Blase rechtzeitig platzt und das Ganze auf ein Normalmaß zurechtstutzt, bevor ein Gesetzgebungs-Verfahren überhaupt durch wäre?
Der Privatwirtschaft Kontaktwege vorzuschreiben, erscheint mir auch erst mal schwierig. Ein irgendwo auf der Welt ausgelagerter First-Level-Support, der ein wenig hilfreiches Skript abarbeitet, ist im Zweifel nicht so viel besser als ein LLM. Wenn man das macht, sollte es vielleicht nicht (nur) auf „KI“ abzielen, sondern generell auf die barrierearme Erreichbarkeit von Menschen mit Entscheidungskompetenz? Im Zweifel teuer – am Ende auch für die Kund*innen – und killt das Business sehr billiger Call-Center.
@AwetTesfaiesus Vielleicht auch Haftung von Unernehmen für alles, was in ihrem Namen getan und kommuniziert wird, stärken (wieder ohne unbedingt direkt und nur „KI“ ins Visier zu nehmen)? Dann sollten die sich zwei mal überlegen, wie sehr sie auf LLM-Einsatz ohne engmaschiges Monitoring setzen.
---
Im Endeffekt glaube ich, dass das einer der Bereiche ist, in denen „die Gesellschaft“ zeigen muss, dass die Alternativen besser sind (und sie ggf. besser entwickeln, wenn sie das in Wirklichkeit noch nicht sind).
Der Staat kann da ggf. in seinem Bereich ganz ohne Regulierung/Gesetze mit gutem Beispiel voran gehen, indem er z.B. Verwaltungsvorgänge so sehr vereinfacht und so gut dokumentiert, dass es überhaupt keinen LLM-Chatbot *braucht*, um mit ihnen klar zu kommen.
-
B brolf@chaos.social shared this topic
-
@lysis das sehe ich nicht so. Ich vermute auch, du denkst hier nicht (wie ich) an den Staatlichen Einsatz. Deutschland reguliert immer schon die „Mittel“ des Staates. Krasse Bsp: viele PolizeiG verbieten den Einsatz von Sprengmitteln oder Maschinengewehren (nicht -pistolen) gegen Menschen in der polizeilichen Arbeit. Manche Länder verbieten den Einsatz von bestimmten Waffen gegen Personen in Menschenmengen.
Es geht auch um „Tools“
https://www.rv.hessenrecht.hessen.de/bshe/document/jlr-SOGHEV5P55
https://voris.wolterskluwer-online.de/browse/document/7b0e247f-3789-309a-82e5-f72ba043e8d9
@AwetTesfaiesus Ich hatte auch an öffentliche/staatlichen Einsatz gedacht, deshalb habe ich “Organisationen” geschrieben. Aber ich verstehe den Einwand. Vielleicht benötigen wir ein differenziertes Vorgehen. Ich sehe KI weiter auf einer Ebene mit Excel, oder selbst geschriebener Software die auf Datenbanken zugreift, die ich allgemein nicht reguliert sehen möchte. Ich kann mir aber Sonderfälle vorstellen, in denen ich jede Form von KI ausschließen möchte.
-
N necrosis@chaos.social shared this topic
-
Was meint Ihr: ist das abgedrehte „Technikfeindlichkeit“ und „Spinnerei“ oder sollte es einen Anspruch auf KI-Freie Gemeinden, KI-freie Schulen, KI-freie Ämter, KI-freies Leben geben (bzw. gibt es ihn bereits, z.B. wg der Würdegaratie, vgl https://de.wikipedia.org/wiki/Objektformel)?
Und sollte er (grundrechtlich?) garantiert sein?
3/3
@AwetTesfaiesus Absolute Zustimmung.


-
@AwetTesfaiesus Ich hatte auch an öffentliche/staatlichen Einsatz gedacht, deshalb habe ich “Organisationen” geschrieben. Aber ich verstehe den Einwand. Vielleicht benötigen wir ein differenziertes Vorgehen. Ich sehe KI weiter auf einer Ebene mit Excel, oder selbst geschriebener Software die auf Datenbanken zugreift, die ich allgemein nicht reguliert sehen möchte. Ich kann mir aber Sonderfälle vorstellen, in denen ich jede Form von KI ausschließen möchte.
@AwetTesfaiesus Als Beispiel: wenn man viele Seiten Papierakten hat, deren Daten man statistisch erfassen möchte: warum nicht ein LLM-Modell zur Schrifterkennung drauf werfen? Der Einsetzende muss dann für das Ergebnis haften.
Wenn es aber z.B. um eine konkrete staatliche Entscheidung geht (Asyl, Gesundheitskosten, Gerichtsurteile, …), sollte die nicht hauptsächlich von KI abhängig sein.
Ich glaube ich meine eigentlich: es kommt auf den Einsatz(ort) der KI an.
-
Was meint Ihr: ist das abgedrehte „Technikfeindlichkeit“ und „Spinnerei“ oder sollte es einen Anspruch auf KI-Freie Gemeinden, KI-freie Schulen, KI-freie Ämter, KI-freies Leben geben (bzw. gibt es ihn bereits, z.B. wg der Würdegaratie, vgl https://de.wikipedia.org/wiki/Objektformel)?
Und sollte er (grundrechtlich?) garantiert sein?
3/3
Definitiv. Ich will z.B. wenn ich meinen Hausarzt anrufen mit einem Menschen sprechen und nicht "Hier ist der digitale Assistent der Praxis xyz, bereitgestellt durch Doctolib" hören.
Ich will keine Produkte die mit KI zwangsbeglückt werden und ich am Ende dafür zahlen soll.
Ich will keine Suchergebnisse bei denen die ersten Treffer alle auf KI-Slop zeigen.
-
@AwetTesfaiesus Als Beispiel: wenn man viele Seiten Papierakten hat, deren Daten man statistisch erfassen möchte: warum nicht ein LLM-Modell zur Schrifterkennung drauf werfen? Der Einsetzende muss dann für das Ergebnis haften.
Wenn es aber z.B. um eine konkrete staatliche Entscheidung geht (Asyl, Gesundheitskosten, Gerichtsurteile, …), sollte die nicht hauptsächlich von KI abhängig sein.
Ich glaube ich meine eigentlich: es kommt auf den Einsatz(ort) der KI an.
Link zu: Traue keinem Scan, den du nicht selbst gefälscht hast
"Bei Kopierern kommt das raus, was man reinsteckt." – Wer das denkt, sollte diesen Vortrag besuchen.
Von David Kriesel -
@AwetTesfaiesus Absolute Zustimmung.


@necrosis nur zur Klarstellung: Zustimmung zu welcher Seite der oder-Frage