Mastodon Skip to content
  • Home
  • Aktuell
  • Tags
  • Über dieses Forum
Einklappen
Grafik mit zwei überlappenden Sprechblasen, eine grün und eine lila.
Abspeckgeflüster – Forum für Menschen mit Gewicht(ung)

Kostenlos. Werbefrei. Menschlich. Dein Abnehmforum.

  1. Home
  2. Uncategorized
  3. In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen.

In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen.

Geplant Angeheftet Gesperrt Verschoben Uncategorized
llms
218 Beiträge 54 Kommentatoren 0 Aufrufe
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • G gormfull@mastodon.social

    @AwetTesfaiesus @odrotbohm @marcuwekling

    Was eine richtige Entscheidung ist, ist ja irgendwie auch Verhandlungssache. Und da ist es dann schwer in ein LLM reinzuschauen. Es wird dir einen Text generieren, warum es eine Entscheidung getroffen hat, aber dieser Text wird nicht der Begründung entsprechen, warum es die Entscheidung getroffen hat. Die wäre nämlich schlicht, weil sie in einem 100000 dimensionalen Vektorraum “nahe lag”.

    awettesfaiesus@mastodon.socialA This user is from outside of this forum
    awettesfaiesus@mastodon.socialA This user is from outside of this forum
    awettesfaiesus@mastodon.social
    schrieb zuletzt editiert von
    #126

    @Gormfull @odrotbohm @marcuwekling ich erinnere mich dunkel an eine (für meine profession wenig vorteilhafte) Dissertation, die (nach meiner Erinnerung) die Rechtspraxis kaum anders darstellte. Ich denke es könnte Somek, Rechtliches Wissen, gewesen sein :

    https://www.suhrkamp.de/buch/alexander-somek-rechtliches-wissen-t-9783518294024

    1 Antwort Letzte Antwort
    0
    • G gormfull@mastodon.social

      @AwetTesfaiesus @odrotbohm @marcuwekling

      Sicher bin ich mir offensichtlich auch nicht, sonst hätte ich ja nicht meiner “all-positive” Aussage selbst widersprochen 😉
      Ein systematischer Fehler, den die KI wahrscheinlich nicht machen würde ist vor dem Mittagessen negativere Bescheide auszustellen, als kurz nach dem Frühstück.
      Beschrieben in diesem auch sonst lesenswerten Buch über fehlerhafte menschliche Heuristiken.

      https://www.genialokal.de/Produkt/Daniel-Kahneman/Schnelles-Denken-langsames-Denken_lid_55264914.html

      awettesfaiesus@mastodon.socialA This user is from outside of this forum
      awettesfaiesus@mastodon.socialA This user is from outside of this forum
      awettesfaiesus@mastodon.social
      schrieb zuletzt editiert von
      #127

      @Gormfull @odrotbohm @marcuwekling 😁

      1 Antwort Letzte Antwort
      0
      • energisch_@troet.cafeE energisch_@troet.cafe shared this topic
      • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

        Konkret: Ich könnte mir vorstellen, dass in dieser (!) konkreten Herangehensweisen an KI viel Coping steckt. Lügen wir uns hier kollektiv in die eigene (intellektuelle) Tasche?

        Oder pfeifen wir hier sogar schon verzweifelt im Walde?

        Liege ich komplett falsch?

        energisch_@troet.cafeE This user is from outside of this forum
        energisch_@troet.cafeE This user is from outside of this forum
        energisch_@troet.cafe
        schrieb zuletzt editiert von
        #128

        @AwetTesfaiesus Klar, Menschen machen Fehler. Aber Fehler werden durch Menschen wieder abgefedert, korrigiert, berichtigt. Bei LLMs scheint das nicht der Fall, im Gegenteil! Der Zwang zu Ergebnissen führt dazu, dass immer mehr Fehler generiert werden (auch aus der Quelle menschlicher Fehler). Das potenziert die Fehlerquote.

        theoneswit@det.socialT 1 Antwort Letzte Antwort
        0
        • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

          @oldperl ich denke, meine Frage wird missverstanden. Natürlich sollten wir hinterfragen. Ich frage mich aber: hinterfragen wir menschliche Ergebnisse mit demselben Eifer?

          energisch_@troet.cafeE This user is from outside of this forum
          energisch_@troet.cafeE This user is from outside of this forum
          energisch_@troet.cafe
          schrieb zuletzt editiert von
          #129

          @AwetTesfaiesus Ja, dort wo ich selbst Kompetenz mitbringe und dort wo nicht: da suche ich immer nach mehreren glaubwürdigen Quellen. Aber klar, irgendwo kommen alle an Grenzen. Dehalb liebe ich das Fediverse. Das ist ein Netzwerk für menschliche Kompetenzerweiterung @oldperl

          oldperl@mastodon.onlineO 1 Antwort Letzte Antwort
          0
          • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

            Konkret: Ich könnte mir vorstellen, dass in dieser (!) konkreten Herangehensweisen an KI viel Coping steckt. Lügen wir uns hier kollektiv in die eigene (intellektuelle) Tasche?

            Oder pfeifen wir hier sogar schon verzweifelt im Walde?

            Liege ich komplett falsch?

            ascendor@social.tchncs.deA This user is from outside of this forum
            ascendor@social.tchncs.deA This user is from outside of this forum
            ascendor@social.tchncs.de
            schrieb zuletzt editiert von
            #130

            @AwetTesfaiesus Interessante Betrachtungsweise. Ich denke einfach, Maschinen werden gebaut, um exakt und deterministisch zu arbeiten - in der Vergangenheit. Kreative und nicht-deterministische Maschinen sind in der Gesellschaft einfach nicht bekannt. Man ERWARTET von Maschinen Korrektheit, und nimmt deren Ergebnisse daher für bare Münze. (Was würdest Du zu einer Suchmaschine sagen, die Links ausspuckt, die es gar nicht gibt?)
            Und dann ist die Überraschung und Empörung natürlich groß, wenn es nicht so ist.
            Die von Dir aufgezeigten Beispiele von menschlichen Fehlern sind keine Empörung wert, genau aus dem Grund, den Du nennst. Menschen machen ständig Fehler. Hier gibt es keine andere Erwartungshaltung.

            Meines Erachtens ist das aber auch alles richtig so. Wir müssen lernen, dass ein ...

            ascendor@social.tchncs.deA 1 Antwort Letzte Antwort
            0
            • ascendor@social.tchncs.deA ascendor@social.tchncs.de

              @AwetTesfaiesus Interessante Betrachtungsweise. Ich denke einfach, Maschinen werden gebaut, um exakt und deterministisch zu arbeiten - in der Vergangenheit. Kreative und nicht-deterministische Maschinen sind in der Gesellschaft einfach nicht bekannt. Man ERWARTET von Maschinen Korrektheit, und nimmt deren Ergebnisse daher für bare Münze. (Was würdest Du zu einer Suchmaschine sagen, die Links ausspuckt, die es gar nicht gibt?)
              Und dann ist die Überraschung und Empörung natürlich groß, wenn es nicht so ist.
              Die von Dir aufgezeigten Beispiele von menschlichen Fehlern sind keine Empörung wert, genau aus dem Grund, den Du nennst. Menschen machen ständig Fehler. Hier gibt es keine andere Erwartungshaltung.

              Meines Erachtens ist das aber auch alles richtig so. Wir müssen lernen, dass ein ...

              ascendor@social.tchncs.deA This user is from outside of this forum
              ascendor@social.tchncs.deA This user is from outside of this forum
              ascendor@social.tchncs.de
              schrieb zuletzt editiert von
              #131

              @AwetTesfaiesus ... stochastischer Papagei eben KEINE Intelligenz ist. Er reiht Wörter aneinander, weil es wahrscheinlich ist, dass Wort B auf Wort A folgt.

              awettesfaiesus@mastodon.socialA 2 Antworten Letzte Antwort
              0
              • ascendor@social.tchncs.deA ascendor@social.tchncs.de

                @AwetTesfaiesus ... stochastischer Papagei eben KEINE Intelligenz ist. Er reiht Wörter aneinander, weil es wahrscheinlich ist, dass Wort B auf Wort A folgt.

                awettesfaiesus@mastodon.socialA This user is from outside of this forum
                awettesfaiesus@mastodon.socialA This user is from outside of this forum
                awettesfaiesus@mastodon.social
                schrieb zuletzt editiert von
                #132

                @Ascendor Ich vermute: Du hast nicht Jura studiert.

                ascendor@social.tchncs.deA 1 Antwort Letzte Antwort
                0
                • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                  In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen. @marcuwekling sagte am Montag bei der Lesung Ähnliches.

                  Dazu:
                  1️⃣In der juristischen Ausbildung lernst du, dass 50-70% der Verwaltungsakt falsch sind. Default: falsch!
                  2️⃣Dazu: in meiner Schulzeit waren Atlanten/Karten immer falsch (DDR drin, teils Saarland draußen, Jugoslawien komplett). Ich habe nicht gehört, dass über Schulen ähnlich gesprochen wird, wie über LLMs. #ki

                  jlink@det.socialJ This user is from outside of this forum
                  jlink@det.socialJ This user is from outside of this forum
                  jlink@det.social
                  schrieb zuletzt editiert von
                  #133

                  @AwetTesfaiesus @marcuwekling Ein Unterschied ist, dass wir menschliche Urheber befragen und verantwortlich machen können. Diese können lernen, die gleichen Fehler und Unwahrheiten nicht mehr zu verbreiten. LLMs sind grundsätzlich nicht lernfähig. Was als Lernen verkauft wird, ist ein (aus Kostengründen) sehr beschränkter Kontext, der außerdem „das Gelernte“ nicht sicherstellt, sondern lediglich wahrscheinlicher macht.

                  awettesfaiesus@mastodon.socialA 1 Antwort Letzte Antwort
                  0
                  • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                    @oldperl ich möchte klarstellen: ich frage mich u.A. warum wir menschlichen Aussagen nicht mit derselben Skepsis begegnen, wie der KI und zwar selbst dann nicht, wenn wir wissen, dass die Ergebnisse mit über 50%iger Wahrscheinlichkeit falsch sind (Jobcenterbescheid?). Wieso ist die falsche „Map of Europe“ ein Anlass zur Empörung, die 10tausend falschen Karten in unseren Schulen aber nicht?

                    pdh@hessen.socialP This user is from outside of this forum
                    pdh@hessen.socialP This user is from outside of this forum
                    pdh@hessen.social
                    schrieb zuletzt editiert von
                    #134

                    @AwetTesfaiesus @oldperl Ich denke, dass in der Diskussion die Differenzierung zwischen Menschen und Fachgebieten zu kurz kommt. Ich habe einen Verwandten, den ich gerne zum Thema Automobil befrage, bei dem aber die meisten Aussagen zu Politikern oder Politik auf Falschinformationen beruhen. Ich empfinde es auch nicht so, dass grundsätzlich keine Skepsis an menschlichen Aussagen vorhanden ist. Im Gegenteil kann zu viel Skepsis sogar zu zwischenmenschlichen Problemen führen.

                    pdh@hessen.socialP 1 Antwort Letzte Antwort
                    0
                    • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                      In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen. @marcuwekling sagte am Montag bei der Lesung Ähnliches.

                      Dazu:
                      1️⃣In der juristischen Ausbildung lernst du, dass 50-70% der Verwaltungsakt falsch sind. Default: falsch!
                      2️⃣Dazu: in meiner Schulzeit waren Atlanten/Karten immer falsch (DDR drin, teils Saarland draußen, Jugoslawien komplett). Ich habe nicht gehört, dass über Schulen ähnlich gesprochen wird, wie über LLMs. #ki

                      thierna@mastodon.greenT This user is from outside of this forum
                      thierna@mastodon.greenT This user is from outside of this forum
                      thierna@mastodon.green
                      schrieb zuletzt editiert von
                      #135

                      @AwetTesfaiesus yepp, Bildung ist problematisch. Verwaltung auch.

                      Ermessensspielraum bei einer Bank, kenne ich nur von vermögenden Menschen, die persönlichen Kontakt zum Bankberater haben.

                      Menschen, die Schulentwicklung machen, reden darüber schon lange. z.b. im #FediLZ gibts da bestimmt mehr.

                      Aber das kickt halt nicht so in der Presse. und irgendwie läuft da zuviel getrennt und parallel.

                      1 Antwort Letzte Antwort
                      0
                      • ascendor@social.tchncs.deA ascendor@social.tchncs.de

                        @AwetTesfaiesus ... stochastischer Papagei eben KEINE Intelligenz ist. Er reiht Wörter aneinander, weil es wahrscheinlich ist, dass Wort B auf Wort A folgt.

                        awettesfaiesus@mastodon.socialA This user is from outside of this forum
                        awettesfaiesus@mastodon.socialA This user is from outside of this forum
                        awettesfaiesus@mastodon.social
                        schrieb zuletzt editiert von
                        #136

                        @Ascendor Ein Beispiel:

                        D könnte sich wegen einer Beihilfe zum Diebstahl des B in einem besonders schweren Fall nach §§
                        242 I, 243 I S. 2 Nr. 1, 27 I strafbar gemacht haben, indem er ...

                        Hierzu bedarf es einer beihilfefähigen Haupttat des B.

                        B könnte sich gemäß §§ 242 I, 243 I 2 Nr. 1 strafbar gemacht haben, indem er … mitnahm.

                        Diebstahl gem. § 242 I ist …
                        ---
                        Ein Wort plausibel wahrscheinlich nach dem anderen.

                        ascendor@social.tchncs.deA 1 Antwort Letzte Antwort
                        0
                        • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                          @Ascendor Ich vermute: Du hast nicht Jura studiert.

                          ascendor@social.tchncs.deA This user is from outside of this forum
                          ascendor@social.tchncs.deA This user is from outside of this forum
                          ascendor@social.tchncs.de
                          schrieb zuletzt editiert von
                          #137

                          @AwetTesfaiesus Ad hominem als Antwort? Sympathisch.

                          Ich hatte bisher auch nicht den Eindruck, dass Du eine juristische Diskussion aufmachen wolltest. Du sprachst von gesellschaftlichem Coping.

                          1 Antwort Letzte Antwort
                          0
                          • chris_evelyn@troet.cafeC chris_evelyn@troet.cafe

                            @AwetTesfaiesus Das war ein bisschen Snark gerade.

                            Aber da sind wir wieder bei meiner ersten Antwort: Wir neigen dazu, „KI“ zu überschätzen und mit zu viel Bedeutung zu versehen, weil die Ausgabe eben aussieht wie Sprache.

                            Und die Marketing-Abteilungen der KI-Firmen tun natürlich nicht nicht viel, uns davon abzubringen.

                            stiebke@hadan.socialS This user is from outside of this forum
                            stiebke@hadan.socialS This user is from outside of this forum
                            stiebke@hadan.social
                            schrieb zuletzt editiert von
                            #138

                            @chris_evelyn @AwetTesfaiesus Das Schlimme daran ist, dass der Einsatz von KI dann auch von Parlamentariern als Allheilmittel für alles Mögliche angesehen und deren Einsatz noch forciert wird. Dies schürt Ängste. Wir haben interessante Entwicklungen wie den EU-KI-Act, der einen Rahmen für den Einsatz schafft (was natürlich die US-AI-Unternehmen schockiert). Da ich mich nun mehrere Jahre mit KI beruflich beschäftigt habe, sehe ich den Einsatz in manchen Gebieten als überschätzt an.

                            1 Antwort Letzte Antwort
                            0
                            • jlink@det.socialJ jlink@det.social

                              @AwetTesfaiesus @marcuwekling Ein Unterschied ist, dass wir menschliche Urheber befragen und verantwortlich machen können. Diese können lernen, die gleichen Fehler und Unwahrheiten nicht mehr zu verbreiten. LLMs sind grundsätzlich nicht lernfähig. Was als Lernen verkauft wird, ist ein (aus Kostengründen) sehr beschränkter Kontext, der außerdem „das Gelernte“ nicht sicherstellt, sondern lediglich wahrscheinlicher macht.

                              awettesfaiesus@mastodon.socialA This user is from outside of this forum
                              awettesfaiesus@mastodon.socialA This user is from outside of this forum
                              awettesfaiesus@mastodon.social
                              schrieb zuletzt editiert von
                              #139

                              @jlink Diese Annahme ist mir zu zweidimensional.

                              jlink@det.socialJ 1 Antwort Letzte Antwort
                              0
                              • pdh@hessen.socialP pdh@hessen.social

                                @AwetTesfaiesus @oldperl Ich denke, dass in der Diskussion die Differenzierung zwischen Menschen und Fachgebieten zu kurz kommt. Ich habe einen Verwandten, den ich gerne zum Thema Automobil befrage, bei dem aber die meisten Aussagen zu Politikern oder Politik auf Falschinformationen beruhen. Ich empfinde es auch nicht so, dass grundsätzlich keine Skepsis an menschlichen Aussagen vorhanden ist. Im Gegenteil kann zu viel Skepsis sogar zu zwischenmenschlichen Problemen führen.

                                pdh@hessen.socialP This user is from outside of this forum
                                pdh@hessen.socialP This user is from outside of this forum
                                pdh@hessen.social
                                schrieb zuletzt editiert von
                                #140

                                @AwetTesfaiesus @oldperl und bezüglich KI ist es glaube ich nicht immer Empörung, sondern häufig Genugtuung. Es gibt uns ein schönes Gefühl zu wissen, dass LLMs nicht so intelligent sind, wie manche sie verkaufen, und wir persönlich mehr wissen.

                                awettesfaiesus@mastodon.socialA 1 Antwort Letzte Antwort
                                0
                                • pdh@hessen.socialP pdh@hessen.social

                                  @AwetTesfaiesus @oldperl und bezüglich KI ist es glaube ich nicht immer Empörung, sondern häufig Genugtuung. Es gibt uns ein schönes Gefühl zu wissen, dass LLMs nicht so intelligent sind, wie manche sie verkaufen, und wir persönlich mehr wissen.

                                  awettesfaiesus@mastodon.socialA This user is from outside of this forum
                                  awettesfaiesus@mastodon.socialA This user is from outside of this forum
                                  awettesfaiesus@mastodon.social
                                  schrieb zuletzt editiert von
                                  #141

                                  @PDH @oldperl

                                  Das trifft es gut!

                                  1 Antwort Letzte Antwort
                                  0
                                  • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                                    @jlink Diese Annahme ist mir zu zweidimensional.

                                    jlink@det.socialJ This user is from outside of this forum
                                    jlink@det.socialJ This user is from outside of this forum
                                    jlink@det.social
                                    schrieb zuletzt editiert von
                                    #142

                                    @AwetTesfaiesus ?

                                    awettesfaiesus@mastodon.socialA 1 Antwort Letzte Antwort
                                    0
                                    • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                                      @Ascendor Ein Beispiel:

                                      D könnte sich wegen einer Beihilfe zum Diebstahl des B in einem besonders schweren Fall nach §§
                                      242 I, 243 I S. 2 Nr. 1, 27 I strafbar gemacht haben, indem er ...

                                      Hierzu bedarf es einer beihilfefähigen Haupttat des B.

                                      B könnte sich gemäß §§ 242 I, 243 I 2 Nr. 1 strafbar gemacht haben, indem er … mitnahm.

                                      Diebstahl gem. § 242 I ist …
                                      ---
                                      Ein Wort plausibel wahrscheinlich nach dem anderen.

                                      ascendor@social.tchncs.deA This user is from outside of this forum
                                      ascendor@social.tchncs.deA This user is from outside of this forum
                                      ascendor@social.tchncs.de
                                      schrieb zuletzt editiert von
                                      #143

                                      @AwetTesfaiesus OK, und was beweist das? Natürlich ist es wahrscheinlich, dass in menschlichen Texten Wörter wahrscheinlich auf andere Wörter folgen. Nur haben die Menschen diese Wörter nicht aufgrund von Wahrscheinlichkeitsberechnungen aneinander gereiht, sondern weil sie nachgedacht haben und die Worte einen semantischen Sinn ergeben haben.
                                      Die Wahrscheinlichkeit, die die KI benutzt, ist also gerade dadurch entstanden, dass sie Texte zum Training verwendet hat, die von Menschen erzeugt wurden. Daher WIRKT es, als wäre die KI eine Intelligenz. Ist sie aber nicht. Sie denkt nicht nach, sie reiht nur Wörter aufgrund von Wahrscheinlichkeiten aneinander.

                                      awettesfaiesus@mastodon.socialA 1 Antwort Letzte Antwort
                                      0
                                      • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                                        In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen. @marcuwekling sagte am Montag bei der Lesung Ähnliches.

                                        Dazu:
                                        1️⃣In der juristischen Ausbildung lernst du, dass 50-70% der Verwaltungsakt falsch sind. Default: falsch!
                                        2️⃣Dazu: in meiner Schulzeit waren Atlanten/Karten immer falsch (DDR drin, teils Saarland draußen, Jugoslawien komplett). Ich habe nicht gehört, dass über Schulen ähnlich gesprochen wird, wie über LLMs. #ki

                                        susannebonn@hessen.socialS This user is from outside of this forum
                                        susannebonn@hessen.socialS This user is from outside of this forum
                                        susannebonn@hessen.social
                                        schrieb zuletzt editiert von
                                        #144

                                        @AwetTesfaiesus Da erscheint es mir irgendwie sinnvoller, die vorhandenen Fehler und ihre Quellen zu reduzieren, anstatt neue zu verbreiten.

                                        awettesfaiesus@mastodon.socialA 1 Antwort Letzte Antwort
                                        0
                                        • awettesfaiesus@mastodon.socialA awettesfaiesus@mastodon.social

                                          @oldperl ich möchte klarstellen: ich frage mich u.A. warum wir menschlichen Aussagen nicht mit derselben Skepsis begegnen, wie der KI und zwar selbst dann nicht, wenn wir wissen, dass die Ergebnisse mit über 50%iger Wahrscheinlichkeit falsch sind (Jobcenterbescheid?). Wieso ist die falsche „Map of Europe“ ein Anlass zur Empörung, die 10tausend falschen Karten in unseren Schulen aber nicht?

                                          aubrieta@social.tchncs.deA This user is from outside of this forum
                                          aubrieta@social.tchncs.deA This user is from outside of this forum
                                          aubrieta@social.tchncs.de
                                          schrieb zuletzt editiert von
                                          #145

                                          @AwetTesfaiesus
                                          Vertrauen ist ein sehenden Auges eingegangenes Risiko zur Komplexitätsreduzierung.

                                          Ganz ohne geht es meiner Meinung nach nicht.
                                          Deshalb sollten Prozesse Prüfschleifen haben, spätestens dann, wenn sie zu irreversiblen Konsequenzen führen ( zB Abbruch eines Hauses).
                                          Je größer der Aufwand, die Verbreitung und das Ansehen einer Quelle (zB Schulbücher), desto mehr Qualitätssicherungsmaßnahmen erwarte ich. Alleine schon deswegen, weil die -> Informationsdarbietung <- deren Existenzgrundlage ist. Es ist ihre primäre Aufgabe.

                                          Früher bedeutete ein Fehler in einer solchen Drucksache einen Reputationsverlust und war damit geschäftsschädigend.

                                          @oldperl

                                          awettesfaiesus@mastodon.socialA 1 Antwort Letzte Antwort
                                          0
                                          Antworten
                                          • In einem neuen Thema antworten
                                          Anmelden zum Antworten
                                          • Älteste zuerst
                                          • Neuste zuerst
                                          • Meiste Stimmen



                                          Copyright (c) 2025 abSpecktrum (@abspecklog@fedimonster.de)

                                          Erstellt mit Schlaflosigkeit, Kaffee, Brokkoli & ♥

                                          Impressum | Datenschutzerklärung | Nutzungsbedingungen

                                          • Anmelden

                                          • Du hast noch kein Konto? Registrieren

                                          • Anmelden oder registrieren, um zu suchen
                                          • Erster Beitrag
                                            Letzter Beitrag
                                          0
                                          • Home
                                          • Aktuell
                                          • Tags
                                          • Über dieses Forum