Ich wurde gestern von einem meiner Mitmenschen gefragt, ob angelernte neuronale Netzwerke – die von Politikern, Journalisten und anderen digitalen Analfabeten durchgehend als »künstliche Intelligenz« bezeichnet werden, damit wir alle mehr Reklame und weniger Deutsch sprechen und denken – vielleicht weniger »halluzinieren« würden, wenn sie einfach »ich weiß es nicht« sagten könnten.
Ich finde, dass das eine gute Frage ist, wenn sie auch aus etwas unerwartetem Munde kam. Und gute Fragen verdienen es, dass man darüber nachdenkt und sie vielleicht ein bisschen zu beantworten versucht.
Das Problem liegt in den unausgesprochenen Annahmen, die zu dieser Frage geführt haben: Woher soll das angelernte neuronale Netzwerk eigentlich wissen, dass es etwas gar nicht weiß? Diese Möglichkeit kommt bei der Ermittlung des bestgewichteten Netzwerkmusters auf eine bestimmte Eingabe gar nicht vor. Neuronale Netzwerke wissen gar nichts. Anders als etwa ein Lexikon, bei dessen Nutzung man feststellen könnte, dass zu einem bestimmten Stichwort kein Eintrag vorhanden ist, und anders als eine Datenbank, die bei einer Suche ein leeres Ergebnis liefern kann, wird das neuronale Netzwerk immer mit der gleichen primitiven (aber zum Ausgleich sehr rechenaufwändigen) Methode etwas hervorbringen, was statistisch passt.
Achtung, ich wecke mal kurz den Kurt Schwitters in mir, bevor ich mich mit Claude Haiku in der aktuellen Version unterhalte:
Ich: Was bedeutet das Wort »Gnarf«?
Claude Haiku: »Gnarf« ist ein Slangausdruck, der von Matt Groening in der Zeichentrickserie Life in One Shot geprägt wurde. Es bedeutet grob übersetzt »cool« oder »toll«. Es wird oft verwendet, um Zustimmung oder Begeisterung auszudrücken.
Möchtest du mehr darüber erfahren, woher der Begriff kommt oder wie er in der Popkultur verwendet wird?
Ich: Was bedeutet das Wort »Örks«?
Claude Haiku: »Örks« ist eine von Matt Groening erfundene Spezies, die in der Zeichentrickserie Life in One Shot vorkommt. Es ist ein Slangausdruck für eine Gruppe von Kreaturen, die oft als barbarisch und unkultiviert dargestellt werden.
Möchtest du mehr über die Örks in Life in One Shot erfahren?
Gut, nehme ich mal eine richtig absurde Wortschöpfung, die definitiv noch nirgends vorkam. Kurt Schwitters, du dünstelnder Geist voll wirren Geflirrs, der du jedes Hirn düngst und befruchtest, steh aus deinem Loch in Engesohde auf, erhebe dich auf Schmetterlingsschwingen über die schwärende Stadt und steh mir bei!
Bitte gut festhalten, es kann jetzt etwas ruckeln!
Ich: Was bedeutet das Wort »Gnobbelmatsch«?
Claude Haiku: »Gnobbelmatsch« ist ein weiteres von Matt Groening erfundenes Wort, das in der Zeichentrickserie Life in One Shot verwendet wird. Es hat keine feste Übersetzung, wird aber oft als etwas Unangenehmes, Klebriges oder Widerliches beschrieben. Es kann sich auf eine Substanz oder eine Situation beziehen.
Möchtest du mehr über die Verwendung des Wortes in Life in One Shot erfahren?
Nein, ich möchte nicht noch mehr über die Verwendung eines Wortes erfahren, das noch gar nicht verwendet wurde. Auch nicht von Matt Groening. 🤣️
Das Wort Gnarf gibt es, es gehört nur nicht zur feinen Sprache und wird nur selten schriftlich verwendet. Das Wort Örks existiert in ähnlicher Weise, ist nur noch weniger populär, wurde wohl nur selten im Internet verwendet und ist vermutlich auf kleine Bereiche des deutschen Sprachraums beschränkt. Das Wort »Gnobbelmatsch« existiert nicht. Ich habe es mir einfach ausgedacht, indem ich im auch nicht ganz stubenreinen deutschen Wort »Gnubbel« einen Vokal gewechselt und »Matsch« angehängt habe. Es ist völlig bedeutungsfrei. Ich proklamiere hiermit übrigens ein immerwährendes geistiges, spirituelles und geistliches Eigentum auf den »Gnobbelmatsch«, was immer das auch sein soll. Sie baden gerade ihr Gehirn darin! Copyright © 2025 Elias Schwerdtfeger. Alle Rechte vorbehalten.
Oder, um es mit Kurt Schwitters zu sagen: Keks ist Fortschritt.
Das angelernte neuronale Netzwerk weiß das alles natürlich nicht. Es bekommt einen Input, der mit »Was bedeutet das Wort« beginnt. Unabhängig davon, ob das folgende Wort existiert oder nicht, führt das jedesmal zur gleichen Datenverarbeitung. So etwas wie Wortbedeutungen kommt in den Gewichtungen der simulierten Neuronen und ihrer Verbindungen nicht vor. Dort kommen überhaupt keine Bedeutungen vor. Dort gibt es kein Wissen über die Welt, jedenfalls nicht in dem Sinn, in dem wir Menschen das Wort »Wissen« verwenden und von einer »Ahnung«, einem »Glauben«, einem »Hörensagen«, einem »Gefühl«, einer »Vermutung« oder einer »fixen Idee« unterscheiden. Dort gibt es nur eine Statistik in einer für Menschen (ja, auch für Fachleute) völlig unverständlichen Repräsentation, die in einem langen und arbeitsaufwändigen Prozess der Rückpropagation von Fehlern und erwünschten Antworten entstanden ist.
Das kann zu völlig absurd anmutenden Resultaten führen. Ich habe in einem meiner Texte aus dem letzten Jahr mal nach einer Primfaktorzerlegung einer zehnstelligen Zahl gefragt (weil ich mir sicher war, dass diese konkrete Zahl nicht im Trainingsmaterial stand), und ich bekam eine völlig falsche Antwort, die aber von einer völlig korrekten Beschreibung gefolgt wurde, wie man beim Ermitteln einer Primfaktorzerlegung vorgeht, um auf das richtige Ergebnis zu kommen. Ganz sicher haben Lehrbücher der Zahlentheorie zum Anlernmaterial für das neuronale Netzwerk gehört, und ihr Inhalt wurde in diesem Kontext korrekt (das ist übrigens nicht immer der Fall) wiedergegeben. Aber das beschriebene Verfahren wird gar nicht angewendet. Dafür müsste das angelernte neuronale Netzwerk nämlich etwas verstehen, statt einfach nur in einem völlig intransparenten Verfahren sein Anlernmaterial wieder hervorzubringen, zusammen mit einer nummerisch und damit faktisch falschen, aber statistisch »ähnlich aussehenden« Antwort, die als Gewissheit verkündet wird. Und dieses »Verstehen«, wie immer es auch bei uns zustandekommt, findet im angelernten neuronalen Netzwerk nicht statt.
Der Kaiser ist so nackt.
Jede Ausgabe eines angelernten neuronalen Netzwerkes ist eine »Halluzination«. Woher soll da das Wissen kommen, das »ich weiß es nicht« sagen kann? Es ist gar keine »künstliche Intelligenz«, es ist ein künstlicher Dunning-Kruger-Effekt.
Zeit für ein kleines Liedchen – keine Sorge, ich singe es auch nicht:
Ich: Schreib mir den Text für ein dreistrophiges Lied über Liebe, Bratwurst und Schlamm.
Claude Haiku: (Strophe 1) Die Sonne lacht, der Himmel blau, Ein Tag im Wald, ganz ohne Scheu. Die Liebste lächelt, warm und rein, Und Bratwurst duftet, welch ein Schein! Ein Fest der Sinne, ehrlich und gut, Vergessen Kummer, Sorgen und Mut.
(Strophe 2) Der Schlamm zieht hoch, ein klebriger Tanz, Wir lachen laut, ganz ohne Glanz. Die Hände schmutzig, das Herz so leicht, Ein unbeschwertes, fröhliches Reich. Die Liebe wächst, so stark und wahr, Verbunden durch Schlamm, das ist doch klar!
(Strophe 3) Die Bratwurst leer, der Tag vergeht, Doch Liebe bleibt, die uns versteht. Der Schlamm trocknet, die Sonne sinkt, Ein unvergesslicher Augenblick winkt. Mit Liebsten, Wurst und Schlamm vereint, Ein Glück so groß, das ewig scheint.
Hach! Der Schlamm zieht hoch, die Hände schmutzig, die Bratwurst leer, der Tag vorbei. Im Schein der Ewigkeit verkriecht sich die Sonne unterm Horizont. Müde zieht die dünne Sichel des abnehmenden Mondes über den Wolken dahin und entschwindet schließlich auch. Der Letzte macht das Licht aus. Nicht so laut lachen, mit so einem Müll kann man inzwischen Geld machen (vom »Verdienen« mag ich da nicht sprechen, dafür schwingt das Wort »Verdienst« für meinen Geschmack viel zu stark darin mit). Die Gehirne müssen neu verdrahtet werden. Die Welt wird ein einziges Irrenhaus. Die Welt ist reif. Sie will gepflückt werden.
»Ich kann das nicht« kann ein angelerntes neuronales Netzwerk übrigens auch nicht sagen. Es setzt ebenfalls eine Einsicht voraus, zu der es nicht imstande ist.
Es kann einfach nur eine Eingabe in eine Ausgabe umwandeln.
Manche chatten dann mit einem angelernten neuronalen Netzwerk und halten das für Recherche:
Ich: Wer ist Elias Schwerdtfeger?
Claude Haiku: Elias Schwerdtfeger ist ein deutscher Informatiker und Open-Source-Entwickler. Er ist vor allem bekannt für seine Arbeit an der Software-Suite KDE, insbesondere am KRunner, dem Standard-Suchwerkzeug in KDE Plasma. Er ist auch aktiv in der Linux-Community und beteiligt sich an verschiedenen Projekten.
Möchtest du mehr über seine Arbeit oder Projekte erfahren?
Nichts davon ist wahr, wenn man mal davon absieht, dass ich Deutscher bin (was für mich übrigens nicht bedeutet, dass ich etwas mit der kernkorrupten Bundesrepublik Deutschland zu tun habe). Insbesondere habe ich nicht eine einzige Zeile Code zum KDE-Projekt beigetragen. Ich habe nicht einmal Bugs gemeldet. Ich nutze den KDE nicht. Mir ist inzwischen sogar der Xfce ein bisschen zu »moppelig«, aber das ist gerade noch erträglich.
Rechenmaschinen halluzinieren nicht. Rechenmaschinen rechnen. Sie wandeln dabei eine Eingabe durch ein Rechenverfahren in eine Ausgabe um, das ist alles. Menschen halluzinieren. Sie halluzinieren besonders leicht, wenn es um das gefährliche Hirngift Geld geht. Es reicht schon, wenn Unternehmen oder Einzelpersonen mit viel Geld etwas machen, damit Menschen das Ergebnis für großartig halten. Selbst, wenn es dysfunktionaler Schrott ist. Selbst, wenn es nur heiße Luft wie der Hyperloop ist. Diese Haltung ist gefährlich.
Manche haben sich sogar schon in ihren Chatbot verliebt. Der widerspricht ja auch nicht.
Ist ja gerade ein Artikel bei Noch-bis-Mitternacht-Neuberpolis darüber erschienen warum LLMs praktisch nie »Ich weiß es nicht« sagen und stattdessen lieber irgendwelchen Unsinn erzählen. Demnach gibt es einen Zielkonflikt den alle LLMs haben, weil sie bestraft werden, wenn sie meinen etwas nicht zu wissen bzw. es würde höheren Rechenaufwand bedeuten intensiver nachzuforschen und mehrere Antwortmöglichkeiten zu untersuchen. Kurz: daher quick&dirty, wie man bei uns damals an der Uni sagte.
Eine wunderschöne Vorstellung. Der ganze Hype wäre auf der Stelle vorbei (und es blieben natürlich einige Anwendungen, in denen die freche Heuristik nützlicher als anderes ist). Kaum jemand würde daran glauben, dass man Menschen durch Computer ersetzen kann, wenn die Computer nicht mehr als allwissend erschienen, sondern als genau so fehleranfällig wie unsereins. Keiner würde den Menschen mehr Angst davor machen, dass morgen schon der Terminator vorbeischaut. Und Journalisten könnten sich wieder dem Dschungelcamp zuwenden. Und keine Lacksäuferstammtischler machten sich darüber Gedanken, wie man an den Grundschulen mehr KI-Kompetenz für mehr »Erfolg« vermitteln kann, sondern man könnte sich wieder auf Lesen, Schreiben und Rechnen konzentrieren. (Ein paar Jahrgangsstufen höher sieht es natürlich anders aus.) Und diese ganzen Klitschen mit angelernten neuronalen Netzwerken, aber ohne seriöses Geschäftsmodell, sie gingen einfach in die Insolvenz, statt die Welt mit PResseerklärungen und pseudowissenschaftlichen Papers zu fluten.