Über Weichheit, Statistik und das Verschwinden von Differenz in KI-Systemen
Die Schnecke ohne Haus
Ich arbeite an einer kleinen Geschichte über eine Nacktschnecke namens «Schlimak». Ein Bilderbuch. Der Text ist fast fertig, nun geht es an die ca. zehn Illustrationen. Meinen ersten Schlimak brachte ich mit Pinsel auf Papier. Danach machte ich mich an die Details der Geschichte.
Wie so oft in letzter Zeit, fütterte ich meine Skizzen, das Schlimak-Bild und meine Texte in ChatGPT, um bei der Komposition der zehn Bilder schnell zu Ergebnissen zu gelangen – meine „Studien und Vorlagen“ für die spätere Umsetzung auf Papier.
Ein Körper, der nicht passt
Als ich begann, Schlimak in Szene zu setzen, dachte ich, es wäre eine einfache Aufgabe für die Maschine. Ich wollte ihn sehen: eine nackte Schnecke, ohne Haus, weich, verletzlich, offen. Ich beschrieb ihn präzise – kein Gehäuse, kein Schutz, nur Körper.
Und doch: Die KI gab ihm früher oder später ein Haus. Immer wieder. Mal klein, mal absurd, mal fast liebevoll gezeichnet. Ein spiraliger Panzer auf seinem Rücken. Das System konnte ihn nicht nackt lassen.
Kein Fehler – ein Reflex
Zuerst irritierte mich das. Dann machte es mich wütend. Nach einigen Suchanfragen und etwas Lektüre begann ich zu verstehen: Das war kein Fehler. Es war ein Reflex. Ein algorithmisches Nach-oben-Korrigieren.
Die Maschine hatte kein Konzept von Schlimak – sie hatte nur die Daten. Und dort war „Schnecke = mit Haus“ der dominante Zusammenhang. Was nicht oft genug gezeigt wurde, wurde weggerechnet.
Schlimak passte nicht ins Bild. Also wurde das Bild angepasst. Oder genauer: das System aus Trainingsdaten, Kategorien, Beschriftungen und Milliarden Bildern, die festgelegt haben, was „normal“ ist – und was nicht.
Der Bias ist nicht sprachlich, sondern statistisch
Vielleicht wäre es auf Englisch anders gelaufen – aber kaum besser, wie ich im Nachgang rekonstruierte. Dort unterscheidet die Sprache klarer zwischen snail (mit Haus) und slug (ohne). Ein Prompt wie „a soft slug“ ist für viele Bild-KIs verständlicher.
Und doch: Auch in den englisch dominierten Trainingsdaten ist das Bild der Schnecke mit Haus sehr viel häufiger, ikonischer, präsenter. Die nackte Variante bleibt marginal. Weniger oft gezeigt, seltener beschrieben, kaum ästhetisiert – und damit: algorithmisch abgeschwächt.
Die Abweichung bleibt auch im Englischen das Rauschen. Und wird überschrieben.
Künstliche Intelligenz glättet
Künstliche Intelligenz ist kein denkendes Wesen. Sie urteilt nicht. Aber sie filtert. Sie glättet. Sie vermittelt Wahrscheinlichkeiten als Wirklichkeit. In dieser Welt ist Schlimak ein Rechenfehler. Ein Artefakt unterhalb der Relevanzschwelle.
Und so wird seine Weichheit – sein blosses, abweichendes Dasein – zum Problem. Zum Mangel.
Was fehlt, muss nicht falsch sein
Ja, Schlimak ist ein Störsignal. Er ist der Moment, in dem das Normale kurz flackert. Er zeigt:
Was fehlt, muss nicht falsch sein.
Was selten ist, kann dennoch richtig sein.
Was nicht vorgesehen war, darf trotzdem sichtbar werden.
Sichtbarkeit ist kein Zufall
Diese Erfahrung hat mir mehr über künstliche Intelligenz beigebracht als jedes bisherige Whitepaper. Es geht nicht nur um Technik. Es geht um kulturelle Repräsentation. Um das, was gezeigt werden darf. Was zählbar ist. Was bildwürdig bleibt.
Wenn eine Schnecke ohne Haus nicht sichtbar werden kann – was sagt das über all die anderen Formen von Weichheit, die selten sind?
Über ungewöhnliche Formen der Nähe? Über queere Körper? Über ambivalente Identitäten? Oder einfach das, was weder laut noch zahlreich ist?
Störend, aber weich
Vielleicht brauche ich Figuren wie Schlimak, um diese Fragen zu stellen. Leise und ein wenig störend. Weil sie weich bleiben, wenn alles auf Härte trainiert ist. Weil sie nicht „verbessert“ werden wollen.
Ich will keine KI, die Schlimak richtig darstellt.
Ich will ein Denken, das ihn nicht automatisch korrigiert.