Über die Grenzen künstlicher Intelligenz und die blinden Stellen der Repräsentation
Zweimal sind wir an dieselbe Wand gestossen.
Einmal, als wir versuchten, eine menstruierende Frau mittels generativer Bild-KI darzustellen – realistisch, würdevoll, sichtbar. Ein anderes Mal, als wir einer einfachen Nacktschnecke ein Bild geben wollten: ein Tier ohne Gehäuse, biologisch korrekt, aber im Datensatz offenbar nicht vorgesehen.
Was wir zunächst für technische Pannen hielten, entpuppten sich als Symptome tieferliegender Strukturprobleme. Die Grenzen, auf die wir stiessen, sind nicht zufällig. Sie sind systemisch. Und sie lassen sich präzise kartografieren – als technologische, ontologische und epistemologische Bruchlinien.
1. Technologische Grenze
Was die Maschine nicht kann – oder nicht darf
KI-Modelle, ob text- oder bildbasiert, arbeiten nicht mit Bedeutung, sondern mit Wahrscheinlichkeit. Sie berechnen, was statistisch plausibel erscheint – nicht, was wahr oder wichtig ist. Was selten gezeigt wurde, erscheint dem System als Fehler. Was häufig vorkommt, wird als Normalität gesetzt.
Menstruation etwa wird algorithmisch mit Gewalt, Erotik oder Verunreinigung assoziiert – und daher entweder zensiert oder verzerrt dargestellt. Die KI „entscheidet“ nicht, sie reproduziert. Und zwar das, was in Trainingsdaten als darstellbar markiert wurde.
Was nicht sichtbar war, bleibt unsichtbar – gleichsam unberechenbar.
2. Ontologische Grenze
Was in der Welt der Maschine überhaupt vorkommen darf
Künstliche Intelligenz kennt keine Körper. Kein Blut, keine Haut, keine Widerspenstigkeit des Lebendigen. In ihrer Welt existieren nur Zeichenketten, Bildmuster, Tokenströme.
Der gebärende Leib, der pflegebedürftige Körper, das nicht-binäre Subjekt: sie sind strukturell ausgeschlossen oder werden ins Karikaturhafte gedrängt.
Die Nacktschnecke etwa – ein Tier ohne Haus – existiert im Vokabular der Bild-KI nicht. Sobald man sie generiert, versieht die Maschine sie reflexhaft mit einem Gehäuse. Die Norm korrigiert die Abweichung. Was biologisch korrekt wäre, wird ontologisch verworfen.
Das System folgt einem inhärenten Raster: Alles, was nicht erfasst, etikettiert oder kategorisiert wurde, gilt als fehlerhaft – oder als Bedrohung der Ordnung.
3. Epistemologische Grenze
Was die Maschine nicht wissen kann
Maschinen können nicht verstehen, warum bestimmte Darstellungen fehlen – und was dieses Fehlen bedeutet. Sie wissen nichts über Tabus, Diskurse oder kulturelle Machtverhältnisse. Ihre Form von „Wissen“ ist ein Echo – keine Erkenntnis.
So fehlen der KI die impliziten Dimensionen von Erfahrung: Fürsorge, Schmerz, Scham, Lust.
Stattdessen entstehen Darstellungen, die nicht lügen – aber auch nicht erzählen. Die Oberfläche ist intakt, der Subtext fehlt. Eine simulierte Welt ohne Widerstand.
Die epistemologische Blindheit ist dabei nicht harmlos. Sie ist performativ: Was nicht gewusst wird, wird nicht gezeigt. Was nicht gezeigt wird, gilt nicht als real.
Zwischenfazit: Sichtbarkeit als Machtfrage
Diese Grenzen zeigen sich nicht nur bei Menstruation oder Schnecken. Auch Geburt, Krankheit, Armut, queere Körper, weiblicher Orgasmus, Schwarze Intimität – all dies bringt KI an ihre Ränder. Nicht, weil es technisch unmöglich wäre. Sondern weil unsere kulturelle Datenlage diese Körper, Zustände und Erfahrungen nicht kennt oder nicht kennen will.
Die KI ist in diesem Sinn nicht nur Werkzeug, sondern Spiegel – ein technisch hochgerüsteter Abguss unserer gesellschaftlichen Selektivität. Sie zeigt, was bereits vorgestellt wurde. Und wiederholt, was wir kollektiv zu oft ausgeblendet haben.
Was bleibt?
Künstliche Intelligenz entwirft keine neue Welt. Sie verstärkt die bestehende.
Wenn sie scheitert, dann nicht am Bild – sondern an dem, was nie abgebildet wurde.
Ihre Grenzen sind nicht nur technischer Natur, sondern kulturelle Diagnoseinstrumente.
Sie markieren die Stellen, an denen wir – als Gesellschaft – noch nicht bereit waren, hinzusehen.
Und gerade deshalb lohnt es sich, auf die Bilder zu achten, die nicht entstehen dürfen.
Denn dort beginnt die eigentliche Arbeit.