Habe n
un ach so viel studiert … und sehe, dass wir nichts wissen können. So in etwa beklagt Goethes Faust sein fehlendes Wissen über die Dinge, die die Welt zusammenhalten. So oder so ähnlich mag sich heute manch eine*r auch angesichts der gefühlt rasanten Übernahme „dieser Dinge“ durch Künstliche Intelligenz fühlen. Ob Faust sich heute anstatt Mephisto der Künstlichen Intelligenz verschreiben würde? Dumm nur, dass auch die KI nichts weiß.
Dabei spielt sie in unser aller Alltag schon längst eine viel größere Rolle, als vielen klar ist. Zwar versteht die KI keine Zusammenhänge oder hat gar ein Bewusstsein. Doch sitzt sie längst mit am Tisch, wenn zum Beispiel darüber entschieden wird, wer einen Kredit bekommt oder wer zum Vorstellungsgespräch eingeladen wird. Eva Gengler zeigt in ihrem Buch „Feministische KI“ nicht nur, warum es ein Problem ist, wenn Systeme genau die Ungerechtigkeiten verstärken, die sie angeblich neutral verarbeiten. Ihr Buch formuliert auch eine klare Aufforderung: Wer KI nicht feministisch gestaltet und nutzt, überlässt das Feld denen, die es längst tun. Sie will mit ihrem Buch nichts geringeres, als „eine feministische Revolution anstoßen, um mit feministischer KI die Welt für alle gerechter zu machen“.
KI verstärkt gesellschaftliche Machtstrukturen
Künstliche Intelligenz bildet bestehende gesellschaftliche Ungleichheiten nicht einfach ab – sie verstärkt sie. Das liegt an drei Faktoren, die Gengler systematisch aufarbeitet: den Menschen, die KI entwickeln; den Daten, mit denen sie trainiert wird; und den Designentscheidungen, die den Systemen zugrunde liegen.
Die Entwicklung von KI war von Anfang an ein exklusives Projekt. An der legendären Dartmouth Conference 1956, bei der der Begriff „Artificial Intelligence“ geprägt wurde, nahm keine einzige Frau teil. Bis heute liegt der Frauenanteil in KI-nahen Berufen bei 22 Prozent, und mehr als die Hälfte der Frauen verlässt die Technologiebranche innerhalb von zehn bis zwanzig Jahren. Diese Homogenität hat Konsequenzen. Wir kennen das aus jahrzehntelangen feministischen Auseinandersetzungen: Menschen neigen dazu, sich mit Gleichgesinnten zu umgeben und Informationen so zu interpretieren, dass sie eigene Annahmen bestätigen. Dies gilt nicht nur für heteronormatives Denken, sondern in gleichem Maße für andere Diskriminierungsformen, wie z. B. postkoloniale Strukturen.
„KI ist ein Brennglas der Macht.“
Gengler verdeutlicht anhand zahlreicher Beispiele und Studien, dass Technologie niemals neutral ist, vor allem wenn sie auf Daten basiert, die von Menschen ausgewählt, gewichtet und gelabelt wurden. Daten sind nichts weiter als von Menschen in einem Kontext erfasste Informationen. Sie spiegeln wider, was ihre Urheber als relevant erachteten – und was nicht. Damit stellen sie immer nur einen kleinen Ausschnitt einer Realität aus einer gewissen Perspektive dar, werden aber in der Verarbeitung dekontextualisiert und entpersonalisiert und so zu „neutraler“ Infrastruktur, wodurch der Anschein entsteht, die auf ihnen beruhenden Aussagen seien objektiv. Wir kennen alle KI-generierte Bilder, die bestimmte Berufsgruppen sehr einseitig als männlich und weiß geprägt darstellen: „Was wir als Input in die KI-Systeme eingeben, kommt auf eine verarbeitete Weise ähnlich wieder als Output heraus. Unter dem in der Informatik bekannten Motto ‚Garbage in, Garbage out‘ ist das ein sich selbst verstärkender Kreislauf, da KI neue Daten generiert, die dann wieder in den Kreislauf einfließen.“
Wie lässt sich daraus der transformative Anspruch ableiten, dass feministische KI die Welt gerechter machen kann? Gengler stützt sich in ihrem Ansatz auf den Zweck der KI – also auf die Frage, wofür KI entwickelt und wofür sie eingesetzt wird. Solange Entwicklung und Einsatz nicht den expliziten Zweck haben, bestehende Strukturen gerechter zu machen, wird KI nichts dafür tun. Technische Anpassungen allein reichen nicht. Was es braucht, ist eine grundlegende Veränderung der Denkweise und diese muss nach Gengler intersektional-feministisch geleitet sein. Weil KI bestehende Diskriminierungsformen nicht einfach nur vom Analogen ins Digitale übersetzt, sondern diese auch noch verstärkt, kann nur eine feministische KI dagegenhalten.
Vom Zweck zur feministischen KI
Gengler entwickelt einen sehr ambitionierten Ansatz, der von Strukturen über Kontexte und Ressourcen bis zu den Menschen reicht. Feministische KI ist kein einfaches und schnell umsetzbares Projekt, sondern ein kollaborativer Prozess, der Gesellschaft, Politik und Wirtschaft einbezieht und sowohl formelle Maßnahmen (Regulierung, Gesetze) als auch informelle Dynamiken (Weiterbildung, kultureller Wandel) umfasst – mit dem Ziel, feministische Prinzipien, wie Gerechtigkeit, Inklusion, Transparenz, Verantwortlichkeit und Partizipation, in der Entwicklung, im Design und bei der Nutzung von KI zu verankern.

@Donna Mara via lummi.ai
So sollten beispielsweise Datensätze, die feministischen Prinzipien nicht entsprechen, angepasst oder von vornherein anders kuratiert werden – unter Einbeziehung marginalisierter Gruppen und mit transparenter Dokumentation. Es ist wichtig zu fragen: Wer ist in einem Datensatz repräsentiert, wer nicht? Unter welchen Umständen wurden die Daten erhoben? Gengler erwähnt Caroline Sinders‘ Feminist Data Set, das zeigt, wie feministische Prinzipien in die Datenerhebung integriert werden können. Aber auch die Arbeit der Datenvorbereitung müsse als wertvoll anerkannt und entsprechend bezahlt werden, um nicht neokolonialistische Strukturen zu reproduzieren.
Genauso sollten Entscheidungen über Zugänglichkeit, Sprache, Datenschutz und Oberfläche nie rein technisch motiviert sein, sondern immer soziale und politische Dimensionen haben. Gengler plädiert für Co-Kreation und geteilte Verantwortlichkeiten im Designprozess, damit „Communities nicht nur etwas beitragen, sondern daran auch Anteil nehmen und finanzielle Anerkennung erhalten.“ So gibt es in Neuseeland ein Projekt, in dem Maori aktiv ihr Jahrhunderte altes Wissen einem Machine-Learning-System zur Verfügung stellen, um ihre Sprache zu bewahren.
Genglers Positionierung ist dabei unmissverständlich. Sie ordnet sich einem kritischen und intersektionalen Feminismus zu und legt ihre eigene Herkunft und Perspektive offen. Das ist konsequent: Wenn Daten nie neutral sind, kann es die Autorin auch nicht sein. Diese Transparenz ist eine Stärke, weil sie das Gesagte einordbar macht.
Ihr Ansatz ist, in Systemen und Prozessen einen „feministischen Reflex“ zu integrieren. Darunter versteht sie den Impuls, Entscheidungen konsequent aus feministischer Perspektive zu treffen. Ein solcher Reflex könnte z. B. zu intersektionalen Bias-Checks in der Data Governance führen. Beispiele für einen feministischen Reflex, die Gengler in ihrem Buch anführt, sind Chatbots, die Menschen mit Gewalterfahrung unterstützen (Maya) oder diskriminierende Sprache sichtbar machen (ABLE).
„Keine andere Frage und kein anderes Ziel ist daher so zentral.“
Aber auch jede*r Einzelne kann dazu beitragen, indem wir KI feministisch nutzen: Wir können KI für feministische Zwecke und Ziele einsetzen. Wir können feministische Anwendungen teilen, um voneinander zu lernen und Sichtbarkeit für feministische Zwecke zu erhöhen. Wir sollten sexistische, diskriminierende und schädliche Inhalte, wie Deep Fakes, melden und Änderungen einfordern. Gengler formuliert keine abstrakten Forderungen, sondern konkrete Handlungen, die jede Person im Alltag umsetzen kann. Entscheidend ist aber, dass wir – als Feminist*innen – KI auch nutzen.
Und zur feministischen Praxis?
„Feministische KI“ ist ein Buch, das eine klare Haltung einnimmt und sie begründet. Es richtet sich an alle, die verstehen wollen, wie Künstliche Intelligenz funktioniert, warum sie Ungleichheiten verstärkt und was dagegen getan werden kann. Gengler schreibt für Menschen, die bereit sind, sich einzumischen – nicht für solche, die neutrale Technikberichterstattung erwarten.

@Donna Mara via lummi.ai
Für die Buchbranche hat das Buch eine besondere Relevanz. Erstens ist die Branche selbst von KI-Entwicklungen betroffen: bei der Texterstellung, bei Übersetzungen, bei der Vermarktung, bei der Empfehlungslogik von Plattformen. Die Frage, welche Systeme eingesetzt werden und nach welchen Kriterien, stellt sich konkret. Zweitens ist der Frauenanteil in der Buchbranche hoch – und damit auch die Betroffenheit des Gender Gaps, den Gengler beschreibt: Frauen nutzen KI weniger und schätzen deren Relevanz für ihre Arbeit geringer ein. Die Konsequenzen, die Gengler benennt, treffen hier unmittelbar zu: Wer KI-Systeme nicht nutzt, erlernt keine zukunftsrelevanten Skills und wird von denjenigen abgehängt, die es tun.
Das Buch hat klare Stärken. Es macht ein komplexes technisches Thema zugänglich, ohne zu vereinfachen. Die historische Einordnung der KI-Entwicklung ist präzise und erhellend – von der symbolischen KI der 1950er Jahre über Expertensysteme bis zum Deep Learning. Gengler erklärt anschaulich und gelassen, warum frühere Systeme transparent und nachvollziehbar waren, während heutige Large Language Models als Black Boxes funktionieren. Auch wer nicht tief in den technischen Grundlagen steckt, kann den Argumenten folgen.
Gengler entwickelt einen Rahmen, um über KI nachzudenken. Wer versteht, dass Daten keine neutralen Fakten sind, sondern geronnene Weltanschauung, wird anders mit KI-generierten Inhalten umgehen. Wer weiß, dass Designentscheidungen immer auch politische Entscheidungen sind, wird andere Fragen stellen.
Die Vision von einer, „feministischen KI als dem neuen Normal“ ist ambitioniert. Sie wird nicht als Traum präsentiert, sondern als mögliche Zukunft, die erarbeitet werden muss. Am Ende des Buches formuliert Gengler konkrete Forderungen an Politik, Wissenschaft, Wirtschaft und Gesellschaft (und uns alle) und zeigt, dass Veränderung auf vielen Ebenen ansetzen muss: bei der eigenen Nutzung, im beruflichen Umfeld und in der politischen Auseinandersetzung.
Eine grundsätzliche Spannung bleibt: Feministische Prinzipien als Leitplanken für KI-Systeme sind plausibel. Aber wie misst man, ob ein KI-System ihnen entspricht? Gengler selbst räumt ein: „Die Erfüllung ethischer Kriterien im Entstehungsprozess und im Einsatz von KI-Systemen ist oft kaum messbar.“ Das macht es schwer, Verantwortlichkeiten zu benennen und Fortschritte zu überprüfen. Und letztlich nutzen die meisten Menschen Systeme, die sie nicht selbst gestalten können. Die individuelle feministische Nutzung eines KI-Chatbots führt da erst einmal zu keiner unmittelbaren Veränderung und mag sinnlos erscheinen.
Die praktischen Beispiele im Buch sind dennoch inspirierend und eröffnen neue Perspektiven, die in den vielen Medienberichten meist keinen Raum finden, auch wenn es sich um Nischenprojekte handelt. Die großen Systeme dagegen werden von Tech-Konzernen entwickelt, deren Geschäftsmodelle auf Skalierung und Profit ausgerichtet sind. Wie gegen diese großen Konzerne, die die KI-Entwicklung monopolistisch vorantreiben, feministische Prinzipien durchgesetzt werden können, bleibt eine vage Idee.
„Feministische KI ist für mich beides: die Vision einer gerechteren Welt und ein Weg, sie Wirklichkeit werden zu lassen.“
Dennoch nimmt Gengler uns alle in die Pflicht. Es geht nicht darum, auf die perfekte feministische KI zu warten. Es geht darum, jetzt und im Rahmen unserer Möglichkeiten zu handeln – mit den Systemen, die existieren, und gegen die Strukturen, die sie hervorgebracht haben. Das Buch liefert dafür Argumente, Beispiele und einen klaren Aufruf: „Lasst uns gemeinsam die Welt für alle gerechter machen.“
Ob das gelingt, hängt nicht von einzelnen Büchern ab. Aber vielleicht von denen, die sie lesen? „Feministische KI“ macht deutlich, dass Nichtstun keine neutrale Option ist. Die Systeme entwickeln sich weiter, mit oder ohne feministische Intervention. Die Frage ist, wer sie prägt.

@Luke Watzke
Die Autorin
Eva Gengler ist Wirtschaftsinformatikerin und forscht intersektional-feministisch an der Schnittstelle von Macht und Künstlicher Intelligenz. An der FAU Erlangen-Nürnberg promovierte sie im Programm Business and Human Rights zu KI aus einer feministischen sozio-technischen Perspektive. Als Speakerin und Co-Founderin der feminist AI Community sowie von enableYou engagiert sie sich für eine gerechte und verantwortliche Technologiegestaltung. Als Expertin für feministische KI wurde sie mehrfach portraitiert – u. a. vom Bayerischen Sozialministerium, dem Elitenetzwerk Bayern und Marc Cain. 2025 wurde sie für den Brigitte Award in der Kategorie Future Economy nominiert. Ihre Perspektiven wurden u. a. in Interviews mit ZDF, 3sat, t3n und Deutschlandfunk vorgestellt. Eva Gengler lebt in der Nähe von Nürnberg.
https://www.feministische-ki.de/
Das Buch
328 Seiten
Klappenbroschur
22,00 Euro
ISBN 978-3-8012-0719-9
erschienen März 2026
Vom 18. bis 26. April findet die von den BücherFrauen organisierte Feministische Buchwoche statt – eine großartige Gelegenheit, weitere feministische Bücher zu entdecken sowie über feministische Bücher und über feministische KI zu sprechen. Gerne auch hier in den Kommentaren oder auf LinkedIn.
Postskriptum
Habe ich für den Beitrag KI genutzt? Ja.
Ich habe meine Lesenotizen zum Buch von Claude Opus 4.5 strukturieren, mir Themenschwerpunkte und einen Aufbau für die Besprechung vorschlagen lassen. Diesen Vorschlag habe ich dann mit meiner menschlicher Intelligenz überarbeitet und die Überarbeitung schließlich von einem weiteren Menschen gegenlesen lassen. Die Bilder von Dona Mara stammen von der Plattform lummi.ai, „powered by humans and AI everywhere“.