Human-Centered AI & Ethics
Zur Notwendigkeit einer menschenbezogenen Architektur künstlicher Intelligenz
1. Einleitung: Warum Human-Centered AI kein Add-on ist
Die Rede von Human-Centered AI ist in den letzten Jahren allgegenwärtig geworden. Sie begegnet in Strategiepapieren, Forschungsprogrammen, politischen Leitlinien und unternehmerischen Selbstvergewisserungen. Zugleich bleibt der Begriff häufig erstaunlich unterbestimmt. Nicht selten fungiert er als wohlklingendes Label, das bestehende technologische Entwicklungen moralisch flankieren soll, ohne deren epistemische und normative Voraussetzungen ernsthaft zu hinterfragen.
​
Genau hier setzt eine präzisere, anspruchsvollere Bestimmung an. Human-Centered AI ist kein ethisches Add-on, keine Frage der Benutzerfreundlichkeit und keine kommunikative Beruhigungsstrategie. Sie bezeichnet vielmehr eine grundlegende architektonische Entscheidung: die Entscheidung, künstliche Intelligenz nicht als autonomes, selbstgenügsames System oder Mechanismus zu denken, sondern als Teil einer relationalen Ordnung, in der menschliche Urteilskraft, Verantwortung und Sinnzuschreibung konstitutiv bleiben.
​
Diese Perspektive widerspricht einem tief verankerten Techniknarrativ der Moderne: der Vorstellung, dass Effizienzsteigerung, Automatisierung und Skalierung notwendigerweise mit der Reduktion menschlicher Beteiligung einhergehen. Gerade im Kontext von künstlicher Intelligenz zeigt sich jedoch, dass diese Logik nicht nur normativ problematisch, sondern funktional kurzsichtig ist. Systeme, die menschliche Urteilskraft marginalisieren, verlieren langfristig an Legitimität, Anschlussfähigkeit und Vertrauenswürdigkeit.
Human-Centered AI ist daher nicht primär eine moralische Forderung, sondern eine Bedingung tragfähiger technologischer Entwicklung (Régis at al., 2024).
2. KI ist nie neutral: Implizite Menschenbilder in Daten und Modellen
Jede KI operiert auf der Grundlage von Daten. Diese Daten sind jedoch keine bloßen Abbilder der Wirklichkeit, sondern Produkte sozialer, kultureller und historischer Prozesse. Sie sind selektiv, perspektivisch und normativ aufgeladen. In ihnen sedimentieren Annahmen darüber, was als relevant gilt, welche Abweichungen toleriert werden und welche Muster als normal erscheinen.
Damit transportiert jede KI ein implizites Menschenbild – oft unartikuliert, aber wirksam. Dieses Menschenbild manifestiert sich unter anderem:
​
-
in Klassifikationen und Kategorien,
-
in Schwellenwerten und Wahrscheinlichkeiten,
-
in Trainingsdaten und Labeling-Prozessen.
Human-Centered AI setzt genau an dieser Stelle an und fragt weniger nach den Ergebnissen eines Systems, als nach den epistemischen Vorentscheidungen, die seiner Konstruktion zugrunde liegen. Sie fragt, welche Formen von Erfahrung werden sichtbar gemacht, welche unsichtbar? Welche Lebensrealitäten werden als Daten erfasst, und welche bleiben außerhalb des Modells?
​
Diese Fragen sind keine bloß theoretischen Reflexionen, tatsächlich entscheiden sie darüber, ob KI-Systeme gesellschaftliche Ungleichheiten reproduzieren, verstärken oder kritisch reflektieren. Bias ist in diesem Sinne kein technischer Fehler, sondern Ausdruck impliziter Normativität.
Ohne eine explizite Auseinandersetzung mit diesen normativen Grundlagen bleibt KI blind gegenüber ihren eigenen Voraussetzungen.
3. Ethik jenseits der Nachträglichkeit
In vielen organisationalen Kontexten wird Ethik noch immer als nachgelagerte Instanz verstanden: als Bewertung dessen, was technisch bereits entwickelt wurde. Diese Logik ist im KI-Kontext nicht nur unzureichend, sie ist sondern riskant. Systeme, die einmal implementiert sind, entfalten tatsächlich eine Eigendynamik, die sich nur schwer revidieren lässt.
Human-Centered AI begreift Ethik daher nicht als Korrektiv, sondern als Strukturprinzip. Das bedeutet, dass Ethik nicht am Ende angewendet, sondern am Anfang integriert wird, und zwar in Form von Entscheidungsarchitekturen, Verantwortungsmodellen und Transparenzanforderungen.
​
Diese Perspektive steht in enger Verbindung zu einem relationalen Ethikverständnis, wie es etwa in dem Diskurs über Artificial Intelligence, Ethics, and Society entwickelt wird. Ethik wird hier nicht als abstrakter Normenkatalog verstanden, sondern als Praxis der Verantwortung in sozialen Beziehungen, auch und gerade dort, wo technische Systeme Entscheidungen vorbereiten oder automatisieren (Hendrycks 2024).
​
Human-Centered AI bedeutet somit, ethische Reflexion in den Entwurfsprozess selbst einzuschreiben. Nicht als Hemmnis, sondern als Bedingung funktionierender Systeme.
4. Urteilskraft unter Bedingungen algorithmischer Komplexität
Ein zentrales Missverständnis der KI-Debatte liegt in der Gleichsetzung von Entscheidungsfindung und Urteilsbildung. Während algorithmische Systeme hervorragend darin sind, Entscheidungen auf der Basis formalisierter Kriterien zu treffen, bleibt Urteilskraft eine genuin menschliche Fähigkeit.
Wobei Urteilskraft ist mehr als allein Regelanwendung; sie ist die Fähigkeit, Situationen zu interpretieren, Ambiguitäten auszuhalten und normative Spannungen abzuwägen. Diese Fähigkeit ist nicht vollständig formaliserbar, und genau darin liegt ihr Wert (Stahl/Schroeder/Rodriguez 2023).
​
Human-Centered AI anerkennt diese Differenz und zielt nicht darauf ab, menschliche Urteilskraft zu ersetzen, sondern sie zu rahmen, zu unterstützen und zu erweitern. Sie wird so zu einem epistemischen Instrument und nicht zu einem souveränen Akteur.
​
Diese Perspektive knüpft an klassische Überlegungen zur Urteilskraft an, wie sie in unterschiedlichen philosophischen Traditionen entwickelt wurden, und findet im zeitgenössischen KI-Diskurs eine präzise Entsprechung etwa im sogenannten Alignment-Problem (Christian 2020). Die zentrale Frage lautet hier: Wie lassen sich technische Systeme so gestalten, dass sie mit menschlichen Werten, Zielen und Urteilsmustern in Einklang stehen?
Human-Centered AI verschiebt diese Frage: Nicht allein das System muss „aligned“ sein – vielmehr müssen die Entscheidungsprozesse, in die es eingebettet ist, verantwortbar gestaltet werden.
5. Von Automatisierung zu Augmentation
Ein weiterer zentraler Aspekt Human-Centered AI ist die bewusste Abkehr von einem rein automatisierungsgetriebenen Innovationsverständnis. Automatisierung verspricht Effizienz, birgt jedoch dort Risiken, wo sie normative Entscheidungen unsichtbar macht oder Verantwortung verschleiert.
​
Augmentation hingegen setzt auf Ergänzung statt Ersetzung. KI-Systeme unterstützen menschliche Akteure, indem sie Komplexität reduzieren, Muster sichtbar machen und Entscheidungsräume strukturieren. Die letztliche Verantwortung bleibt jedoch beim Menschen. Diese Verschiebung ist nicht trivial. Sie betrifft nicht nur technische Implementierungen, sondern organisationale Kulturen und Machtstrukturen. Wo KI als Ersatz verstanden wird, entsteht Abwehr, wo sie als Erweiterung konzipiert ist, entsteht Kooperation. Human-Centered AI erweist sich damit auch als ein organisationales Projekt. Sie erfordert neue Rollen, neue Kompetenzen und neue Formen der Verantwortungszuweisung. Ohne diese strukturellen Anpassungen bleibt der Begriff leer.
6. Verantwortung, Transparenz und Nachvollziehbarkeit
Ein zentrales Kriterium Human-Centered AI ist die Frage der Verantwortung. Wer ist verantwortlich für Entscheidungen, die durch KI vorbereitet oder beeinflusst werden? Wie lässt sich Verantwortung dort verorten, wo Entscheidungsprozesse verteilt und teilweise automatisiert sind?
Human-Centered AI antwortet darauf nicht mit simplen Schuldzuweisungen, sondern fordert klare Verantwortungsarchitekturen. Transparenz ist dabei kein Selbstzweck, sondern Voraussetzung verantwortlicher Entscheidung.
​
Nachvollziehbarkeit bedeutet, dass Entscheidungslogiken erklärbar, überprüfbar und kritisierbar bleiben, sie bedeutet gleichzeitig jedoch nicht, dass jedes technische Detail dabei verstanden werden muss. Systeme, die sich dieser Kritik entziehen, unterminieren nicht nur Vertrauen, sondern auch ihre eigene Legitimität.
Hier schließt Human-Centered AI an grundlegende Überlegungen zur maschinellen Moral an, wie sie bereits früh in "Moral Machines" formuliert wurden (Wallach/Allen 2009). Die zentrale Einsicht lautet: Verantwortung lässt sich nicht vollständig delegieren – weder technisch noch organisatorisch.
7. Human-Centered AI als epistemisches Projekt
Über ihre ethische Dimension hinaus ist Human-Centered AI auch ein epistemisches Projekt: sie fragt danach, welche Formen von Wissen KI erzeugt, welche sie privilegiert und welche sie ausschließt. Datenbasierte Systeme erzeugen spezifische Formen von Evidenz – probabilistisch, statistisch, retrospektiv.
​
Diese Evidenz ist mächtig, aber nicht vollständig. Sie bedarf der Einbettung in kontextuelles, erfahrungsbasiertes und normatives Wissen. Human-Centered AI insistiert darauf, dass KI nicht als Ersatz für Verstehen missverstanden wird.
In diesem Sinne ist Human-Centered AI eine Kritik an einem reduktionistischen Rationalitätsverständnis. Sie fordert eine Pluralisierung epistemischer Perspektiven und erkennt an, dass nicht alles, was zählt, zählbar ist.
8. Fazit: Human-Centered AI als Bedingung nachhaltiger Innovation
Human-Centered AI ist keine moralische Verzierung technologischer Entwicklung, sondern deren Voraussetzung. Systeme, die menschliche Urteilskraft, Verantwortung und Sinnzusammenhänge ausblenden, mögen kurzfristig effizient erscheinen – langfristig verlieren sie jedoch an Tragfähigkeit.
Die Integration ethischer Reflexion in die Architektur von KI-Systemen ist somit kein Luxus, sondern eine Form struktureller Klugheit. Sie schafft Orientierung in komplexen Entscheidungsräumen, ermöglicht Vertrauen und sichert Anschlussfähigkeit.
Human-Centered AI steht damit für eine Form technologischer Rationalität, die Geschwindigkeit nicht gegen Verantwortung ausspielt, sondern beides zusammendenkt. In einer Zeit rasanter Beschleunigung ist genau das ihre eigentliche Stärke.
Literatur zum Weiterlesen und Vertiefen
Veröffentlicht am 1. Februar 2026 von ethonoma institute
