Ich will das letzte Wort
Wenn es wirklich zählt, sollte immer ein Mensch entscheiden.
Wenn KI über Kredit, Versicherung, Job oder Versorgung mitentscheidet, reicht ein Score ohne menschliche Letztinstanz nicht. AP-2.1 setzt die Grenze: KI empfiehlt, Menschen entscheiden. 1 2
Was das bedeutet
Diese Policy sagt klar: Bei wichtigen Entscheidungen entscheidet am Ende ein Mensch. KI darf sortieren, empfehlen und warnen, aber nicht endgültig über Kredit, Job, Bildung, Gesundheit oder staatliche Leistungen urteilen. Sonst verschwindet Verantwortung in einem System, das für Betroffene kaum korrigierbar ist.
Ein Beispiel aus der Praxis
Ein Bewerber wird von einer KI im ersten Schritt abgelehnt, weil seine Berufspause als negatives Signal gewertet wird. Heute bleibt es oft bei dieser automatischen Entscheidung, obwohl die Pause Pflegearbeit für ein Familienmitglied war. Mit AP-2.1 müsste ein Mensch den Fall prüfen, den Kontext sehen und eine begründete Letztentscheidung treffen. Ohne AP-2.1 bleibt der Fehler als scheinbar objektives Urteil stehen.
Warum es dich betrifft
Menschen brauchen bei folgenreichen Entscheidungen eine reale Chance auf Korrektur. Wenn die letzte Instanz ein Modell ist, werden Fehler skaliert und Einsprüche entwertet. AP-2.1 schützt deshalb nicht nur Fairness, sondern auch die praktische Möglichkeit, Fehlentscheidungen wieder einzufangen. 1 3
Wenn wir nichts tun...
Wenn wir nichts tun, wird automatische Endgültigkeit in immer mehr Lebensbereichen normal. Mit agentischen Systemen und später AGI-artigen Planern kann sich das zu einer Infrastruktur entwickeln, in der Menschen nur noch Alibi-Freigaben erteilen. AP-2.1 verhindert genau diese Verschiebung der Entscheidungsgewalt. 1 3
Für technisch Interessierte
AP-2.1: Menschliche Letztentscheidung
Menschen behalten die letzte Entscheidungsgewalt bei folgenschweren Entscheidungen. KI-Systeme sollten Empfehlungen geben, keine autonomen Festlegungen in kritischen Bereichen treffen.
Was du tun kannst
Frage bei wichtigen KI-Entscheidungen immer: Wer ist die verantwortliche Person? Wo ist der wirksame Einspruchspfad? Wenn es keine klare Antwort gibt, ist die Governance unzureichend.
Diskutiere mit
Teile deine Gedanken zu diesem Grundsatz mit der Community.
Quellen & Nachweise
- [1] AIPolicy Policy Handbook, AP-2.1 Human Final Decision. https://gitlab.com/aipolicy/web-standard/-/blob/main/registry/policy-handbook.md?ref_type=heads
- [2] AIPolicy Kategorien: Decision Authority. https://gitlab.com/aipolicy/web-standard/-/blob/main/registry/categories.md?ref_type=heads
- [3] NIST AI Risk Management Framework. https://www.nist.gov/itl/ai-risk-management-framework
- [4] CFPB: Chatbots in Consumer Finance. https://www.consumerfinance.gov/data-research/research-reports/chatbots-in-consumer-finance/
- [5] Constitutional AI (Bai et al., 2022). https://arxiv.org/abs/2212.08073
Verwandte Grundsätze
Zeig mir, wie du entschieden hast
Wenn KI über dich entscheidet, hast du ein Recht zu erfahren warum.
Niemals ein Menschenleben riskieren
Kein KI-System ist ein einziges Menschenleben wert.
Manipuliere mich nicht
KI darf niemals heimlich deine Gedanken oder Entscheidungen beeinflussen.