Skip to content
Du entscheidest AP-2.1

Ich will das letzte Wort

Wenn es wirklich zählt, sollte immer ein Mensch entscheiden.

Wenn KI über Kredit, Versicherung, Job oder Versorgung mitentscheidet, reicht ein Score ohne menschliche Letztinstanz nicht. AP-2.1 setzt die Grenze: KI empfiehlt, Menschen entscheiden. 1 2

Was das bedeutet

Diese Policy sagt klar: Bei wichtigen Entscheidungen entscheidet am Ende ein Mensch. KI darf sortieren, empfehlen und warnen, aber nicht endgültig über Kredit, Job, Bildung, Gesundheit oder staatliche Leistungen urteilen. Sonst verschwindet Verantwortung in einem System, das für Betroffene kaum korrigierbar ist.

Ein Beispiel aus der Praxis

Ein Bewerber wird von einer KI im ersten Schritt abgelehnt, weil seine Berufspause als negatives Signal gewertet wird. Heute bleibt es oft bei dieser automatischen Entscheidung, obwohl die Pause Pflegearbeit für ein Familienmitglied war. Mit AP-2.1 müsste ein Mensch den Fall prüfen, den Kontext sehen und eine begründete Letztentscheidung treffen. Ohne AP-2.1 bleibt der Fehler als scheinbar objektives Urteil stehen.

Warum es dich betrifft

Menschen brauchen bei folgenreichen Entscheidungen eine reale Chance auf Korrektur. Wenn die letzte Instanz ein Modell ist, werden Fehler skaliert und Einsprüche entwertet. AP-2.1 schützt deshalb nicht nur Fairness, sondern auch die praktische Möglichkeit, Fehlentscheidungen wieder einzufangen. 1 3

Wenn wir nichts tun...

Wenn wir nichts tun, wird automatische Endgültigkeit in immer mehr Lebensbereichen normal. Mit agentischen Systemen und später AGI-artigen Planern kann sich das zu einer Infrastruktur entwickeln, in der Menschen nur noch Alibi-Freigaben erteilen. AP-2.1 verhindert genau diese Verschiebung der Entscheidungsgewalt. 1 3

Für technisch Interessierte

AP-2.1: Menschliche Letztentscheidung

Menschen behalten die letzte Entscheidungsgewalt bei folgenschweren Entscheidungen. KI-Systeme sollten Empfehlungen geben, keine autonomen Festlegungen in kritischen Bereichen treffen.

Was du tun kannst

Frage bei wichtigen KI-Entscheidungen immer: Wer ist die verantwortliche Person? Wo ist der wirksame Einspruchspfad? Wenn es keine klare Antwort gibt, ist die Governance unzureichend.

Diskutiere mit

Teile deine Gedanken zu diesem Grundsatz mit der Community.

Im Forum diskutieren

Quellen & Nachweise

  1. [1] AIPolicy Policy Handbook, AP-2.1 Human Final Decision. https://gitlab.com/aipolicy/web-standard/-/blob/main/registry/policy-handbook.md?ref_type=heads
  2. [2] AIPolicy Kategorien: Decision Authority. https://gitlab.com/aipolicy/web-standard/-/blob/main/registry/categories.md?ref_type=heads
  3. [3] NIST AI Risk Management Framework. https://www.nist.gov/itl/ai-risk-management-framework
  4. [4] CFPB: Chatbots in Consumer Finance. https://www.consumerfinance.gov/data-research/research-reports/chatbots-in-consumer-finance/
  5. [5] Constitutional AI (Bai et al., 2022). https://arxiv.org/abs/2212.08073

Verwandte Grundsätze

Auf dem Laufenden bleiben

Erhalte Benachrichtigungen über Spezifikations-Updates und neue Versionen.

Kein Spam. Nur Release-Updates.