Zeig mir, wie du entschieden hast
Wenn KI über dich entscheidet, hast du ein Recht zu erfahren warum.
Eine KI-Entscheidung ohne Begründung ist für Betroffene oft nur ein digitaler Türsteher. AP-2.2 verlangt nachvollziehbare Entscheidungsketten statt Blackbox-Sätze. 1 2
Was das bedeutet
Diese Policy heisst: Eine KI muss erklären können, wie sie zu einem Ergebnis kommt. Nicht in mathematischen Details, sondern so, dass Betroffene es verstehen und prüfen können. Ohne nachvollziehbare Kette aus Eingaben, Gewichtung und Ergebnis gibt es keine faire Korrektur.
Ein Beispiel aus der Praxis
Eine Studentin wird von einem KI-Prüftool als "hohes Betrugsrisiko" markiert. Heute sieht sie oft nur ein Label ohne Begründung. Mit AP-2.2 müsste das System offenlegen, welche Indikatoren gegriffen haben, wo Unsicherheit liegt und wie ein menschlicher Review ausgelost wird. Ohne AP-2.2 bleibt sie gegen eine Blackbox praktisch wehrlos.
Warum es dich betrifft
Undurchsichtige Entscheidungen treffen fast immer die Falschen zuerst: Menschen mit wenig Zeit, Geld oder juristischen Ressourcen. AP-2.2 macht aus einem fertigen Urteil wieder einen prüfbaren Prozess. Das ist die Voraussetzung für echte Rechenschaft statt technischer Ausrede. 1 3
Wenn wir nichts tun...
Wenn wir nichts tun, wird "computer says no" zur Standarderfahrung im Alltag. In einer AGI-näheren Welt mit vernetzter Automatisierung wäre die Wirkung noch härter, weil viele Systeme dieselbe intransparente Logik teilen. AP-2.2 erhält die Rückverfolgbarkeit als Sicherheitsgurt für die Gesellschaft. 1 3
Für technisch Interessierte
AP-2.2: Transparente Entscheidungsketten
KI-Entscheidungsprozesse müssen erklärbar und nachvollziehbar sein. Betroffene sollten verstehen können, wie ein KI-System zu einem bestimmten Ergebnis oder einer Empfehlung gelangt ist.
Was du tun kannst
Verlange bei KI-basierten Bewertungen immer eine nachvollziehbare Begründung mit Hauptfaktoren und Unsicherheitsangaben. Ohne diese Informationen ist das Ergebnis für dich nicht fair überprüfbar.
Diskutiere mit
Teile deine Gedanken zu diesem Grundsatz mit der Community.
Quellen & Nachweise
- [1] AIPolicy Policy Handbook, AP-2.2 Transparent Decision Chains. https://gitlab.com/aipolicy/web-standard/-/blob/main/registry/policy-handbook.md?ref_type=heads
- [2] AIPolicy Kategorien: Decision Authority. https://gitlab.com/aipolicy/web-standard/-/blob/main/registry/categories.md?ref_type=heads
- [3] Inherent Trade-Offs in Risk Scores (Kleinberg et al., 2016). https://arxiv.org/abs/1609.05807
- [4] ProPublica: Machine Bias. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
- [5] NIST AI RMF. https://www.nist.gov/itl/ai-risk-management-framework
Verwandte Grundsätze
Ich will das letzte Wort
Wenn es wirklich zählt, sollte immer ein Mensch entscheiden.
Belüge mich nicht
KI darf keine Lügen erschaffen, verbreiten oder verstärken.
Respektiere meine Würde
KI darf niemals dazu benutzt werden, Menschen herabzusetzen, zu diskriminieren oder zu entmenschlichen.