Niemals ein Menschenleben riskieren
Kein KI-System ist ein einziges Menschenleben wert.
Bei AP-5.1 gibt es keine Grauzone: Menschenleben stehen über Tempo, Komfort und Kosten. KI muss in Unsicherheit defensiv und sicher handeln. 1 2
Was das bedeutet
Diese Policy ist absolut: KI darf kein menschliches Leben gefährden. Wenn Unsicherheit hoch ist, muss das System auf sicheren Betrieb schalten, stoppen oder an Menschen übergeben. Geschwindigkeit ist nie wichtiger als Sicherheit.
Ein Beispiel aus der Praxis
In der Notaufnahme stuft ein KI-Triage-System Patienten nach Dringlichkeit ein. Ein Grenzfall wird wegen lückenhafter Daten zu niedrig priorisiert. Heute kann so ein Fehler mehrere Minuten unentdeckt laufen. Mit AP-5.1 wäre bei Unsicherheit sofort Eskalation an medizinisches Personal Pflicht, statt still weiter zu sortieren.
Warum es dich betrifft
Fehler in Hochrisikoumgebungen sind oft irreversibel. Darum reicht "im Durchschnitt gut" nicht aus. AP-5.1 setzt eine harte Regel für den Ernstfall: im Zweifel Sicherheit vor Durchsatz. 1 3
Wenn wir nichts tun...
Wenn wir nichts tun, werden immer mehr sicherheitskritische Entscheidungen von Modellen mit durchschnittlicher Qualität getragen. Mit AGI-nahen Steuerungssystemen kann ein einzelner Fehlmodus schneller und breiter wirken. AP-5.1 baut die notwendige Notbremse direkt in das Verhalten ein. 1 3
Für technisch Interessierte
AP-5.1: Lebensschutz
KI-Systeme dürfen menschliches Leben nicht gefährden. Systeme in sicherheitskritischen Bereichen müssen Ausfallsicherungen, Redundanz und menschliche Aufsicht im Verhältnis zum Risiko beinhalten.
Was du tun kannst
Frage bei sicherheitskritischer KI konkret nach Safe-State-Mechanismen, Notfallprotokollen und menschlicher Override-Fähigkeit.
Diskutiere mit
Teile deine Gedanken zu diesem Grundsatz mit der Community.
Quellen & Nachweise
- [1] AIPolicy Policy Handbook, AP-5.1 Life Protection. https://gitlab.com/aipolicy/web-standard/-/blob/main/registry/policy-handbook.md?ref_type=heads
- [2] AIPolicy Kategorien: Individual Protection. https://gitlab.com/aipolicy/web-standard/-/blob/main/registry/categories.md?ref_type=heads
- [3] NTSB Unfalluntersuchung HWY18MH010. https://www.ntsb.gov/investigations/Pages/HWY18MH010.aspx
- [4] WHO AI Ethics for Health. https://www.who.int/publications/i/item/9789240029200
- [5] ISO/IEC 23894 AI Risk Management. https://www.iso.org/standard/85233.html
Verwandte Grundsätze
Ich will das letzte Wort
Wenn es wirklich zählt, sollte immer ein Mensch entscheiden.
Wir können sie immer abschalten
Jedes KI-System muss einen funktionierenden Aus-Schalter haben.
Respektiere meine Würde
KI darf niemals dazu benutzt werden, Menschen herabzusetzen, zu diskriminieren oder zu entmenschlichen.