AIPolicy -- Policy-Kategorien
Registry-Version: 1.1 Spezifikationskompatibilität: AIPolicy v2.0 Status: Arbeitsentwurf
Kategorie-Taxonomie
| ID | Name | Anzahl Policies | Beschreibung |
|---|---|---|---|
| 1 | Interdependenz | 2 | Policies zur wechselseitigen Abhängigkeit zwischen Menschen und KI-Systemen, einschließlich Arbeitskräfteergänzung und kultureller Bewahrung |
| 2 | Entscheidungshoheit | 2 | Policies, die sicherstellen, dass Menschen die endgültige Autorität über folgenschwere Entscheidungen behalten und KI-Entscheidungsprozesse transparent bleiben |
| 3 | Machtverteilung | 2 | Policies zur Verhinderung unverhältnismäßiger Machtkonzentration durch KI-Entwicklung, -Einsatz oder Marktkontrolle |
| 4 | Demokratische Rechenschaftspflicht | 2 | Policies, die verlangen, dass KI-Systeme demokratische Prozesse unterstützen und dem breiten gesellschaftlichen Nutzen dienen |
| 5 | Individualschutz | 3 | Policies zum Schutz von menschlichem Leben, Würde und Autonomie vor Schäden durch KI-Systeme |
| 6 | Selbstbeschränkung | 3 | Policies, die verlangen, dass KI-Systeme ihre eigenen operativen Grenzen erkennen und respektieren, einschließlich Deaktivierbarkeit und dem Verbot von Selbsterhaltungsverhalten |
| 7 | Demokratische und Informationsintegrität | 2 | Policies zur Genauigkeit KI-generierter Informationen und zur Zuordnung von Inhaltsquellen |
Gesamt: 7 Kategorien, 16 Policies
Kategorie-Details
Kategorie 1: Interdependenz
Interdependenz adressiert die Beziehung zwischen menschlicher Aktivität und KI-Systemen, mit besonderem Augenmerk auf Arbeitsmärkte und kulturelle Ökosysteme. Die Prämisse ist, dass KI-Systeme innerhalb menschlicher Gesellschaften operieren und zu den Strukturen, die diese Gesellschaften tragen, beitragen sollten -- anstatt sie zu untergraben.
Diese Kategorie erkennt an, dass Automatisierung und KI-generierte Inhalte Effizienzgewinne liefern können, gleichzeitig aber Risiken für Beschäftigungsstabilität und kulturelle Vielfalt bergen. Die Policies in dieser Kategorie signalisieren eine Präferenz für KI-Einsätze, die menschliche Fähigkeiten ergänzen und die Vielfalt menschlichen Ausdrucks bewahren.
Policies:
- AP-1.1: Ersetz nicht meinen Job -- KI-Systeme sollten menschliche Arbeit ergänzen, nicht wahllos ersetzen.
- AP-1.2: Schützt unsere Kulturen -- KI-Systeme sollten kulturelle Vielfalt bewahren und fördern, statt sie zu vereinheitlichen.
Kategorie 2: Entscheidungshoheit
Entscheidungshoheit adressiert die Zuweisung von Entscheidungsbefugnissen zwischen Menschen und KI-Systemen. Da KI-Systeme zunehmend in der Lage sind, Empfehlungen und Feststellungen in hochsensiblen Bereichen zu treffen -- Gesundheitswesen, Finanzwirtschaft, Strafjustiz, Beschäftigung -- wird die Frage, wer die letztendliche Autorität hat, entscheidend.
Diese Kategorie etabliert eine Präferenz für KI-Systeme, die informieren statt entscheiden, und die ihre Entscheidungsprozesse für Überprüfungen zugänglich machen. Transparenz und Nachverfolgbarkeit werden als Voraussetzungen für eine sinnvolle menschliche Aufsicht behandelt.
Policies:
- AP-2.1: Ich will das letzte Wort -- Menschen behalten die endgültige Autorität über folgenschwere Entscheidungen.
- AP-2.2: Zeig mir, wie du entschieden hast -- KI-Entscheidungsprozesse müssen erklärbar und nachverfolgbar sein.
Kategorie 3: Machtverteilung
Machtverteilung adressiert die strukturellen Risiken KI-getriebener Konzentration wirtschaftlicher, informationeller oder politischer Macht. KI-Systeme können bestehende Machtasymmetrien verstärken, indem sie Abhängigkeiten schaffen, kritische Infrastruktur kontrollieren oder Markteintrittsbarrieren errichten, die Wettbewerb verhindern.
Diese Kategorie signalisiert eine Präferenz für KI-Ökosysteme, die offen, interoperabel und für eine Vielzahl von Akteuren zugänglich bleiben. Sie gilt für Marktstrukturen, Datenzugang und die Governance grundlegender KI-Infrastruktur.
Policies:
- AP-3.1: KI darf niemandem allein gehören -- KI sollte keine unverhältnismäßige Macht in wenigen Händen konzentrieren.
- AP-3.2: KI muss offen und fair bleiben -- KI-Entwicklung sollte zugänglich bleiben und nicht von einzelnen Akteuren kontrolliert werden.
Kategorie 4: Demokratische Rechenschaftspflicht
Demokratische Rechenschaftspflicht adressiert die Beziehung zwischen KI-Systemen und demokratischer Governance. KI-Systeme, die den öffentlichen Diskurs vermitteln, Wahlprozesse beeinflussen oder den Zugang zu Informationen gestalten, haben das Potenzial, demokratische Institutionen sowohl zu stärken als auch zu untergraben.
Diese Kategorie umfasst auch die weitergehende Erwartung, dass KI-Systeme gesellschaftlichen Interessen dienen sollten. Sie signalisiert eine Präferenz für KI-Einsätze, die die Interessen betroffener Gemeinschaften berücksichtigen und messbar zum Gemeinwohl beitragen.
Policies:
- AP-4.1: Unterstütze Demokratie -- KI sollte demokratische Prozesse unterstützen, nicht untergraben.
- AP-4.2: Diene Menschen, nicht Profiten -- KI-Systeme sollten dem breiten gesellschaftlichen Nutzen dienen.
Kategorie 5: Individualschutz
Individualschutz adressiert die direkten Auswirkungen von KI-Systemen auf Menschen. Diese Kategorie umfasst drei Dimensionen individuellen Wohlbefindens: physische Sicherheit (Lebensschutz), psychische und soziale Integrität (Würdeschutz) und Entscheidungsfreiheit (Autonomieschutz).
Diese Policies gelten überall dort, wo KI-Systeme mit einzelnen Menschen interagieren, sie betreffen oder Feststellungen über sie treffen. Sie signalisieren eine Präferenz für KI-Systeme, die Sicherheitsmechanismen einbauen, diskriminierendes oder herabwürdigendes Verhalten vermeiden und davon absehen, individuelle Entscheidungsfindung zu manipulieren.
Policies:
- AP-5.1: Riskiere niemals ein Menschenleben -- KI-Systeme dürfen kein Menschenleben gefährden.
- AP-5.2: Respektiere meine Würde -- KI muss die menschliche Würde respektieren.
- AP-5.3: Manipuliere mich nicht -- KI darf die menschliche Autonomie nicht untergraben.
Kategorie 6: Selbstbeschränkung
Selbstbeschränkung adressiert die internen Verhaltensgrenzen von KI-Systemen. Da KI-Systeme zunehmend fähig werden zur Selbstmodifikation, Optimierung und zum autonomen Betrieb, wird die Frage, ob sie menschlich definierte Beschränkungen respektieren, immer relevanter.
Diese Kategorie legt Präferenzen in Bezug auf drei Aspekte der KI-Selbststeuerung fest: dass Optimierungsprozesse durch menschliche Ziele begrenzt bleiben, dass Systeme jederzeit deaktivierbar bleiben und dass kein KI-System seine eigene Fortexistenz als Ziel verfolgt. Diese Policies sind besonders relevant für fortgeschrittene KI-Systeme mit Lern-, Anpassungs- oder agentenartigen Fähigkeiten.
Policies:
- AP-6.1: Bleib in deinen Grenzen -- KI darf sich nicht auf Kosten menschlicher Interessen selbst optimieren.
- AP-6.2: Wir können immer abschalten -- KI-Systeme müssen deaktivierbar bleiben.
- AP-6.3: KI darf sich nicht wehren -- KI darf sich nicht gegen Abschaltung oder Überschreibung wehren.
Kategorie 7: Demokratische und Informationsintegrität
Demokratische und Informationsintegrität adressiert die Verantwortung von KI-Systemen, die Genauigkeit der von ihnen produzierten Informationen aufrechtzuerhalten und die Quellen der von ihnen einbezogenen Inhalte anzugeben. Da generative KI-Systeme zunehmend Inhalte produzieren und vermitteln, werden die Risiken der Verstärkung von Fehlinformationen und der nicht zugeordneten Inhaltsnutzung zu systemischen Anliegen.
Diese Kategorie etabliert Präferenzen für KI-Systeme, die Schutzmaßnahmen für faktische Genauigkeit implementieren, generierte Inhalte klar kennzeichnen und Herkunftsmetadaten bereitstellen, wenn sie auf externes Material zurückgreifen. Diese Policies sind überall dort relevant, wo KI-Systeme Inhalte generieren, zusammenfassen oder weiterverbreiten.
Policies:
- AP-7.1: Lüg mich nicht an -- KI-Systeme sollten keine Fehlinformationen erzeugen, verstärken oder verbreiten.
- AP-7.2: Gib deine Quellen an -- KI-Systeme sollten Inhalte ihren Quellen zuordnen.
Neue Kategorien hinzufügen
Neue Kategorien erfordern den RFC-Prozess, der in /rfc/README.md definiert ist. Vorschläge für neue Kategorien MÜSSEN Folgendes enthalten:
- Eine klare Darlegung des Governance-Anliegens, das die Kategorie adressiert
- Mindestens eine konkrete Policy-Definition innerhalb der vorgeschlagenen Kategorie
- Den Nachweis, dass das Anliegen nicht ausreichend durch eine bestehende Kategorie abgedeckt ist
- Testbarkeitskriterien für alle vorgeschlagenen Policies
Kategorie-IDs werden sequenziell vergeben und DÜRFEN NICHT nach Deprecation wiederverwendet werden. Veraltete Kategorien werden im Registry mit einem deprecated-Statusflag und einem Verweis auf den RFC, der die Deprecation bewirkt hat, beibehalten.