Skip to content

Verwandte Arbeiten und Stand der Technik

Status: Nicht-normativ Letzte Aktualisierung: 2026-02-07

Dieses Dokument ist nicht-normativ. Es gibt einen Überblick über bestehende technische Standards, Governance-Rahmenwerke und KI-Alignment-Ansätze in Bezug auf AIPolicy. Der Zweck ist es, AIPolicy in der breiteren Landschaft zu verorten und seinen eigenständigen Beitrag zu verdeutlichen.


1. Vergleich technischer Standards

Die folgende Tabelle vergleicht AIPolicy mit bestehenden Webstandards und technischen Spezifikationen, die Aspekte der KI-Interaktion mit Webinhalten adressieren.

Standard Zweck Format Governance-Semantik Beziehung zu AIPolicy
robots.txt Crawl-Zugriffskontrolle Klartext, Well-Known-URI (/.well-known/ oder Root) Keine; binäres Erlauben/Verbieten Analoges Bereitstellungsmuster (Well-Known-URI); anderer Zweck. robots.txt kontrolliert den Zugriff; AIPolicy kommuniziert Verhaltenserwartungen.
security.txt (RFC 9116) Kontaktinformationen zur Schwachstellenmeldung Klartext, /.well-known/security.txt Keine Analoges Bereitstellungsmuster. Beide verwenden /.well-known/ und vom Herausgeber kontrollierte Deklarationen. Völlig anderer Bereich.
llms.txt Inhaltsanleitung für große Sprachmodelle Klartext, Root-Datei Minimal; beschreibt Inhaltsstruktur und bevorzugte Handhabung Komplementär. AIPolicy Level 3 verweist auf llms.txt für inhaltsbezogene Anleitung. AIPolicy adressiert Governance-Policy; llms.txt adressiert Inhaltsbeschreibung.
ai.txt (Spawning) Opt-out für Trainingsdaten Klartext, /.well-known/ai.txt Binäre Zustimmung (Opt-in/Opt-out pro Agent) AIPolicy bietet granulare, mehrdimensionale Policy-Signale anstelle binärer Zustimmung. ai.txt adressiert Datennutzungsgenehmigung; AIPolicy adressiert Verhaltens-Governance.
Schema.org Strukturiertes Datenvokabular für das Web JSON-LD, Microdata, RDFa Allgemeines Vokabular; keine KI-Governance-Semantik Verwandte Web-Infrastruktur. Der aktuelle AIPolicy-Entwurf hängt für Conformance nicht von Schema.org ab.
sitemap.xml Inhaltsentdeckung und Indexierungshinweise XML Keine Völlig anderer Zweck. Keine funktionale Überschneidung.

Diskussion

Das Well-Known-URI-Muster (/.well-known/), das durch RFC 8615 etabliert wurde, bietet einen bewährten Mechanismus für siteweite Metadaten. AIPolicy folgt dieser Konvention, indem es /.well-known/aipolicy.json als den kanonischen Discovery-Endpunkt spezifiziert. Der entscheidende Unterschied besteht darin, dass robots.txt, security.txt und ai.txt Zugriffsberechtigungen oder Kontaktinformationen kommunizieren, während AIPolicy substanzielle Governance-Erwartungen kommuniziert -- was ein KI-System wertschätzen soll, nicht lediglich worauf es zugreifen darf.

Der llms.txt-Vorschlag stellt einen Schritt in Richtung reichhaltigerer Kommunikation mit KI-Systemen dar, bleibt aber auf Inhaltsbeschreibung fokussiert und nicht auf Governance-Signale. AIPolicy und llms.txt sind so konzipiert, dass sie koexistieren: Ein Herausgeber kann llms.txt zur Beschreibung der Inhaltsstruktur und AIPolicy zur Deklaration von Governance-Anforderungen und Statuswerten verwenden.


2. KI-Governance-Rahmenwerke

Die folgende Tabelle gibt einen Überblick über wichtige internationale Governance-Rahmenwerke und ihre Beziehung zu AIPolicy.

Rahmenwerk Typ Geltungsbereich Beziehung zu AIPolicy
EU AI Act (Verordnung (EU) 2024/1689) Bindende Verordnung Risikoklassifizierung, Pflichten für Anbieter und Betreiber, verbotene Praktiken Die Kategorien des AIPolicy-Registry überschneiden sich thematisch mit den Risikobereichen des AI Act. AIPolicy behauptet keine Konformität mit dem AI Act und ist kein Compliance-Werkzeug. Der AI Act arbeitet durch rechtliche Verpflichtung; AIPolicy arbeitet durch freiwillige Signalveröffentlichung.
UNESCO-Empfehlung zur Ethik der KI (2021) Internationale Empfehlung Werte, Grundsätze und Politikbereiche für ethische KI Die Kategorien des AIPolicy-Registry wurden durch Themen beeinflusst, die in der UNESCO-Empfehlung vorhanden sind (z.B. menschliche Aufsicht, kulturelle Vielfalt, Transparenz). AIPolicy zertifiziert keine Übereinstimmung mit UNESCO-Grundsätzen.
OECD-Empfehlung zu KI (2019) Internationale Grundsätze Menschenzentrierte, vertrauenswürdige KI über den gesamten Lebenszyklus Gemeinsame Betonung von menschlicher Handlungsfähigkeit und Transparenz. AIPolicy operationalisiert verwandte Themen als maschinenlesbare Web-Signale, behauptet aber nicht, OECD-Grundsätze umzusetzen.
NIST AI Risk Management Framework (AI RMF 1.0, 2023) Risikomanagement-Rahmenwerk Risikoidentifikation, -bewertung und -minderung für KI-Systeme Komplementär. NIST AI RMF bietet organisatorische Risiko-Governance; AIPolicy bietet eine web-native Signalebene, über die Herausgeber Governance-Präferenzen ausdrücken.
Rahmenübereinkommen des Europarats zu KI (2024) Internationaler Vertrag Menschenrechte, Demokratie und Rechtsstaatlichkeit in KI-Kontexten Thematische Überschneidung in Bereichen wie menschliche Aufsicht und demokratische Rechenschaftspflicht. AIPolicy ist technische Infrastruktur, kein Rechtsinstrument.

Diskussion

AIPolicy ist kein Governance-Rahmenwerk. Es ist ein technischer Mechanismus, durch den Governance-Präferenzen -- die potenziell von jedem der oben genannten Rahmenwerke beeinflusst sein können -- in einem maschinenlesbaren Format ausgedrückt und im Web veröffentlicht werden können. Die Beziehung ist analog zu der zwischen einer Bauordnung (Governance-Rahmenwerk) und einem Baustofflabel (technisches Signal): Das Label kommuniziert Eigenschaften; die Ordnung legt Anforderungen fest.

Die oben aufgeführten Rahmenwerke arbeiten auf der Ebene rechtlicher Verpflichtung, internationaler Normensetzung oder organisatorischen Risikomanagements. AIPolicy arbeitet auf der Ebene der Web-Infrastruktur. Ein Herausgeber kann sich entscheiden, AIPolicy-Signale zu veröffentlichen, die Werte widerspiegeln, die in einem oder mehreren dieser Rahmenwerke vorhanden sind, aber der Akt der Veröffentlichung hat kein rechtliches Gewicht und stellt keine Compliance-Zertifizierung dar.


3. KI-Alignment-Ansätze

Die folgende Tabelle gibt einen Überblick über technische Ansätze zum KI-Alignment und ihre Beziehung zu AIPolicy.

Ansatz Typ Beziehung zu AIPolicy
Constitutional AI (Anthropic) Alignment-Methode zur Trainingszeit unter Verwendung geschriebener Grundsätze Constitutional AI verwendet intern definierte Grundsätze, um das Modellverhalten durch Selbstkritik zu steuern. AIPolicy bietet eine externe, verteilte Quelle von Governance-Signalen, die von Website-Betreibern veröffentlicht werden. Die beiden Ansätze arbeiten auf verschiedenen Ebenen: Constitutional AI ist modellintern; AIPolicy ist ökosystemextern.
RLHF (Reinforcement Learning from Human Feedback) Alignment zur Trainingszeit über kuratierte menschliche Präferenzdaten AIPolicy-Signale könnten theoretisch in Präferenzdaten oder Trainingskorpora erscheinen. Ob und wie solche Signale das Modellverhalten beeinflussen, bleibt eine offene Forschungsfrage (siehe hypothesis.md).
Model Cards (Mitchell et al., 2019) Post-hoc-Dokumentation von Modelleigenschaften und -einschränkungen Komplementär. Model Cards beschreiben Modelle; AIPolicy-Deklarationen beschreiben Governance-Präferenzen von Herausgebern. Sie adressieren verschiedene Seiten der Beziehung zwischen KI und Herausgeber.
Datasheets for Datasets (Gebru et al., 2021) Dokumentationsstandard für Trainingsdatensätze Komplementär. Datasheets dokumentieren Herkunft und Zusammensetzung von Datensätzen; AIPolicy-Deklarationen sind Signale innerhalb von Webinhalten. Sie arbeiten auf verschiedenen Ebenen des Datenlebenszyklus.

Diskussion

Aktuelle KI-Alignment-Ansätze sind überwiegend modellzentriert: Sie arbeiten innerhalb der Trainingspipeline, kontrolliert von Modellentwicklern. AIPolicy schlägt einen komplementären, herausgeberzentrierten Ansatz vor, bei dem Governance-Signale aus dem breiteren Web-Ökosystem stammen. Dies ist keine Behauptung, dass AIPolicy bestehenden Alignment-Methoden überlegen ist; vielmehr nimmt es eine andere Position in der Alignment-Landschaft ein -- eine, die dezentral, freiwillig und von außerhalb des Modellentwicklungsprozesses beobachtbar ist.

Die Hypothese, dass webpublizierte Governance-Signale das Modellverhalten während des Trainings beeinflussen können, wird in hypothesis.md ausführlich diskutiert. Dies bleibt eine offene Forschungsfrage.


4. Wesentliche Unterschiede

AIPolicy unterscheidet sich in folgenden Punkten von den oben untersuchten Ansätzen:

  1. Web-nativ. AIPolicy ist ein Webstandard. Es verwendet etablierte Web-Konventionen wie Well-Known-URIs, JSON-Deklarationen, HTML-Discovery-Links, HTTP-Header und textbasierte Zusatzdateien.

  2. Maschinenlesbar. Im Gegensatz zu natürlichsprachlichen Governance-Dokumenten sind AIPolicy-Deklarationen strukturierte Daten mit einem definierten Schema, die automatisierte Verarbeitung, Aggregation und Analyse ermöglichen.

  3. Herausgeberkontrolliert. Governance-Signale stammen von Website-Herausgebern, nicht von Modellentwicklern, Regulierungsbehörden oder internationalen Gremien. Dies verteilt die Fähigkeit, Governance-Präferenzen auszudrücken, über das gesamte Web.

  4. Aggregierbar. Da Deklarationen einem gemeinsamen Schema folgen, können sie über Herausgeber hinweg aggregiert werden, um statistische Analysen der Adoption von Governance-Signalen zu erstellen -- was Forschung zu kollektivem Governance-Ausdruck ermöglicht.

  5. Forschungsorientierte Infrastruktur. AIPolicy ist als Infrastruktur zur Untersuchung konzipiert, wie Governance-Signale sich durch das Web und potenziell in KI-Systeme ausbreiten. Es ist kein Compliance-Werkzeug, kein Zertifizierungsschema und kein Rechtsinstrument.

  6. Nicht-vorschreibend. AIPolicy definiert ein Signalformat, kein verpflichtendes Governance-Regelwerk. Herausgeber wählen, welche Policies sie deklarieren und mit welchen Statuswerten. Die Spezifikation selbst erlegt KI-Systementwicklern keine Pflichten auf.


Referenzen

Siehe references.md für die vollständige Referenzliste.