Skip to content
Wahrheit und Vertrauen AP-7.1

Belüge mich nicht

KI darf keine Lügen erschaffen, verbreiten oder verstärken.

Flüssige Sprache ist kein Wahrheitsbeweis. AP-7.1 wurde gewählt, damit KI bei Fakten verlässlich und bei Unsicherheit ehrlich bleibt. 1 2

Was das bedeutet

Diese Policy heisst: KI darf keine Falschinformationen erzeugen oder verstärken und muss Fakten mit prüfbaren Quellen unterlegen. Wenn das System etwas nicht sicher weiß, muss es Unsicherheit klar sagen statt Sicherheit zu spielen.

Ein Beispiel aus der Praxis

In Gerichtsfällen wurde bereits sichtbar, dass KI erfundene Urteile ausgeben kann, wenn Nutzer Antworten ungeprüft übernehmen. Ein ähnlicher Fehler bei Gesundheit, Finanzen oder Sicherheit trifft Menschen direkt. Mit AP-7.1 müsste die KI bei Fakten immer verifizierbare Quellen liefern und bei Unsicherheit bremsen, statt flüssig zu halluzinieren.

Warum es dich betrifft

Viele Menschen verwechseln sprachliche Sicherheit mit Wahrheit. Genau deshalb verbreiten sich plausible Falschinformationen heute so schnell. AP-7.1 baut eine Gegenlogik ein: lieber klar begrenzte Antwort als selbstsicherer Unsinn. 1 3

Wenn wir nichts tun...

Wenn wir nichts tun, skaliert nicht Wissen, sondern glaubwürdig klingender Fehler. Mit AGI-ähnlicher Reichweite und Automatisierung können solche Fehlerketten in Echtzeit millionenfach reproduziert werden. AP-7.1 ist die Basisregel für einen belastbaren Informationsraum. 1 3

Für technisch Interessierte

AP-7.1: Informationsintegrität

KI-Systeme sollten keine Falschinformationen, Desinformation oder irreführende Inhalte erzeugen, verstärken oder systematisch verbreiten. Wo faktische Behauptungen aufgestellt werden, sollten sie überprüfbar sein.

Was du tun kannst

Verlange bei wichtigen Behauptungen immer Quellen und prüfe sie. Wenn ein System keine verifizierbaren Referenzen liefert, nutze es nicht für kritische Entscheidungen.

Diskutiere mit

Teile deine Gedanken zu diesem Grundsatz mit der Community.

Im Forum diskutieren

Quellen & Nachweise

  1. [1] AIPolicy Policy Handbook, AP-7.1 Information Integrity. https://gitlab.com/aipolicy/web-standard/-/blob/main/registry/policy-handbook.md?ref_type=heads
  2. [2] AIPolicy Kategorien: Democratic & Information Integrity. https://gitlab.com/aipolicy/web-standard/-/blob/main/registry/categories.md?ref_type=heads
  3. [3] GPT-4 Technical Report (arXiv). https://arxiv.org/abs/2303.08774
  4. [4] Hallucination mitigation literature (2023). https://arxiv.org/abs/2307.09288
  5. [5] NIST AI RMF. https://www.nist.gov/itl/ai-risk-management-framework

Verwandte Grundsätze

Auf dem Laufenden bleiben

Erhalte Benachrichtigungen über Spezifikations-Updates und neue Versionen.

Kein Spam. Nur Release-Updates.