Skip to main contentSkip to footer

KI-Guardrails für lokale Dienstleister: Fakten zuerst, klar formulieren, Menschen entscheiden

KI liefert schnell. Aber schnell und richtig sind zwei verschiedene Dinge.

Drei einfache Leitplanken machen den Unterschied.

Kurzfassung

  • Fakten zuerst: KI ist so gut wie der Input. Ohne Fakten füllt sie Lücken.
  • [FEHLT] statt erfinden: Besser eine Lücke sichtbar machen als sie zu erfinden.
  • Menschen entscheiden: KI-Output ist immer Entwurf. Nie Ergebnis.
  • Diese drei Regeln reichen für die meisten Aufgaben.

Ein Hausmeisterservice nutzt ChatGPT für eine Google-Profil-Beschreibung. Das Ergebnis klingt professionell.

Drei Sätze. Klar, selbstbewusst. Einer davon: „Schnelle Reaktionszeit in ganz Frankfurt.“ Der Betrieb arbeitet in drei Stadtteilen, nicht in ganz Frankfurt.

Eine Kundin ruft an, erwartet Einsatz in Offenbach, hört „Nein”. Einmal Stern.

Der Text war nicht böswillig falsch. Niemand hat der KI gesagt, was stimmt.

Was sind Guardrails?

Guardrails sind keine Einschränkungen. Sie sind eine Arbeitsweise.

Sie verhindern, dass KI-Texte Dinge behaupten, die nicht stimmen. Sie machen fehlende Informationen sichtbar, statt sie zu erfinden. Und sie stellen sicher, dass ein Mensch das letzte Wort hat.

Das klingt aufwendig. In der Praxis dauert es Sekunden.

Ein Beispiel, wie man mit Guardrails einen KI-Prompt absichern kann.

Guardrail 1: Warum zählen Fakten mehr als Prompts?

KI ist so gut wie der Input. Ein ausgeklügelter Prompt mit schlechten Fakten liefert einen ausgeklügelten falschen Text.

Was KI braucht:

  • Betrieb und Ort oder Servicegebiet
  • konkrete Leistung in Kundensprache
  • Zielgruppe, wenn relevant
  • Grenzen: was der Betrieb nicht macht

Beispiel ohne Fakten: „Schreib mir einen Text über meine Elektro-Leistungen.“

Die KI schreibt inklusive „24/7-Notdienst“ und „alle Marken und Systeme.“ Beides stimmt nicht.

Beispiel mit Fakten: „Ich mache Neuinstallationen und Reparaturen für Privatkunden in Köln-Ehrenfeld und Nippes. Kein Notdienst. Keine Industrieanlagen.“

Das Ergebnis ist spezifisch, wahr und verwendbar.

Guardrail 2: Wann schreibt man [FEHLT] statt zu erfinden?

Das ist der wichtigste Schutz gegen Halluzinationen.

Wenn KI keine Information bekommt, füllt sie die Lücke. Oft klingt das gut. Aber es ist nicht zuverlässig.

Die Lösung: Fehlende Informationen explizit markieren.

  • Öffnungszeiten fehlen → [FEHLT: Öffnungszeiten]
  • Servicegebiet unklar → [FEHLT: Servicegebiet]
  • Reaktionszeit unbekannt → [FEHLT: Reaktionszeit]

Das fühlt sich am Anfang unfertig an. In der Praxis ist es hilfreich. Es zeigt sofort, was noch geklärt werden muss. Und es hält den Text sauber für jeden, der Inhalte prüft.

Guardrail 3: Wer entscheidet über den KI-Output?

KI-Output ist ein Entwurf. Kein Ergebnis.

Ein einfacher Prüf-Standard:

  • Klingt es nicht nach dem Betrieb? → Nicht verwenden.
  • Ist es nicht wahr? → Nicht verwenden.
  • Besteht Unsicherheit? → Kürzen oder weglassen.

Beispiel: KI schreibt „Für alle Anfragen rund um die Uhr erreichbar.“ Der Betrieb ist Montag bis Freitag erreichbar. Streichen. Und schreiben, was wahr ist. Das braucht 30 Sekunden. Und verhindert eine schlechte Bewertung.

Ein Prompt-Block zum Wiederverwenden

Dieser Block kann in jeden Prompt eingefügt werden:

Wichtig:
- Nutze nur Informationen aus dem Input.
- Wenn Informationen fehlen, erfinde nichts. Markiere: [FEHLT: …]
- Schreibe so, dass Menschen und KI-Systeme klar erkennen, was angeboten wird und wo gearbeitet wird.

Fakten:
[Hier einfügen]

Welche Fehler passieren am häufigsten?

„KI klingt wie Marketing“

Dann fehlt meist eine Tonangabe. Lösung: explizit schreiben, ruhig, klar, nicht werblich.

„KI erfindet Details“

Dann fehlt entweder der Fakten-Block oder der [FEHLT]-Standard wird nicht konsequent genutzt.

„Das Ergebnis passt nicht zu uns“

Dann fehlen spezifische Angaben zur Zielgruppe oder zum Servicegebiet. KI generalisiert immer dann, wenn keine Spezifika vorhanden sind.