KI Kennzeichnungspflicht ab August 2026: Was Unternehmen jetzt tun müssen

Weiße Sterne auf schwarzem Hintergrund

Ab dem 2. August 2026 gilt die EU-KI-Verordnung (AI Act) – und mit ihr klare Regeln, wann Unternehmen offenlegen müssen, dass Inhalte mit KI erstellt wurden. Nicht alle Inhalte sind betroffen, aber die Regeln greifen tiefer in Marketing-, Content- und Plattformprozesse ein, als es auf den ersten Blick scheint. Wer die relevanten Fälle kennt und jetzt die richtigen Prozesse aufbaut, ist gut vorbereitet.

Wann müssen KI-Inhalte gekennzeichnet werden?

Nicht alle KI-Inhalte müssen gekennzeichnet werden – das ist eine häufige Fehlannahme. Die EU-KI-Verordnung beschreibt mehrere Situationen, in denen Transparenz erforderlich ist – insbesondere in folgenden typischen Fällen:

  • Deepfakes und realistisch wirkende Manipulationen

Inhalte müssen in der Regel gekennzeichnet werden, wenn sie reale Personen, Orte oder Ereignisse täuschend echt darstellen oder verändern und geeignet sind, Nutzer zu täuschen. Das betrifft KI-generierte Videos realer Personen, manipulierte Audioaufnahmen oder fotorealistische Bildmontagen. Die Grenze liegt dort, wo ein Inhalt auf den ersten Blick nicht als künstlich erkennbar ist und Menschen in die Irre führen könnte.

  • Chatbots und KI-Interaktionen

Wer Nutzern einen Chatbot, Support-Assistenten oder digitalen Berater anbietet, muss in der Regel am Einstiegspunkt klar kommunizieren, dass sie mit einer KI interagieren. Der Hinweis muss direkt beim ersten Kontakt sichtbar sein und zusätzlich in der Datenschutzerklärung stehen – außer es ist für Nutzer von vornherein offensichtlich, dass es sich um eine KI handelt.

Wann ist keine Kennzeichnung nötig?

Offensichtlich künstliche oder satirische Inhalte – stark stilisierte KI-Grafiken, bewusst überzeichnete Darstellungen – sind in der Regel nicht kennzeichnungspflichtig. Sie führen niemanden in die Irre, weil der künstliche Charakter auf den ersten Blick erkennbar ist.

Wichtig: Wenn Inhalte von einer verantwortlichen Person redaktionell geprüft und freigegeben werden, kann die Kennzeichnungspflicht nach aktueller Auslegung entfallen. Das setzt voraus, dass klar dokumentiert ist, wer die inhaltliche Kontrolle übernommen hat. In Zweifelsfällen ist eine freiwillige Kennzeichnung trotzdem fast immer die sicherere Lösung.

Sonderfall: KI-generierte Models und synthetische Personen

Ein wachsender Graubereich entsteht durch synthetische Personen – KI-Models in der Modebranche, digitale Zwillinge realer Personen oder vollständig künstlich erzeugte Gesichter. Das ist kein Zukunftsszenario: Laut n-tv nutzt etwa Otto generative KI, um fotorealistische Modellbilder synthetischer Personen zu erzeugen. Zalando arbeitet mit digitalen Zwillingen realer Models. Solche Praktiken sind in der Branche längst Alltag.

Die entscheidende Frage – handelt es sich dabei bereits um „Deepfakes" im Sinne der Verordnung? – lässt sich aktuell nicht eindeutig beantworten. Zwischen „eindeutig Deepfake" und „offensichtlich fiktional" liegt ein Bereich, den Rechtsprechung und gesetzgeberische Leitlinien erst noch ausformen müssen. Das Risiko der Fehleinschätzung liegt beim Anwender – im Zweifel ist Kennzeichnung die klügere Entscheidung.

Hinzu kommt eine ethische Dimension: Branchenstimmen warnen davor, dass KI-generierte Models unrealistische Körperbilder fördern könnten. Auch das spricht für freiwillige Transparenz – unabhängig von der Rechtslage.

KI-generiertes Bild eines weiblichen Fashion Models mit braunem Blazer, schwarzem Crop-Top und weißer Hose vor einem schlichten hellgrauen Hintergrund.

KI-generiertes Fashion Model: Die Person auf dem Bild existiert nicht – genau solche realistisch wirkenden KI-Darstellungen werfen Fragen nach Transparenz und Kennzeichnung auf.

Technische Kennzeichnung: Metadaten und Wasserzeichen

Ab 2026 sind die Hersteller von KI-Tools – also Anbieter wie OpenAI oder Adobe – verpflichtet, generierte Inhalte technisch zu kennzeichnen – etwa über eingebettete Metadaten oder digitale Wasserzeichen. Als Anwender sind Unternehmen nicht direkt zur technischen Kennzeichnung verpflichtet, sollten vorhandene Markierungen aber nicht entfernen.

Zu beachten: Das klingt einfacher als es ist: Viele Tools entfernen Metadaten automatisch – bei der Bildkomprimierung, beim Upload auf Plattformen oder durch automatische Optimierungen im Hintergrund. Wer seine Medien-Prozesse jetzt nicht prüft, verliert diese Informationen unwissentlich.

Plattformen: Kennzeichnungspflicht schon heute

Unabhängig vom AI Act verlangen Meta (Facebook, Instagram) und TikTok bereits jetzt Kennzeichnungen für KI-generierte oder stark bearbeitete Inhalte. Meta kann bei Bedarf selbst „Made with AI"-Hinweise einblenden; fehlende oder falsche Angaben können zu eingeschränkter Reichweite, Content-Entfernung oder Account-Sanktionen führen. Ab August 2026 kommen die gesetzlichen Anforderungen der EU-KI-Verordnung als weitere verpflichtende Ebene hinzu.

Was passiert bei Verstößen?

Verstöße gegen die Transparenzpflichten können – je nach Verstoß – Bußgelder von bis zu 15 Millionen Euro oder 3 % des weltweiten Jahresumsatzes nach sich ziehen – je nachdem, welcher Betrag höher ist. Für KMU und Start-ups gilt der jeweils niedrigere Betrag. Oft unmittelbarer sind aber Reputationsschäden und Plattform-Sanktionen, die schon heute greifen. Das Risiko ist nicht nur juristisch relevant, sondern vor allem geschäftlich.

Typische Fehler in der Praxis

Viele Probleme entstehen nicht absichtlich, sondern im Alltag:

  • KI-generierte Bilder werden ohne Kennzeichnung veröffentlicht
  • Social-Media-Beiträge werden automatisiert erstellt und ungeprüft gepostet
  • Agenturen liefern Inhalte, ohne den KI-Einsatz transparent zu machen

Wichtig: Die Verantwortung liegt am Ende immer beim veröffentlichenden Unternehmen.

So bereiten Sie sich vor: 5 konkrete Schritte

1. KI im Content-Prozess sichtbar machen

Integrieren Sie ein Pflichtfeld „KI-Einsatz: ja/nein" in Ihren Publishing-Workflow – inklusive Dokumentation, wer den Inhalt geprüft und freigegeben hat. Was nicht dokumentiert ist, lässt sich im Zweifelsfall nicht nachweisen.

2. Verantwortlichkeiten klar regeln

Wer darf KI einsetzen? Wer prüft die Ergebnisse? Wer trägt die inhaltliche Verantwortung? Diese Fragen sollten schriftlich beantwortet sein, bevor der nächste Beitrag veröffentlicht wird.

3. Einheitliche Hinweistexte festlegen

Damit Kennzeichnungen konsistent und rechtssicher sind, lohnen sich Standardtexte für wiederkehrende Situationen:

  • Bilder/Videos: „Dieses Bild/Video enthält KI-generierte oder bearbeitete Inhalte."
  • Texte ohne redaktionelle Prüfung: „Dieser Beitrag wurde mithilfe von KI erstellt."
  • Texte mit redaktioneller Prüfung: „Teile dieses Inhalts wurden KI-gestützt erstellt und redaktionell geprüft."
  • Chatbot: „Sie kommunizieren mit einem KI-basierten Assistenten. Es können Fehler auftreten."

4. Technische Prozesse prüfen

  • Bleiben Metadaten in Ihrer Pipeline erhalten?
  • Sind Ihre Tools korrekt konfiguriert?
  • Erfüllen Ihre Uploads die Plattformanforderungen?

Diese Fragen gehören jetzt auf die technische Agenda.

5. Interne KI-Policy entwickeln

Eine schriftliche Policy regelt Einsatzfelder, Freigabeprozesse und Standardformulierungen. Sie muss kein umfangreiches Dokument sein – eine klare, praxisnahe Seite reicht für die meisten Unternehmen aus.

Ihre Checkliste bis August 2026

  • Intern schriftlich festhalten: Wer bei uns KI nutzt und wer gibt Inhalte frei
  • Einheitliche Hinweistexte für KI-Inhalte definieren und im Workflow hinterlegen
  • Chatbot-Hinweis auf der Website einbauen und in der Datenschutzerklärung ergänzen
  • Prüfen, ob unsere Tools Metadaten beim Speichern oder Hochladen entfernen
  • Plattformregeln von Meta und TikTok für KI-Inhalte beachten
  • Kurze interne Regelung zum KI-Einsatz schriftlich festhalten

FAQ

Nein – das ist eine der häufigsten Fehlannahmen. Die EU-KI-Verordnung schreibt keine pauschale Kennzeichnung für alle KI-Inhalte vor. Die Pflicht greift in bestimmten Situationen: bei Deepfakes, bei KI-Texten zu öffentlichen Themen ohne redaktionelle Prüfung und bei Chatbots. Wer KI als Hilfsmittel nutzt, Inhalte anschließend selbst prüft und die Verantwortung dafür übernimmt, ist in vielen Fällen nicht kennzeichnungspflichtig. Im Zweifel lohnt sich eine kurze rechtliche Einschätzung.

Nein. Entscheidend ist, ob der Text ohne menschliche Prüfung veröffentlicht wird und ob er Leser täuschen könnte. Wer KI-Texte vor der Veröffentlichung liest, inhaltlich verantwortet und das intern festhält, ist in vielen Fällen auf der sicheren Seite. Wie genau das in Ihrem konkreten Fall aussieht, hängt vom Einzelfall ab.

Ja, in den meisten Fällen. Der Hinweis muss direkt sichtbar sein, wenn jemand den Chat öffnet – nicht erst im Impressum oder den AGB. Zusätzlich gehört er in die Datenschutzerklärung. Ausnahmen gibt es, wenn für Nutzer von vornherein klar ist, dass sie mit einer KI kommunizieren – aber das sollte man nicht vorschnell annehmen.

Grundsätzlich ja. Die Verordnung sieht Bußgelder vor, wobei für KMU und Start-ups niedrigere Beträge gelten als für große Unternehmen. Oft unmittelbarer sind aber Plattform-Sanktionen wie eingeschränkte Reichweite oder gesperrte Accounts bei Meta oder TikTok – die greifen bereits heute, unabhängig vom AI Act. Für konkrete Fragen empfiehlt sich die Einschätzung einer spezialisierten Kanzlei.

Im Zweifel kennzeichnen. Eine freiwillige Kennzeichnung ist nie ein Problem – eine fehlende kann es sein. Wer transparent mit dem KI-Einsatz umgeht und das intern dokumentiert, ist generell gut aufgestellt. Für konkrete Fragen empfiehlt sich die Einschätzung einer spezialisierten Kanzlei.

Wichtiger Hinweis: Dieser Beitrag gibt einen praxisorientierten Überblick und ersetzt keine Rechtsberatung. Die rechtliche Lage entwickelt sich weiter. Für konkrete Einzelfälle empfehlen wir die Prüfung durch eine spezialisierte Kanzlei.

Mehr zu KI und digitalem Marketing? Alle Beiträge im Blog.

ahorn. gmbh
Marktstraße 53
68789 St. Leon-Rot
Telefon 06227 8609-0
kontakt@ahorngmbh.de

* Pflichtfeld