KI-Kennzeichnung ist keine Transparenzregel. Sie ist eine Machtfrage.

Wer künftig Reichweite hat, entscheidet sich nicht mehr nur im Algorithmus.

Es entscheidet sich daran, ob ein Inhalt beweisen kann, woher er stammt.

Das klingt nach einer technischen Randnotiz. Es ist eine der grössten Strukturverschiebungen im digitalen Marketing der letzten Jahre.

Das Ende der KI-Erkennung

Lange glaubte die Branche, man könne KI-Inhalte einfach erkennen. Neue Detektionsmodelle sollten herausfinden, ob ein Bild, Video oder Text von einer Maschine stammt.

Dieses Konzept funktioniert nicht mehr.

Generative Modelle verbessern sich schneller als jedes Erkennungssystem. Ein Bildgenerator lernt nicht nur, realistische Bilder zu erzeugen – er lernt auch, typische Spuren zu verwischen.

Die Branche zieht die Konsequenz: Statt Inhalte nachträglich zu erkennen, dokumentiert man ihre Herkunft bereits bei der Erstellung. Der Fachbegriff dafür ist „Provenance“ – eine nachvollziehbare Herkunftskette.

Ein Bild oder Video erhält dabei einen digitalen Herkunftsnachweis: mit welchem Tool es erstellt wurde, welche Bearbeitungsschritte erfolgten, wer es signiert hat.

Nicht mehr raten, ob etwas künstlich ist. Sondern belegen, wo es herkommt.

Vertrauen wird Infrastruktur

Ein konkretes Beispiel: Die New York Times und mehrere grosse Nachrichtenagenturen arbeiten bereits mit der C2PA-Spezifikation – einem offenen Standard für Inhalts-Signaturen. Bilder aus Krisengebieten erhalten eine überprüfbare Herkunftskette, die Kamera, Redaktion und Bearbeitungsschritte dokumentiert. Plattformen wie LinkedIn beginnen, diese Daten auszulesen und sichtbar zu machen.

Was hier entsteht, wirkt zunächst technisch. Tatsächlich ist es eine neue wirtschaftliche Schicht im Internet.

Herkunftsnachweise funktionieren ähnlich wie das HTTPS-Schloss im Browser. Sie garantieren nicht, dass ein Inhalt wahr ist. Aber sie zeigen, aus welcher Quelle er stammt und ob er verändert wurde.

Vertrauen wird damit plötzlich messbar.

Für Plattformen, Medien und Unternehmen ist das ein strategischer Unterschied. Wer Inhalte mit überprüfbarer Herkunft veröffentlichen kann, signalisiert Verlässlichkeit. Wer das nicht kann, fällt in eine Grauzone – unabhängig von der tatsächlichen Qualität seiner Inhalte.

Plattformen kontrollieren die Sichtbarkeit

Technisch kann heute fast jedes Unternehmen Inhalte signieren oder kennzeichnen.

Die entscheidende Frage ist eine andere: Wird diese Information überhaupt sichtbar?

Die grossen Plattformen – Suchmaschinen, soziale Netzwerke, Videoportale – entscheiden, ob Kennzeichnungen prominent erscheinen oder irgendwo im Interface verschwinden. Einige setzen auf Creator-Disclosure, andere auf automatische Labels, andere auf unsichtbare Wasserzeichen.

Damit verschiebt sich die Kontrolle über Vertrauen zunehmend zu den Plattformen.

Sie bestimmen, welche Herkunftsdaten angezeigt werden. Sie entscheiden, ob ein Label Aufmerksamkeit erzeugt oder im Menü verschwindet. Für Unternehmen entsteht dadurch eine neue Abhängigkeit – nicht nur vom Algorithmus, sondern auch davon, wie Plattformen die Herkunft ihrer Inhalte darstellen.

Authentizität wird zur knappen Ressource

Paradox wirkt zunächst, dass ausgerechnet im Zeitalter unbegrenzt generierbarer Inhalte Authentizität zur knappen Ressource wird.

Doch genau das zeichnet sich ab.

Metadaten gehen in vielen Distributionsprozessen verloren. Wasserzeichen lassen sich teilweise entfernen. Ein grosser Teil des Internets entsteht ausserhalb strukturierter Produktionspipelines.

Damit entsteht eine Zweiteilung des digitalen Raums: Inhalte mit nachvollziehbarer Herkunft – und alles andere.

Das bedeutet nicht automatisch, dass unsignierte Inhalte falsch sind. Aber sie werden schwieriger einzuordnen. Und Plattformen werden Inhalte mit Herkunftsnachweis bevorzugen, weil sie weniger Risiko für Manipulation und Desinformation darstellen.

Regulierung beschleunigt den Wandel

Parallel zur technischen Entwicklung kommt regulatorischer Druck.

Der europäische AI Act verpflichtet Anbieter bestimmter KI-Systeme dazu, KI-generierte Inhalte maschinenlesbar zu kennzeichnen und Deepfakes offenzulegen. Die Regeln gelten ab August 2026.

Kennzeichnung ist damit keine freiwillige Praxis mehr. Sie wird Teil von Compliance, Governance und Risikomanagement.

Unternehmen müssen entscheiden, wie sie ihre Inhalte markieren, wie ihre Produktionsprozesse dokumentiert werden und wie sie mit Plattform-Policies umgehen. Für viele entsteht eine neue Kostenstruktur – aber gleichzeitig ein echter Wettbewerbsvorteil für diejenigen, die früh in Vertrauen investieren.

Was das bedeutet – und was jetzt zu tun ist

Die Debatte über KI konzentriert sich heute stark auf Modelle: bessere Generatoren, realistischere Bilder, überzeugendere Texte. Das ist das falsche Spiel.

Im Hintergrund verschiebt sich gerade eine viel grundlegendere Ebene.

Wer Inhalte erzeugen kann, ist inzwischen fast jeder. Die entscheidende Frage wird sein, wer ihre Herkunft belegen kann.

Für Unternehmen und Marketing-Teams bedeutet das konkret:

Jetzt: Verstehen, welche Content-Produktionsprozesse dokumentierbar sind – und welche nicht.

Kurzfristig: Prüfen, welche Plattformen bereits C2PA oder ähnliche Standards unterstützen, und eigene Workflows darauf ausrichten.

Strategisch: Vertrauen nicht als Soft-Faktor behandeln, sondern als Infrastrukturentscheidung – vergleichbar mit dem Umstieg auf HTTPS vor zehn Jahren.

In einer Welt unendlicher generierter Inhalte wird nicht der Content selbst zur knappen Ressource.

Knapp wird das Vertrauen in seine Herkunft.

Und wer das früh versteht, hat einen Vorsprung, den man nicht so leicht aufholt.

Über den Autor

Rolf Jeger ist Kommunikationsunternehmer mit internationalen Awards, darunter Auszeichnungen in Cannes und New York. Er verbindet strategische Markenführung mit technologischer Expertise und beschäftigt sich seit vielen Jahren mit den Auswirkungen digitaler Entwicklungen auf Unternehmen und Organisationen.
Heute leitet er eine Agentur in Zürich, die Marketing, Technologie und künstliche Intelligenz integriert. Neben seiner Beratungstätigkeit schreibt er Bücher über künstliche Intelligenz und deren Bedeutung für Wirtschaft und Gesellschaft.