
Künstliche Intelligenz (KI) ist längst im Arbeitsalltag angekommen. Unternehmen, Betriebe und Freiberufler nutzen KI-Systeme zur Texterstellung, zur Bildbearbeitung, für Chatbots oder zur Aufbereitung von Informationen. Mit den Vorgaben der KI-Verordnung rücken dabei nicht nur Effizienzfragen, sondern auch Transparenzpflichten in den Fokus. Die KI-Verordnung, also die Verordnung (EU) 2024/1689, ist am 1. August 2024 in Kraft getreten. Die Transparenzpflichten des Art. 50 werden grundsätzlich ab dem 2. August 2026 anwendbar.
Transparenz ist Pflicht – aber nicht pauschal für jeden KI-Text
Rund um den AI Act wird derzeit vielfach verkürzt dargestellt, ab August 2026 müsse jeder KI-generierte Inhalt generell sichtbar gekennzeichnet werden. Das trifft so nicht zu. Art. 50 KI-VO unterscheidet zwischen verschiedenen Konstellationen: der Interaktion mit KI-Systemen, der Kennzeichnung künstlich erzeugter oder manipulierter Inhalte, Deepfakes sowie bestimmten veröffentlichten Texten. Für die Praxis ist daher entscheidend, den jeweiligen Anwendungsfall sauber einzuordnen.
Was Art. 50 KI-Verordnung konkret regelt
Art. 50 verpflichtet Anbieter von KI-Systemen, die unmittelbar mit natürlichen Personen interagieren, dazu, sicherzustellen, dass Nutzer erkennen können, dass sie mit einem KI-System kommunizieren. Das betrifft insbesondere Chatbots oder vergleichbare Assistenzsysteme, sofern nicht ohnehin offensichtlich ist, dass es sich um KI handelt. Die Information muss klar und unterscheidbar spätestens bei der ersten Interaktion oder Wahrnehmung erfolgen.
Daneben verlangt Art. 50, dass Anbieter von KI-Systemen, die synthetische Audio-, Bild-, Video- oder Textinhalte erzeugen, deren Ausgaben in einem maschinenlesbaren Format als künstlich erzeugt oder manipuliert markierbar und erkennbar machen. Die Verordnung verlangt hier nicht in jedem Fall einen für Menschen unmittelbar sichtbaren Hinweis im Text oder Bild selbst, sondern zunächst eine technische Kennzeichnung bzw. Erkennbarkeit.
Zusätzlich enthält Art. 50 besondere Transparenzpflichten für Deepfakes. Wer ein KI-System einsetzt, das Bild-, Audio- oder Videoinhalte erzeugt oder manipuliert und dadurch einen Deepfake erstellt, muss offenlegen, dass der Inhalt künstlich erzeugt oder manipuliert wurde. Für künstlerische, kreative, satirische oder fiktionale Werke sieht die Verordnung eine abgestufte Lösung vor: Dort genügt eine angemessene Offenlegung, die die Wahrnehmung des Werkes nicht unangemessen beeinträchtigt.
Schließlich regelt Art. 50 auch KI-generierte oder KI-manipulierte Texte, die mit dem Ziel veröffentlicht werden, die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren. In diesen Fällen ist offenzulegen, dass der Text künstlich erzeugt oder manipuliert wurde. Gerade hier zeigt sich, dass die KI-Verordnung nicht jede interne Notiz, jede Mandantenkommunikation oder jeden Entwurf pauschal erfasst, sondern auf einen bestimmten Veröffentlichungskontext abstellt. Auch die Europäische Kommission hebt hervor, dass es um „text published with the purpose to inform the public on matters of public interest“ geht.
Wichtige Ausnahme bei menschlicher Prüfung und redaktioneller Verantwortung
Für veröffentlichte KI-generierte Texte enthält Art. 50 KI-VO eine besonders praxisrelevante Ausnahme: Die Offenlegungspflicht entfällt, wenn der KI-generierte Inhalt einem Prozess menschlicher Überprüfung oder redaktioneller Kontrolle unterzogen wurde und eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung trägt. Genau dieser Punkt ist für Unternehmen, Kanzleien, Agenturen und Medienhäuser von erheblicher Bedeutung. Wer KI zur Erstellung oder Bearbeitung von Texten nutzt, sollte deshalb intern klar regeln, wer prüft, wer freigibt und wer die Verantwortung trägt.
Keine pauschale Ausnahme für KMU
Art. 50 enthält mehrere Ausnahmen, etwa für bestimmte gesetzlich zugelassene Konstellationen im Bereich der Strafverfolgung oder bei offensichtlicher KI-Interaktion. Eine allgemeine Ausnahme allein aufgrund der Unternehmensgröße oder des Umsatzes nennt Art. 50 jedoch nicht. Kleine Unternehmen und Betriebe sowie Freiberufler sollten deshalb nicht davon ausgehen, dass Transparenzpflichten für sie pauschal nicht gelten. Maßgeblich bleibt vielmehr die konkrete Nutzung des KI-Systems und der jeweilige Veröffentlichungskontext.
Wie die Kennzeichnung praktisch erfolgen soll
Die KI-Verordnung schreibt keine festen Formulierungen oder ein einheitliches Label vor. Sie verlangt aber, dass die Information klar, unterscheidbar und zugänglich ist. Parallel dazu arbeitet die Europäische Kommission an ergänzenden Leitlinien sowie an einem freiwilligen Code of Practice zur Kennzeichnung und Markierung KI-generierter Inhalte. Nach Angaben der Kommission wurde am 5. März 2026 ein zweiter Entwurf veröffentlicht. Die Finalisierung des Kodex wurde für Anfang Juni 2026 angekündigt.
Bis dahin empfiehlt sich in der Praxis ein risikobasierter und belastbarer Ansatz. Bei Chatbots sollte der Hinweis auf die KI-Nutzung frühzeitig und eindeutig erfolgen. Bei Deepfakes und vergleichbaren realitätsnahen Medieninhalten sollte eine klare Offenlegung vorgesehen werden. Bei veröffentlichten KI-Texten sollte dokumentiert sein, ob eine menschliche Prüfung oder redaktionelle Kontrolle stattgefunden hat und wer die Verantwortung trägt.
Was Unternehmen jetzt tun sollten
Unternehmen sollten ihre KI-Nutzung jetzt systematisch erfassen. Dazu gehört zunächst der Überblick, welche Tools überhaupt eingesetzt werden: etwa für Textentwürfe, Recherchen, Bildgenerierung, Mandantenkommunikation, Marketing oder Website-Interaktionen. Im nächsten Schritt sollten klare interne Regeln festgelegt werden: Wer darf welche Tools einsetzen? Welche Inhalte müssen vor einer Veröffentlichung zwingend menschlich geprüft werden? In welchen Fällen ist eine Transparenzkennzeichnung erforderlich? Und wer trägt die fachliche oder redaktionelle Verantwortung? Diese Fragen sind nicht nur für die Einhaltung des AI Act wichtig, sondern auch für belastbare interne Governance.
Hinzu kommt der datenschutzrechtliche Blick. Werden personenbezogene Daten in KI-Systeme eingegeben oder verarbeitet, sind die Anforderungen der Datenschutz-Grundverordnung (DS-GVO) gesondert zu prüfen. Die Transparenzpflichten des AI Act ersetzen nicht die datenschutzrechtlichen Pflichten, sondern treten neben diese.
Fazit
Ab dem 2. August 2026 gelten mit Artikel 50 der KI-Verordnung konkrete Transparenzpflichten für bestimmte KI-Systeme und bestimmte KI-Inhalte. Für die Praxis ist vor allem eines wichtig: Es gibt keine pauschale Kennzeichnungspflicht für jeden KI-unterstützten Text. Wohl aber bestehen klare Anforderungen bei KI-Interaktionen, bei Deepfakes sowie bei bestimmten veröffentlichten Texten zu Angelegenheiten von öffentlichem Interesse. Unternehmen sollten daher schon jetzt Zuständigkeiten, Freigabeprozesse und Kennzeichnungsregeln festlegen, statt erst kurz vor dem Stichtag zu reagieren.
Sie haben Fragen zur Umsetzung in Ihrem Unternehmen oder suchen praxisnahe Unterstützung im Datenschutz, KI-Governance und Compliance-Management? Wir stehen Ihnen mit Erfahrung und Expertise zur Seite – sprechen Sie uns gerne an: consulting@AdOrgaSolutions.de.
Quellen:
- EUR-Lex – Verordnung (EU) 2024/1689 (KI-Verordnung / AI Act)
https://eur-lex.europa.eu/legal-content/DE/TXT/HTML/?uri=OJ:L_202401689 - Europäische Kommission – AI Act | Shaping Europe’s digital future
https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai - Europäische Kommission – Navigating the AI Act (FAQ)
https://digital-strategy.ec.europa.eu/de/faqs/navigating-ai-act - Europäische Kommission – Code of Practice on marking and labelling of AI-generated content
https://digital-strategy.ec.europa.eu/en/policies/code-practice-ai-generated-content - Europäische Kommission – Commission publishes second draft of Code of Practice on Marking and Labelling of AI-generated content
https://digital-strategy.ec.europa.eu/en/library/commission-publishes-second-draft-code-practice-marking-and-labelling-ai-generated-content - Europäische Kommission – Commission launches work on a code of practice on the marking and labelling of AI-generated content
https://digital-strategy.ec.europa.eu/en/news/commission-launches-work-code-practice-marking-and-labelling-ai-generated-content


