19 Min.

EU AI Act für den Mittelstand 2026: Pflichten, Risikoklassen, Strafen

Jens Hagel
Jens Hagel in IT-Sicherheit

Der EU AI Act ist da — und der August 2026 ist der Stichtag, an dem es für mittelständische Unternehmen ernst wird. Ab dann gelten die Pflichten für Hochrisiko-KI-Systeme. Wer in Hamburg oder Norddeutschland KI einsetzt — Copilot, ChatGPT Business, Power Automate AI oder lokale LLMs — sollte spätestens jetzt prüfen, wo sein Einsatz hinfällt und welche Pflichten daraus folgen. Dieser Leitfaden bringt Geschäftsführer auf den aktuellen Stand 2026, erklärt die vier Risikoklassen, die Bußgelder und liefert eine pragmatische 5-Schritte-Compliance-Roadmap.

Featured Snippet:

Der EU AI Act (Verordnung 2024/1689) ist seit August 2024 in Kraft und reguliert KI-Systeme in der EU nach Risikoklassen. Für den Mittelstand entscheidend: Ab dem 2. August 2026 gelten die Pflichten für Hochrisiko-KI (Anhang III) — etwa Recruiting-KI, Kreditbewertung oder Bildungssoftware. Bußgelder bis 35 Mio. € oder 7 Prozent des weltweiten Umsatzes. AI Literacy ist seit Februar 2025 für alle KI-Nutzer Pflicht.

35 Mio. €
Maximalbußgeld pro Verstoß
2. Aug. 2026
Stichtag Hochrisiko-Pflichten
4 Klassen
Risiko-Kategorien

Inhalt in Kürze

  • Stichtag 2. August 2026: Hochrisiko-KI-Pflichten nach Anhang III greifen — Recruiting, Kreditprüfung, Bildung, kritische Infrastruktur
  • Vier Risikoklassen bestimmen die Pflichten: Unacceptable (verboten), High, Limited, Minimal
  • AI Literacy seit Februar 2025 für alle Unternehmen mit KI-Einsatz Pflicht (Artikel 4)
  • Bußgelder bis 35 Mio. € oder 7 Prozent des weltweiten Umsatzes — orientiert an der DSGVO
  • Mittelstand-Realität: Copilot, ChatGPT, Power Automate AI sind meist Limited Risk — kritisch wird es bei Recruiting-KI und Entscheidungsautomatisierung
  • Compliance-Roadmap in 5 Schritten — von der Inventur über die Risikoklassifizierung bis zur AI-Governance

Was ist der EU AI Act?

Der EU AI Act — offiziell Verordnung (EU) 2024/1689 — ist das weltweit erste umfassende Gesetz zur Regulierung Künstlicher Intelligenz. Er trat am 1. August 2024 in Kraft, wird aber gestaffelt anwendbar. Zweck ist ein einheitlicher Rechtsrahmen für die Entwicklung, das Inverkehrbringen und die Nutzung von KI-Systemen in der EU. Anders als die DSGVO, die personenbezogene Daten schützt, reguliert der AI Act die KI-Systeme selbst — unabhängig davon, ob personenbezogene Daten im Spiel sind.

Der Gesetzgeber verfolgt einen risikobasierten Ansatz: Je gefährlicher ein KI-System für Grundrechte, Sicherheit oder Demokratie sein könnte, desto strenger die Pflichten. KI im Spiele-Filter Ihrer Bürokaffeemaschine? Egal. KI, die entscheidet, wer einen Kredit bekommt oder zum Vorstellungsgespräch eingeladen wird? Strengstens reguliert.

Wichtig zum Verständnis:

Der AI Act gilt für alle, die KI-Systeme in der EU anbieten oder einsetzen — auch wenn das Unternehmen außerhalb der EU sitzt. Wer als Hamburger Mittelständler eine US-amerikanische Recruiting-KI nutzt, ist als Betreiber in der Pflicht. Wer KI nur intern, nicht-kommerziell oder zu rein wissenschaftlichen Zwecken einsetzt, bleibt teilweise außen vor — die genaue Abgrenzung steht in Artikel 2.

Die Zeitachse der Anwendbarkeit ist gestaffelt — und genau hier passieren die meisten Missverständnisse. Viele Unternehmen denken: „Bis 2027 habe ich Zeit.” Stimmt nicht. Mehrere Pflichten gelten bereits jetzt. Andere greifen im August 2026. Die volle Anwendbarkeit kommt erst im August 2027.

Stichtage 2024 bis 2027:

  • 1. August 2024: Inkrafttreten der Verordnung
  • 2. Februar 2025: Verbote der inakzeptablen KI-Praktiken (Artikel 5) + AI Literacy (Artikel 4) sind verbindlich
  • 2. August 2025: Pflichten für General-Purpose AI Models (GPAI) greifen — betrifft OpenAI, Anthropic, Google, Meta als Anbieter
  • 2. August 2026: Pflichten für Hochrisiko-KI nach Anhang III + Governance- und Strafregeln werden anwendbar
  • 2. August 2027: Vollständige Anwendbarkeit, inkl. Hochrisiko-KI in Produktsicherheitsbereichen (Anhang I)

Den vollständigen Verordnungstext finden Sie auf eur-lex.europa.eu{:rel=“noopener nofollow” target=“_blank”} unter Verordnung (EU) 2024/1689. Eine FAQ-Seite mit Code of Practice und Umsetzungshilfen pflegt die EU-Kommission unter digital-strategy.ec.europa.eu{:rel=“noopener nofollow” target=“_blank”}.

Die 4 Risikoklassen 2026

Das Herzstück des AI Act ist die Klassifizierung in vier Risikostufen. Jede Stufe zieht ein eigenes Pflichtenset nach sich. Wer als Geschäftsführer wissen will, was auf ihn zukommt, muss zuerst seine KI-Systeme in diese Klassen einordnen.

RisikoklasseWas ist gemeint?BeispielePflichten
UnacceptableVerboten seit Februar 2025Social Scoring, manipulative KI, biometrische Massenüberwachung, Emotionserkennung am ArbeitsplatzVerbot — Einsatz kostet bis 35 Mio. €
HighStark reguliert ab August 2026KI im Recruiting, Kreditscoring, Bildungsbewertung, kritische Infrastruktur, StrafverfolgungUmfangreiche Dokumentation, Risikomanagement, menschliche Aufsicht, CE-Konformität
LimitedTransparenzpflichtenChatbots, Deepfakes, KI-generierte Inhalte, Emotionserkennungssysteme (nicht am Arbeitsplatz)Nutzer informieren, KI-Inhalte kennzeichnen
MinimalPraktisch keine PflichtenKI-Spamfilter, KI-Empfehlungen im Onlineshop, KI in SpielenKeine spezifischen AI-Act-Pflichten, AI Literacy gilt aber

Unacceptable Risk — das sind die roten Linien. Diese KI-Anwendungen sind in der EU schlicht verboten. Konkret: Sie dürfen kein System einsetzen, das das Verhalten von Personen über unterschwellige Techniken manipuliert (Artikel 5 Abs. 1 lit. a). Sie dürfen keine soziale Bewertung von Personen durch öffentliche Stellen vornehmen. Emotionserkennung am Arbeitsplatz oder in Bildungseinrichtungen ist tabu — mit Ausnahmen für medizinische oder Sicherheitszwecke. Auch das biometrische Kategorisieren nach sensiblen Merkmalen (Religion, politische Überzeugung, sexuelle Orientierung) ist verboten.

High Risk — hier wird es für den Mittelstand relevant. Anhang III listet acht Bereiche, in denen KI als Hochrisiko gilt: Biometrie, kritische Infrastruktur, allgemeine und berufliche Bildung, Beschäftigung und Personalmanagement, Zugang zu wesentlichen privaten und öffentlichen Diensten, Strafverfolgung, Migration und Asyl, Justiz und demokratische Prozesse. Praxisbeispiel: Wer ein KI-Tool nutzt, das Bewerbungen scrennt oder Kandidaten rankt, fällt in Anhang III. Wer KI für die Leistungsbewertung von Mitarbeitenden einsetzt, ebenfalls. Wer eine KI nutzt, die entscheidet, ob ein Kunde einen Kredit oder eine Versicherung bekommt — Hochrisiko.

Falle Recruiting:

Genau hier landen viele Mittelständler ohne es zu merken. Microsoft Copilot ist normalerweise Limited Risk. Sobald Sie Copilot aber nutzen, um Lebensläufe zu bewerten („Welcher Bewerber passt am besten zur Stellenanzeige?"), wechselt der Anwendungsfall in die Hochrisiko-Klasse. Folge: Sie als Betreiber müssen menschliche Aufsicht sicherstellen, eine Folgenabschätzung durchführen, Bewerber informieren — und Microsoft als Anbieter hat Lieferpflichten in Sachen Dokumentation.

Limited Risk — Transparenzpflichten. Wer einen KI-Chatbot auf seiner Website einsetzt, muss Nutzer darüber informieren, dass sie mit einer KI sprechen. Wer KI-generierte Bilder oder Texte veröffentlicht, muss diese als „KI-erzeugt” kennzeichnen. Deepfakes sind besonders heikel — die Kennzeichnungspflicht ist hier streng. Für die meisten Mittelständler heißt das: Bei Chatbots auf Hinweis achten, bei KI-generierten Social-Media-Inhalten kennzeichnen.

Minimal Risk — praktisch alle übrigen KI-Anwendungen. Spamfilter, KI-Empfehlungen, KI-Übersetzungen, Routing-Algorithmen. Hier gibt es keine spezifischen AI-Act-Pflichten — bis auf eine: AI Literacy nach Artikel 4 gilt für jeden Einsatz von KI im Unternehmen, also auch hier.

Welche Pflichten ab August 2026 für den Mittelstand?

Der Stichtag 2. August 2026 trifft den Mittelstand vor allem über drei Pflichtenpakete: Hochrisiko-Pflichten (sofern relevant), AI Literacy (gilt seit Februar 2025, wird verschärft durchgesetzt) und Transparenzpflichten für Limited Risk.

Wenn Sie Anbieter sind — also selbst ein KI-System entwickeln oder unter Ihrem Namen verkaufen — und das System Hochrisiko ist:

  1. Risikomanagementsystem einrichten. Über den gesamten Lebenszyklus des KI-Systems. Risiken identifizieren, bewerten, mindern, dokumentieren. Kein einmaliges Projekt, sondern fortlaufender Prozess.
  2. Datenqualität sicherstellen. Trainings-, Validierungs- und Testdaten müssen relevant, repräsentativ, fehlerfrei und vollständig sein. Bias-Tests dokumentieren. Datenschutzaspekte berücksichtigen.
  3. Technische Dokumentation nach Anhang IV. Architektur, Trainingsverfahren, Leistung, Genauigkeit, Robustheit. Diese Doku muss jederzeit für Aufsichtsbehörden bereitliegen.
  4. Logs aufbewahren. Automatische Aufzeichnungen über die Lebensdauer des Systems — mindestens 6 Monate, oft länger. Zweck: Nachvollziehbarkeit von Entscheidungen.
  5. Menschliche Aufsicht ermöglichen. Das System muss so gestaltet sein, dass ein Mensch eingreifen kann. Override-Funktion, klare Verantwortlichkeiten, Schulung.
  6. Genauigkeit, Robustheit, Cybersicherheit. Das System muss präzise, ausfallsicher und gegen Angriffe geschützt sein. Inklusive Schutz vor Data Poisoning und Model Theft.
  7. Konformitätsbewertung und CE-Kennzeichnung. Vor Inverkehrbringen. EU-Konformitätserklärung erstellen, in EU-Datenbank für Hochrisiko-KI eintragen.

Wenn Sie Betreiber sind — und das werden die meisten Mittelständler in Hamburg sein —, und Hochrisiko-KI einsetzen:

  • Anweisungen des Anbieters befolgen. Sie müssen die Gebrauchsanleitung des KI-Anbieters lesen und einhalten. Klingt trivial, ist es aber nicht — die Anleitungen werden umfangreich.
  • Menschliche Aufsicht sicherstellen. Eine konkrete Person mit Kompetenz und Autorität muss das System überwachen. Nicht delegierbar an „den Praktikanten nebenbei".
  • Inputdaten kontrollieren. Daten, die Sie ins System eingeben, müssen für den Zweck geeignet und repräsentativ sein. Bei Bewerbungsdaten heißt das: keine diskriminierenden Filter.
  • Betroffene informieren. Wenn Hochrisiko-KI Entscheidungen über Personen trifft (Bewerber, Kunden, Mitarbeiter), müssen diese Personen das wissen — und ggf. das Recht auf Erklärung haben.
  • Logs aufbewahren. Mindestens 6 Monate, in vielen Fällen länger. Sie müssen nachweisen können, was das System wann gemacht hat.
  • Datenschutz-Folgenabschätzung (DSFA) erweitern. Zusätzlich zur DSGVO-DSFA verlangt der AI Act bei bestimmten Hochrisiko-Anwendungen eine eigene Fundamental Rights Impact Assessment (FRIA).
  • Vorfälle melden. Schwerwiegende Vorfälle (Fehlentscheidungen mit erheblichen Folgen, Datenlecks aus KI-Systemen) sind binnen 15 Tagen an die zuständige Aufsichtsbehörde zu melden.

Für alle — auch bei Limited und Minimal Risk:

  • AI Literacy (Artikel 4): Sie müssen sicherstellen, dass Ihre Mitarbeitenden, die mit KI arbeiten, ein angemessenes Verständnis haben. Pflicht seit Februar 2025. Dokumentation der Schulungen empfohlen.
  • Transparenz bei Limited Risk: Chatbot-Hinweise, Deepfake-Kennzeichnung, Kennzeichnung KI-generierter Inhalte.
Praxis-Tipp:

Beginnen Sie mit einer einfachen KI-Inventur: Welche KI-Tools sind im Unternehmen im Einsatz? Wer nutzt sie wofür? Welche Daten gehen rein, welche Entscheidungen kommen raus? Erst danach klassifizieren Sie nach Risikostufen. Erfahrungsgemäß stellen 80 Prozent der Mittelständler fest, dass sie zu 95 Prozent Limited oder Minimal Risk haben — und nur 1-2 konkrete Hochrisiko-Anwendungen genauer ansehen müssen. Wer dabei systematisch vorgehen will, kombiniert die Inventur mit der ISMS-Bestandsaufnahme aus der NIS-2 Beratung Hamburg.

Mittelstands-Realität: Welche KI-Tools fallen wohin?

Theorie ist das eine — die konkrete Frage „Was bedeutet das für meinen Copilot?” das andere. Hier eine pragmatische Einordnung der KI-Tools, die in der Hamburger Mittelstandspraxis am häufigsten auftauchen.

Microsoft Copilot (Microsoft 365 Copilot, Copilot für Excel/Word/Outlook): Im Standardeinsatz Limited Risk. Mitarbeitende schreiben Texte, fassen Mails zusammen, erstellen Präsentationen. Pflichten: AI Literacy schulen, intern transparent machen, dass Copilot eingesetzt wird, KI-generierte Inhalte ggf. kennzeichnen. Microsoft als Anbieter des zugrundeliegenden GPAI-Modells erfüllt die GPAI-Pflichten seit August 2025. Wer tiefer einsteigen will, findet praktische Anwendungsfälle in unserem Beitrag 4 Möglichkeiten für kleine Unternehmen, Copilot für Microsoft 365 zu nutzen{:title=“Konkrete Copilot-Einsatzszenarien für KMU — von Mail-Zusammenfassung bis Excel-Auswertung”}.

ChatGPT Business / ChatGPT Enterprise: Wie Copilot in den meisten Fällen Limited Risk. Wichtig: Die Business- und Enterprise-Versionen sind die DSGVO-konformere Variante — Daten werden nicht für Modelltraining genutzt, EU-Hosting möglich. AI Act ändert daran nichts, aber der saubere DSGVO-Vertrag erleichtert die Compliance erheblich. Pflichten: AI Literacy, Transparenz, ggf. Kennzeichnung.

Power Automate AI / Power Platform AI Builder: Hängt vom Anwendungsfall ab. Workflow-Automatisierung („KI extrahiert Rechnungsdaten aus PDFs”) ist meist Limited oder Minimal Risk. Sobald die KI aber autonom Entscheidungen über Personen trifft (Genehmigung von Anträgen, Klassifizierung von Kunden), kann es Richtung Hochrisiko gehen. Beispiel für sauberen Einsatz: KI extrahiert, Mensch genehmigt — bleibt Limited Risk.

Lokale LLMs (Llama 3.3, Qwen, Mistral) on-premise: Das eingesetzte Modell selbst ist neutral. Risikoklasse bestimmt sich am Anwendungsfall, nicht am Modell. Vorteil lokaler Modelle: Sie sind selbst die datenverarbeitende Stelle, keine Drittlandsübermittlung in die USA. Das vereinfacht DSGVO-Themen erheblich und gibt Ihnen Kontrolle über Logs und Updates — was die AI-Act-Dokumentation erleichtert. Nachteil: technischer Aufwand. Wer das ernsthaft prüft, sollte vorab unsere KI-Entscheidungsfindung 2026{:title=“Wann KI-gestützte Entscheidungsfindung für Geschäftsführer sinnvoll ist — Use Cases und Grenzen”} lesen.

KI-Recruiting-Tools (Personio Smart Match, HireVue, Eightfold etc.): Klassisches Hochrisiko-Beispiel nach Anhang III. Wer solche Tools einsetzt, muss ab August 2026 die volle Betreiberpflicht erfüllen: menschliche Aufsicht, Folgenabschätzung, Bewerber-Information, Logs, Anbieter-Anweisungen befolgen. Empfehlung: vor einem Kauf prüfen, ob der Anbieter CE-Konformität nachweisen kann.

KI-Buchhaltung (DATEV Smart, sevDesk KI, Lexware AI): Meist Limited Risk, weil die KI Vorschläge macht und ein Mensch genehmigt. Kritisch wird es nur, wenn die KI ohne menschliche Aufsicht final entscheidet — das ist in der Buchhaltung praktisch nie der Fall.

KI-Chatbots auf der eigenen Website: Limited Risk. Pflicht: deutlicher Hinweis, dass es sich um einen Bot handelt. Wer den Chatbot zusätzlich für Kreditprüfung oder Vertragsabschluss nutzt, kann in Hochrisiko rutschen.

KI-Bildgenerierung (DALL-E, Midjourney, Stable Diffusion): Limited Risk mit Transparenzpflicht. KI-generierte Bilder müssen erkennbar sein — etwa durch Metadaten, sichtbare Kennzeichnung oder Hinweis im Begleittext.

Die meisten Mittelständler in Hamburg, die wir betreuen, haben 5 bis 15 KI-Tools im Einsatz — und 90 Prozent davon sind harmlos. Das eine kritische Tool — meist ein Recruiting-Helper oder eine Bonitätsprüfung — finden wir in einer Stunde. Genau dort muss dann sauber dokumentiert werden, nicht überall.

Jens Hagel Jens HagelGeschäftsführer, hagel IT-Services GmbH

Bußgelder und Haftung

Die Bußgelder orientieren sich an der DSGVO und sind in drei Stufen organisiert. Anders als die DSGVO unterscheidet der AI Act allerdings stärker nach Schwere des Verstoßes.

Stufe 1 — Verbotene KI (Artikel 5): Bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes des Vorjahres — je nachdem, was höher ist. Diese Stufe greift, wenn Sie eine verbotene KI-Anwendung einsetzen oder anbieten. Praxisrelevanz für den Mittelstand: gering, weil verbotene Praktiken (Social Scoring, Emotionserkennung am Arbeitsplatz) selten sind. Aber: Wer Kameras mit Emotionserkennung in Großraumbüros einsetzt, ist in der gefährlichen Zone.

Stufe 2 — Verstöße gegen Pflichten für Anbieter und Betreiber: Bis zu 15 Millionen Euro oder 3 Prozent des weltweiten Jahresumsatzes. Hier landen die meisten realistischen Verstöße: fehlende Dokumentation bei Hochrisiko-KI, keine menschliche Aufsicht, Verletzung der Transparenzpflicht, fehlende AI Literacy bei Mitarbeitenden, kein Risikomanagement.

Stufe 3 — Falsche oder unvollständige Informationen an Behörden: Bis zu 7,5 Millionen Euro oder 1 Prozent des weltweiten Jahresumsatzes. Greift, wenn Sie auf Anfrage der Aufsichtsbehörde lückenhafte oder unzutreffende Auskünfte geben.

KMU-Verhältnismäßigkeit:

Artikel 99 Abs. 6 verlangt von Mitgliedstaaten und Aufsichtsbehörden, die Größe und Marktposition der Unternehmen zu berücksichtigen. Praktisch bedeutet das: KMU und Startups werden voraussichtlich nicht die volle Höchststrafe erhalten, aber Strafen sind nicht ausgeschlossen. Wer fahrlässig Hochrisiko-KI ohne Dokumentation einsetzt, riskiert Beträge im sechsstelligen Bereich.

Aufsichtsbehörde in Deutschland: Stand Mai 2026 wird voraussichtlich die Bundesnetzagentur die zentrale Aufsicht übernehmen. Daneben behalten BSI (für IT-Sicherheitsaspekte), BfDI (für DSGVO-Schnittstellen) und Marktüberwachungsbehörden der Länder eigene Zuständigkeiten. Die finale Behördenstruktur klärt das deutsche Umsetzungsgesetz, das bis August 2026 vorliegen muss.

Haftung der Geschäftsführung: Anders als bei NIS-2 ist die persönliche Haftung der Geschäftsführer im AI Act nicht direkt geregelt. Aber: Wer als Geschäftsführer KI einsetzt und gegen den AI Act verstößt, riskiert Schadensersatzforderungen geschädigter Personen (Bewerber, Kunden), Bußgelder gegen das Unternehmen — und in Extremfällen organisationale Haftung nach § 130 OWiG, wenn Aufsichtspflichten vernachlässigt wurden. Wer KI als Geschäftsführer einsetzt und nicht dokumentiert, dass er sich gekümmert hat, hat ein Problem.

Compliance-Roadmap in 5 Schritten

Statt in Panik zu verfallen, hilft ein pragmatischer Fahrplan. Diese fünf Schritte führen den Mittelständler bis August 2026 ans Ziel — ohne Großkonzern-Aufwand. Wer parallel den produktiven Einsatz von Copilot, ChatGPT & Co. sauber aufsetzen will, findet die Geschäftsführer-Sicht im Praxis-Leitfaden KI im Mittelstand 2026.

  1. KI-Inventur durchführen. Wer nutzt welche KI wofür? Liste aller Tools, Anwendungsfälle, beteiligten Daten, eingebundenen Mitarbeitenden. Schatten-KI nicht vergessen: ChatGPT-Privataccounts, kostenlose Browser-Plug-ins, KI-Funktionen in bestehenden SaaS-Tools.
  2. Risikoklassifizierung. Jede KI-Anwendung den 4 Risikoklassen zuordnen. Bei Unsicherheit lieber höher klassifizieren als zu niedrig. Hochrisiko-Anwendungen markieren — das sind Ihre Sorgenkinder.
  3. AI Literacy umsetzen. 2-stündige Schulung für alle KI-Nutzer (Basics: Funktionsweise, Grenzen, Datenschutz, Bias, sicherer Umgang). Dokumentation der Teilnahme. Wiederholung mindestens jährlich. Integration in bestehende Awareness-Programme (Phishing, NIS-2, DSGVO).
  4. Hochrisiko-KI sauber dokumentieren. Für jede Hochrisiko-Anwendung: technische Dokumentation, menschliche Aufsicht definieren, Folgenabschätzung durchführen, Betroffene informieren, Logs einrichten, Anbieter-Konformität prüfen. Hier liegt der Hauptaufwand — aber nur für die wenigen kritischen Anwendungen.
  5. AI Governance etablieren. Verantwortliche Person benennen (oft kombiniert mit Datenschutz- und Informationssicherheitsbeauftragten). Prozess für die Einführung neuer KI-Tools (Risikobewertung vor Roll-out). Prozess für Vorfälle und Meldungen. Jährlicher Review.
Verzahnung mit NIS-2 und DSGVO:

Wer NIS-2-Compliance umsetzt, hat 50 Prozent der AI-Act-Pflichten bereits abgedeckt: Risikomanagement, Dokumentation, Logging, Schulungen, Vorfallsmeldung. Wer einen Datenschutzbeauftragten hat, kann ihn als zentralen Ansprechpartner für AI Act einsetzen — die Themen überschneiden sich stark. Empfehlung: Die drei Regelwerke in einem integrierten Compliance-Programm bündeln, nicht in drei isolierten Projekten.

Realistischer Zeitbedarf für einen Mittelständler mit 30-50 Mitarbeitern:

  • Inventur + Klassifizierung: 2-4 Tage (intern oder mit externer Begleitung)
  • AI Literacy einführen: 4 Wochen für Schulungskonzept + Roll-out
  • Hochrisiko-Dokumentation: 5-10 Personentage pro Anwendung (oft externe Unterstützung)
  • Governance aufsetzen: 1-2 Wochen für Prozesse und Rollen

Wer im Mai 2026 anfängt, ist bis August 2026 fertig — ohne Hektik. Wer im Juli 2026 anfängt, lebt eine Weile im Risiko.

Ihre KI-Compliance braucht einen Sparringspartner?

15 Minuten. Kostenlos. Wir schauen mit Ihnen auf Ihre KI-Tools — und sagen ehrlich, wo Sie stehen.

Erstgespräch buchen →

Aus der Hamburger Praxis

In Gesprächen mit Geschäftsführern in Hamburg und Umland kristallisieren sich vier typische Ausgangslagen heraus.

Der vorsichtige Skeptiker. Bisher noch kein KI-Einsatz. Hat Berührungsängste wegen Datenschutz und Compliance. Empfehlung: Mit kontrollierten Pilotanwendungen starten (Copilot in der Buchhaltung, ChatGPT für Marketing-Texte). AI Literacy aufbauen, parallel Governance entwickeln. So entsteht Sicherheit ohne Stillstand.

Der heimliche Anwender. KI ist bereits im Einsatz — aber dezentral und undokumentiert. Mitarbeitende nutzen ChatGPT privat im Browser, Marketing experimentiert mit Midjourney, der Vertrieb hat sich eine KI-Lead-Bewertung gebaut. Risiko: unkontrollierte Schatten-IT. Empfehlung: Inventur, klare Richtlinien, freigegebene Werkzeuge, AI Literacy.

Der ambitionierte Optimierer. KI ist Teil der Strategie. Copilot überall, eigene RAG-Anwendung mit den Firmenbestandsdaten, Power Automate AI für Workflows. Aber: Dokumentation hinkt hinterher, Hochrisiko-Anwendungen sind nicht sauber klassifiziert. Empfehlung: AI-Act-Audit, Hochrisiko-Anwendungen identifizieren, sauber dokumentieren, Governance verfestigen.

Der ungewollte Hochrisiko-Anwender. Setzt KI im Recruiting oder in der Kundenbewertung ein, oft ohne zu wissen, dass das Hochrisiko nach Anhang III ist. Hier ist der Handlungsdruck am höchsten — bis August 2026 muss die Dokumentation stehen, sonst drohen Bußgelder.

In allen vier Konstellationen ist die Lösung dieselbe: Erst Klarheit schaffen, dann handeln. Wer ein verlässliches IT-Fundament hat — etwa über einen Managed-IT-Vertrag{:title=“Managed IT Hamburg — IT-Betrieb zum Festpreis mit Monitoring, Patch-Management und Helpdesk”} — bekommt die meisten technischen Voraussetzungen (Logging, Identitätsmanagement, Patch-Stand, Backup) schon mitgeliefert. Was bleibt, sind Klassifizierung, Dokumentation und Governance — und genau das deckt eine fokussierte AI-Act-Beratung{:title=“Co-Managed IT — externe IT-Expertise als Ergänzung zum internen IT-Team”} ab.

Die meisten Mittelständler unterschätzen den AI Act, weil das Wort „Künstliche Intelligenz" so groß klingt. In der Praxis ist es ein überschaubares Compliance-Thema — wenn man früh anfängt und sich nicht von Anhang III erschlagen lässt. Wer im Mai 2026 startet, ist im August fertig.

Jens Hagel Jens HagelGeschäftsführer, hagel IT-Services GmbH

Wie sich AI Act, NIS-2 und DSGVO ergänzen

Drei Regelwerke, eine integrierte Compliance — so lautet die pragmatische Antwort für den Mittelstand. Die drei Verordnungen überlappen in vielen Punkten, aber jede setzt einen anderen Schwerpunkt.

DSGVO schützt personenbezogene Daten. Greift, sobald KI mit Namen, Mails, Bewerberinformationen, Kundendaten arbeitet. Pflichten: Rechtsgrundlage, Zweckbindung, Datenminimierung, Betroffenenrechte, Datenschutz-Folgenabschätzung. Wer KI nutzt, braucht praktisch immer einen sauberen DSGVO-Rahmen.

NIS-2 schützt die Sicherheit von Netz- und Informationssystemen in kritischen Sektoren und im Mittelstand. Greift bei Cybersicherheit, Risikomanagement, Incident Response, Lieferkettensicherheit. KI-Systeme sind Teil der zu schützenden IT — wer NIS-2 umsetzt, schützt automatisch auch seine KI-Infrastruktur. Details und Praxisleitfaden in der NIS-2 Beratung Hamburg{:title=“NIS-2 Beratung Hamburg — Compliance-Beratung mit Festpreis, Geschäftsführer-Schulung und Audit-Vorbereitung”}.

AI Act schützt vor Risiken der KI selbst. Greift unabhängig davon, ob personenbezogene Daten betroffen sind. Pflichten: Risikoklassifizierung, Dokumentation, menschliche Aufsicht, Transparenz, AI Literacy. Wer alle drei Regelwerke einzeln aufzieht, vergeudet Ressourcen.

Integrierter Compliance-Stack:

Wir empfehlen Mittelständlern in Hamburg, einen kombinierten Compliance-Stack aufzusetzen: ein zentrales Risikoregister, ein integriertes Schulungsprogramm (DSGVO + NIS-2 + AI Literacy), ein gemeinsamer Verantwortlicher (oft der externe Datenschutzbeauftragte), ein gemeinsamer Vorfallprozess. So sparen Sie 40-60 Prozent Aufwand gegenüber drei isolierten Projekten.

Was Sie diese Woche tun sollten

Sie haben den Artikel bis hierher gelesen. Konkret nächste Schritte:

  1. Diese Woche: KI-Inventur intern starten. Fragen Sie Geschäftsführungsteam, IT, Marketing, Personal: „Welche KI nutzt ihr aktuell?” Erste Liste in 1-2 Stunden möglich.
  2. In den nächsten 4 Wochen: Risikoklassifizierung. Welche der gelisteten Anwendungen sind Hochrisiko nach Anhang III? Bei Unsicherheit Rat einholen.
  3. Bis Juli 2026: AI Literacy schulen, Hochrisiko-Anwendungen dokumentieren, Governance etablieren.
  4. August 2026: Compliant sein — und mit ruhigem Gewissen weiter KI einsetzen.
Das Wichtigste: Der EU AI Act ist kein Verbotsregime, sondern ein Risikomanagement-Rahmen. Für 90 Prozent der KI-Anwendungen im Mittelstand bedeutet das: AI Literacy, Transparenz, gesunde Governance. Für die wenigen Hochrisiko-Anwendungen — meist Recruiting und Bonitätsprüfung — heißt es: sauber dokumentieren und überwachen. Wer jetzt anfängt, ist im August 2026 entspannt. Wer wartet, riskiert Bußgelder bis 35 Mio. €.

Offizielle Quellen und Lesetipps

  • EU-Verordnungstext: eur-lex.europa.eu/eli/reg/2024/1689{:rel=“noopener nofollow” target=“_blank”} — Verordnung (EU) 2024/1689 im Volltext.
  • EU-Kommission Übersicht: digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai{:rel=“noopener nofollow” target=“_blank”} — FAQ, Zeitplan, Code of Practice.
  • BSI Orientierung: bsi.bund.de{:rel=“noopener nofollow” target=“_blank”} — KI-Sicherheit, Verzahnung mit NIS-2.
  • Bitkom Leitfaden EU AI Act: bitkom.org{:rel=“noopener nofollow” target=“_blank”} — praxisnah und KMU-tauglich.
  • DIHK-Stellungnahme: dihk.de{:rel=“noopener nofollow” target=“_blank”} — Mittelstandsperspektive, Umsetzungshilfen.
  • AI Pact der EU-Kommission: Freiwillige Selbstverpflichtungen und Best Practices der Industrie.

Wer tiefer in KI-Themen einsteigen will, findet weiterführende Beiträge in unserem Blog: KI deaktivieren in Windows 11, Edge & Chrome{:title=“Anleitung zum gezielten Deaktivieren von KI-Funktionen in Microsoft- und Google-Produkten”} (für alle, die selektiv aussteigen wollen), KI und Big Data im Mittelstand{:title=“KI und Big Data im Mittelstand — Datenstrategie, Tools und realistische Use Cases”} (für Datenstrategie) und KI-gestützte Kundenanalyse für KMU 2026{:title=“KI-Kundenanalyse für KMU — Tools, Datenschutz, konkrete Vorgehensweise”} (für Vertrieb).

Ihr nächster Schritt

Sie wissen jetzt, wohin Ihre KI-Tools fallen — oder zumindest, wo Sie genauer hinschauen müssen. Was fehlt, ist die Hand am Steuer.

Sprechen Sie mit uns. 15 Minuten, kostenlos, ohne Vertriebsdruck. Wir schauen mit Ihnen auf Ihre KI-Landschaft und sagen Ihnen ehrlich: Wo sind Sie schon AI-Act-konform? Wo nicht? Was sind die nächsten 3 Schritte?

Wir sind seit über 20 Jahren IT-Dienstleister in Hamburg. Wir kennen die Realität mittelständischer Geschäftsführung — und wir bauen Compliance-Lösungen, die in Ihren Alltag passen. Keine Großkonzern-Bürokratie, sondern pragmatische Umsetzung mit Festpreis.

Ein kurzer Anruf reicht. Wir freuen uns auf Ihre Nachricht.

Jens Hagel
Gründer & Geschäftsführer, hagel IT-Services GmbH

Seit 2004 begleite ich Hamburger Unternehmen bei der IT-Modernisierung. Microsoft Solutions Partner, WatchGuard Gold Partner, ausgezeichnet als Deutschlands bester IT-Dienstleister 2026 (Brand eins/Statista). Wenn Sie IT-Fragen haben, bin ich direkt erreichbar.

Thorsten Eckel

«Mit Hagel IT haben wir einen erfahrenen Partner, auf den wir uns jederzeit zu 100 % verlassen können.»

Thorsten Eckel
Geschäftsführer · Hanse Service
Deutschlands beste IT-Dienstleister 2026 — brand eins / Statista
Bester IT-Dienstleister
2026 — brand eins / Statista
Fallstudie · Software
IT-Sicherheit für Kleinunternehmen Hamburg: Schluss mit „Bastel-Lösungen“
Ausgezeichnete Bewertung
Basierend auf 46 Bewertungen

„Wir arbeiten seit einiger Zeit mit hagel IT zusammen und sind absolut zufrieden. Das Team ist kompetent, freundlich und immer schnell zur Stelle, wenn Hilfe gebraucht wird. Besonders schätzen wir die individuelle Beratung, den zuverlässigen Support und die modernen IT-Lösungen, die perfekt auf unsere Bedürfnisse abgestimmt sind. Ein rundum professioneller Partner, den wir uneingeschränkt weiterempfehlen können!"

Robin Koppelmann
Kostenlos & unverbindlich

Wie sicher ist Ihre IT wirklich?

Kostenloser Security-Check in 15 Minuten — wir zeigen Ihnen, wo Ihre Lücken sind.

Häufig gestellte Fragen

Der EU AI Act ist seit dem 1. August 2024 in Kraft, wird aber gestaffelt anwendbar. Seit Februar 2025 gelten die Verbote für inakzeptable KI-Praktiken (Social Scoring, Emotionserkennung am Arbeitsplatz, biometrische Massenüberwachung). Seit August 2025 sind die Pflichten für Anbieter von General-Purpose AI Models (GPAI) wie GPT-5 oder Claude wirksam. Der für den Mittelstand entscheidende Stichtag ist der 2. August 2026: Ab dann greifen die Pflichten für Hochrisiko-KI-Systeme nach Anhang III — etwa beim Einsatz von KI im Recruiting, in der Kreditwürdigkeitsprüfung oder im Bildungswesen. Komplett anwendbar ist die Verordnung am 2. August 2027.

Ja, wenn Sie KI einsetzen — unabhängig von der Unternehmensgröße. Der EU AI Act kennt keine Mittelstandsausnahme. Die Pflichten richten sich nach dem Risiko des konkreten Einsatzes, nicht nach Mitarbeiterzahl oder Umsatz. Wer Microsoft Copilot zur Textgenerierung nutzt, fällt in die Klasse 'minimales Risiko' und hat fast keine Pflichten. Wer aber KI im Recruiting (Lebenslauf-Screening), bei der Kreditvergabe oder in sicherheitskritischen Prozessen einsetzt, landet schnell in der Hochrisiko-Klasse mit umfangreichen Dokumentations- und Aufsichtspflichten. Mindestpflicht für alle ab Februar 2026: AI Literacy — Ihre Mitarbeitenden müssen geschult sein, KI kompetent einzusetzen.

Die Bußgelder sind drastisch und an der DSGVO orientiert. Drei Stufen: Bei Einsatz verbotener KI-Praktiken (Social Scoring, manipulative Systeme) drohen bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes — je nachdem, was höher ist. Bei Verstößen gegen Hochrisiko-Pflichten sind es bis zu 15 Millionen Euro oder 3 Prozent des Umsatzes. Falsche oder unvollständige Auskünfte gegenüber Behörden kosten bis zu 7,5 Millionen Euro oder 1 Prozent des Umsatzes. Für KMU und Startups gibt es eine Verhältnismäßigkeitsregel — die Strafen können niedriger ausfallen, sind aber nicht ausgeschlossen. Zuständige Behörde in Deutschland wird voraussichtlich die Bundesnetzagentur.

Microsoft Copilot ist ein klassisches Beispiel für 'limited risk' KI — die Anwendung selbst ist im Normalfall nicht hochrisiko. Aber: Copilot basiert auf einem General-Purpose AI Model (GPT-5), und für dieses Modell gelten seit August 2025 GPAI-Pflichten, die Microsoft als Anbieter erfüllen muss. Für Sie als Anwender gelten Transparenzpflichten: Mitarbeitende müssen wissen, dass sie mit einer KI interagieren, und KI-generierte Inhalte (Texte, Bilder) sollten als solche kennzeichenbar sein. Wenn Sie Copilot allerdings für Hochrisiko-Anwendungsfälle nutzen — etwa zur Vorauswahl von Bewerbungen — wechseln Sie in die Hochrisiko-Klasse und müssen die entsprechenden Pflichten erfüllen.

AI Literacy ist seit dem 2. Februar 2025 für alle Anbieter und Betreiber von KI-Systemen Pflicht (Artikel 4 AI Act). Vereinfacht: Jedes Unternehmen, das KI einsetzt, muss sicherstellen, dass die damit arbeitenden Personen ein angemessenes Verständnis haben — Funktionsweise, Grenzen, Risiken, Datenschutz. Das gilt für interne Mitarbeitende ebenso wie für externe Dienstleister, die KI in Ihrem Auftrag bedienen. Ein zweistündiger Workshop pro Jahr reicht für Standardanwendungen wie Copilot oder ChatGPT in der Regel aus. Wer KI in Hochrisiko-Bereichen einsetzt, braucht tiefere Schulungen mit Nachweis. Empfehlung: AI-Literacy-Schulungen in das bestehende Awareness-Programm integrieren — gemeinsam mit NIS-2 und DSGVO.

Beide Regelwerke gelten parallel und ergänzen sich, regulieren aber unterschiedliche Aspekte. Die DSGVO schützt personenbezogene Daten — sobald KI mit Namen, Mails, Bewerberinformationen arbeitet, greift sie. Der EU AI Act reguliert dagegen die KI-Systeme selbst, unabhängig davon, ob personenbezogene Daten verarbeitet werden. Konkret: Ein KI-Recruiting-Tool fällt unter beides. DSGVO regelt, wie die Bewerberdaten verarbeitet werden dürfen (Einwilligung, Zweckbindung, Löschung). AI Act regelt, wie das KI-System gebaut, dokumentiert und überwacht werden muss (Bias-Vermeidung, menschliche Aufsicht, Transparenz). Wer einen externen Datenschutzbeauftragten hat, sollte ihn früh in die AI-Act-Compliance einbinden — die Themen überschneiden sich stark.

Anhang IV des AI Act listet die technische Dokumentation auf — und sie ist umfangreich. Sie brauchen: eine allgemeine Beschreibung des Systems (Zweck, Versionen, Schnittstellen), detaillierte Architektur- und Trainingsinformationen (welche Daten, wie aufbereitet, welche Bias-Tests), Risikomanagement (was kann schiefgehen, welche Maßnahmen mindern das), menschliche Aufsicht (wie greift ein Mensch ein, wenn die KI Mist macht), Performance- und Genauigkeitsangaben (wie gut ist das System, wann ist es falsch). Plus: Sie müssen Logs aufbewahren, eine CE-Kennzeichnung anbringen, eine EU-Konformitätserklärung ausstellen und sich in der EU-Datenbank für Hochrisiko-KI registrieren. Klingt nach Großkonzern? Ist es auch — deshalb Hochrisiko-KI nur einsetzen, wo wirklich nötig.

Lokale LLMs umgehen den AI Act nicht, aber sie reduzieren Komplexität in zwei Bereichen erheblich. Erstens DSGVO: Wenn das Modell on-premise oder in einem deutschen Rechenzentrum läuft, sind Sie als Verantwortlicher selbst die Datenverarbeitungsstelle — keine US-Drittlandsübermittlung, keine GPAI-Anbieterpflichten Dritter. Zweitens AI-Act: Die Risikoklasse bestimmt sich am Anwendungsfall, nicht am Modell. Llama 3.3 in einem internen Wissensmanagement-Bot ist 'limited risk', genauso wie GPT-5 in derselben Anwendung. Vorteil lokaler Modelle: Sie behalten Kontrolle über Updates, Logs und Trainingsdaten — was die Dokumentation erleichtert. Nachteil: technischer Betrieb, Hardware-Kosten (eine sinnvolle Inferenz-Maschine startet bei rund 15.000 Euro), laufende Pflege.

Diese Unterscheidung ist zentral, weil die Pflichten unterschiedlich sind. Anbieter ist, wer ein KI-System entwickelt oder unter seinem Namen in Verkehr bringt — also OpenAI, Anthropic, Microsoft, Google oder ein Hamburger Softwarehaus, das ein eigenes KI-Produkt verkauft. Betreiber (im Englischen 'deployer') ist, wer KI in eigenem Namen einsetzt — also die meisten Mittelständler, die Copilot, ChatGPT oder eine Recruiting-KI nutzen. Anbieter haben die Hauptlast: technische Dokumentation, Konformitätsbewertung, Post-Market-Monitoring. Betreiber haben deutlich weniger Pflichten, aber müssen Anweisungen befolgen, menschliche Aufsicht sicherstellen, bei Hochrisiko-KI Folgenabschätzungen durchführen und Betroffene informieren. Achtung: Wenn Sie ein KI-System wesentlich verändern oder unter Ihrem Namen weiterverkaufen, werden Sie selbst zum Anbieter — und alle Anbieterpflichten greifen.

Der vollständige Verordnungstext ist auf eur-lex.europa.eu unter Verordnung (EU) 2024/1689 abrufbar — die Originalfassung in 24 Amtssprachen. Die EU-Kommission betreibt eine Übersichtsseite unter digital-strategy.ec.europa.eu mit FAQ, Zeitplan und Code-of-Practice-Dokumenten. In Deutschland liefert das BSI auf bsi.bund.de Orientierungshilfen zur Umsetzung, insbesondere zur Verzahnung mit NIS-2 und IT-Grundschutz. Praxisnah und KMU-tauglich ist der Bitkom-Leitfaden 'EU AI Act' auf bitkom.org. Die IHK Hamburg und der DIHK haben Stellungnahmen und Umsetzungshilfen veröffentlicht (ihk.de). Wer es technisch will: Das AI Pact der EU-Kommission sammelt freiwillige Selbstverpflichtungen und Best Practices der Industrie.