Blog

EU AI Act: Compliance und Transparenz mit AWS umsetzen

Der EU AI Act verändert den Umgang mit KI. Unternehmen können die Vorgaben mit AWS-Services wie Bedrock und SageMaker pragmatisch umsetzen.
24. September 2025
Picture of Artur Schneider
Artur Schneider

AWS Consultant

Montag, 08:12 Uhr. Der Slack‑Channel „Go-live“ explodiert. Der HR‑Bot soll heute auf die Startseite. „Dürfen wir das noch? Der EU AI Act ist doch jetzt scharf“, schreibt Legal. Fünf Minuten später meldet sich die Produktion: „Unser Visionsmodell macht plötzlich mehr False Positives. Müssen wir einen Incident melden?“ Und Marketing fragt an, ob die KI-generierten Bilder in der Herbstkampagne gekennzeichnet werden müssen.

Diese Szenen erleben wir gerade jede Woche. Der Punkt ist: Der EU AI Act will Innovation nicht bremsen. Er will, dass wir belegen können, was wir tun, und dort Grenzen setzen, wo Grundrechte berührt werden. Das ist kein Papierkrieg, sondern eine Einladung, KI wie ein Produkt im Regelbetrieb zu führen: Zweck klar, Daten im Griff, Risiken gemanagt, Qualität messbar.

Die gute Nachricht: Das ist machbar. Aber nur, wenn Teams Transparenz als UX-Feature begreifen – also ehrlich kommunizieren, dass KI antwortet, und entsprechende Quellen nennen –, eine Evidenzkette vom Datensatz bis zur Entscheidung aufbauen und Monitoring nicht nur auf „läuft“ schaut, sondern ebenso auf Qualität, Drift und Sicherheit. Genau dafür ist der Act nützlich: Er macht KI für Produkt, Recht und Betrieb vorhersagbar.

Was das Gesetz wirklich will (ohne Juristenkauderwelsch)

Die EU setzt auf einen risikobasierten Ansatz. Nicht jede KI ist gleich riskant: Ein Website-Chatbot ist etwas anderes als eine Kreditentscheidung. Deshalb unterscheiden sich die Pflichten je nach Einsatzgebiet und reichen von klaren Verboten (z. B. Social Scoring) über Transparenzpflichten bei „begrenztem Risiko“ bis hin zu den umfangreichen Anforderungen an Hochrisikosysteme.

Was ist tabu? Praktiken, die Grundrechte strukturell verletzen, etwa „untargeted“ Massenscraping von Gesichtern zur Datenbankbildung, biometrische Kategorisierung sensibler Merkmale oder Social Scoring durch Behörden. Ebenfalls stark begrenzt sind emotionserkennende Systeme in Schulen und am Arbeitsplatz. Damit zieht der Act dort eine rote Linie, wo Machtasymmetrien besonders groß sind.

Was bedeutet „gering/begrenztes Risiko“? Viele Alltagsassistenten. Hier verlangt der Act vor allem Transparenz: Nutzer*innen müssen erkennen können, dass sie mit einer KI interagieren, und synthetische Medien sollen klar als solche gekennzeichnet sein. Zudem muss es einen einfachen Eskalationspfad geben, um Kund*innen bei Problemen oder Unsicherheiten an einen menschlichen Agenten weiterzuleiten.

Wo beginnt Hochrisiko? In Domänen, in denen KI über Zugang zu Chancen, Rechten oder Sicherheit mitentscheidet, z. B. Bildung/Prüfung, Beschäftigung/Recruiting, Kredit/Versicherung, kritische Infrastrukturen oder Recht/Verwaltung. Für diese Systeme verlangt der Act eine Evidenzkette über den gesamten Lebenszyklus: ein dokumentiertes Risikomanagement, Daten-Governance (Herkunft, Qualität, Repräsentativität), technische Dokumentation (Zweck, Architektur, Trainings-/Tuning-Pfad, Metriken, bekannte Grenzen), Aufzeichnungen/Logs im Betrieb, menschliche Aufsicht mit klaren Eingriffspunkten sowie Anforderungen an Genauigkeit, Robustheit und Cybersecurity. Nach dem Go-live kommt das Post-Market Monitoring: Qualität und Vorfälle werden beobachtet und bei schwerwiegenden Vorkommnissen zeitnah gemeldet. Für neue Releases gilt: Änderungen sind nachvollziehbar, geprüft und freigegeben.

Und die Grundmodelle/Generative KI (General Purpose AI, GPAI)? Hier fordert der Act Transparenz und Sorgfaltspflichten auf Model-Ebene: nachvollziehbare Dokumentation, angemessene Sicherheits-/Robustheitstests (z. B. Red Teaming), Vorkehrungen gegen Missbrauch, Beachtung von Urheberrechtsregeln (inkl. TDM Opt-out) sowie Hinweise, die eine Kennzeichnung generierter Inhalte ermöglichen. Sehr leistungsfähige Modelle mit potenziellen Systemrisiken unterliegen zusätzlichen Pflichten (verstärkte Evaluations- und Reporting-Anforderungen). In der Praxis heißt das: Qualität, Sicherheit und Herkunft werden schon vor der Produktintegration adressiert.

Wessen Verantwortung? Der Act unterscheidet Provider (bringen KI-Systeme auf den Markt), Deployer (setzen sie ein), sowie Importeure/Distributoren. Provider tragen die Hauptlast für Design, Training, Doku und Konformität. Deployer sind für den bestimmungsgemäßen Einsatz verantwortlich. Dazu gehören Transparenz gegenüber Nutzer:innen, angemessene Daten, Logging, Aufsicht und Beschwerden.  Wer beide Rollen vereint (z. B. interne Entwicklung), erfüllt beide Pflichten.

Wie kommt ein System auf den Markt? Über Konformität und für Hochrisiko ggf. CE-Kennzeichnung nach einem standardisierten Verfahren. Der Act setzt stark auf harmonisierte Normen und Codes of Practice: Wer sie anwendet, kann Konformität pragmatisch nachweisen. Es gibt zudem AI Sandboxes und Möglichkeiten für Real-World Testing unter Aufsicht, damit Innovation nicht erstickt.

Der Zeitplan ist die operative Vorgabe, denn der Act ist seit dem 1. August 2024 in Kraft. Verbote und Maßnahmen zur AI Literacy gelten seit dem 2. Februar 2025 und Pflichten für Grundmodelle/Generative KI greifen seit dem 2. August 2025. Ab dem 2. August 2026 gelten die Kernpflichten für Hochrisikosysteme, mit Übergangszeiten bis 2027, sofern KI Teil regulierter Produkte ist. Mit anderen Worten: 2025 ist das Jahr der Prozessverankerung mit Fokus auf Inventur, Transparenz in der UX, Daten- und Modellsichtbarkeit, Monitoring sowie klar definierten Eingriffspunkten.

Vom PDF zur Praxis: So verankern Teams die Pflichten

Das Gesetz spricht von Risiko-Management, Daten-Governance, Dokumentation, menschlicher Aufsicht, Robustheit, Vorfallsmanagement. In Projekten übersetzen wir das in vier dauerhafte Gewohnheiten:

  1. Evidenzkette statt Heldentaten. Jede KI‑Funktion bekommt eine lebende Doku: Zweck, Datenquellen, Trainings-/Tuning‑Prozess, Versionen, Metriken, Abnahmekriterien, bekannte Einschränkungen. Nichts davon gehört nur in ein Meeting-Protokoll, es muss versioniert, auffindbar und prüfbar sein.
  2. Transparenz als UX‑Feature. Ein klarer Hinweis „Sie chatten mit KI“ kostet keinen Umsatz, erhöht aber Vertrauen. Dasselbe gilt für Quellenanzeigen bei generativen Antworten oder Wasserzeichen bei synthetischen Medien. Transparenz ist Produktqualität.
  3. Human-in-the-Loop ist ein Prozess, kein Button. Definieren Sie, wann Menschen eingreifen (Schwellen, Unsicherheit, Beschwerden), wer verantwortlich ist und wie Entscheidungen dokumentiert werden. Schulen Sie diese Rolle, das ist keine Nebentätigkeit.
  4. Monitoring wie bei Zahlungsverkehr. Nicht nur „läuft/läuft nicht“, sondern Qualität und Kontext. Drift-Alarme, Anomalien, Sicherheitsereignisse; Retention-Zeiten, die sowohl Datenschutz als auch Nachweispflichten bedienen. Vorfälle werden geübt, nicht nur beschrieben.

Drei Geschichten aus dem Alltag

Recruiting-KI: schneller passende Profile finden, ohne blinde Flecken

Ein mittelständisches Unternehmen nutzt ein Modell, das Bewerbungen vorsortiert. Das Einsatzgebiet fällt klar in den Hochrisikobereich (Beschäftigung). Was bedeutet das operativ?

Sie brauchen eine belastbare Daten- und Modellgeschichte: Woher stammen Trainings- und Testdaten? Wie repräsentativ sind sie für Alter, Geschlecht, Herkunft der Bewerbenden? Welche Metriken sichern Sie vor dem Go-live ab (z. B. Fehlalarme pro Gruppe)? Danach beginnt die Laufzeitphase: Protokolle zu Eingaben/Entscheidungen, eine menschliche Letztinstanz für Grenzfälle sowie klare Wege für Beschwerden und Korrekturen. Das Ziel ist Nachvollziehbarkeit – nicht perfekte Fairness auf Knopfdruck, sondern belegbare, kontinuierliche Verbesserung.

Wie setzen wir das pragmatisch um? In unseren Projekten dokumentieren wir alle Experimente und Datenschnitte, lassen Bias-Checks vor jedem Release laufen und definieren harte Abnahmekriterien. Amazon SageMaker Clarify bietet hier eine solide erste Linie für Bias-Analysen und Erklärungen; Model Monitor hilft beim Erkennen von Drift. Für die Auditspur nutzen wir CloudTrail-/Anwendungslogs und halten sie datenschutzkonform vor. Wichtig: Die HR-Fachabteilung ist nicht Zuschauer, sondern Mit-Owner der Kriterien.

Kunden-Chatbot: hilfreich und als KI klar erkennbar

Ein E-Commerce-Team setzt auf einen Assistenten für Produktfragen. Das ist kein Hochrisiko, aber transparenzpflichtig. Der Chat muss erkennbar machen, dass eine KI antwortet. Synthetische Bilder oder Audio sind als solche zu kennzeichnen. Was oft unterschätzt wird: Guardrails. Kund*innen erwarten, dass Ausgaben in den Bereichen Medizin und Recht eingeschränkt werden, ein aggressiver Ton gebremst wird und sensible Daten geschützt sind.

In der Praxis etablieren wir eine „Policy-als-Produkt“-Denke: Wir formulieren in Klartext, was der Bot darf und was nicht, testen typische Angriffe (Prompt Injection, PII-Lecks) und verankern Ausweichpfade zum Menschen. Auf AWS setzen wir dafür gern Amazon Bedrock Guardrails (für Inhalts‑ und Sicherheitsrichtlinien) und eine RAG-Architektur mit Quellenangaben ein. Der sichtbare Mehrwert: Antworten bleiben im Faktenraum des Unternehmens, und Nutzer*innen sehen sofort, woher eine Aussage kommt.

Visuelle Qualitätskontrolle im Werk: robust – nicht nur auf dem Prüfstand

Ein Kamerasystem entdeckt Lackfehler. Klingt unkritisch, kann aber Hochrisiko sein, wenn es als sicherheitsrelevante Komponente in ein reguliertes Produkt hineinwirkt. Dann reichen gute Offline-Scores nicht. Gefragt ist Robustheit im Betrieb: unterschiedliche Lichtverhältnisse, Verschmutzung, Perspektiven. Wir planen deshalb wiederaufladbare Testbatterien, definieren Umweltvariablen (Was passiert bei Staub auf der Linse?) und legen Rollback-Wege fest, falls die Fehlerrate schlagartig steigt. Die Telemetrie fließt in ein Monitoring, das nicht nur Accuracy, sondern auch Kontext beobachtet (z. B. Bandgeschwindigkeit, Kamerawärme). So werden Vorfälle früh sichtbar, inklusive Meldeprozess.

Aus der AWS Perspektive: AWS ist hilfreich, wenn es den Prozess trägt

Wenn wir uns aus der AWS-Perspektive das EU-KI-Gesetz anschauen, haben wir im Hinblick auf KI drei sehr praktische Hebel: Evidenzkette aufbauen, Transparenz & Schutz herstellen sowie Betrieb & Nachweis sichern. Der rote Faden ist immer gleich: Erst definieren wir den Prozess (Zweck, Risiken, Oversight, Meldewege), dann legen wir die passenden AWS‑Bausteine darunter.

Evidenzkette aufbauen. In Amazon SageMaker entsteht die Nachvollziehbarkeit, die der Act verlangt. Mit Experiments und Lineage zeichnen wir Trainings- und Tuning-Schritte lückenlos auf. Die Model Registry hält Versionen, Freigabestatus und die dazugehörigen Evaluationsberichte vor. Pipelines sorgen dafür, dass ein erfolgreicher Lauf reproduzierbar ist, inklusive fester Abnahmekriterien. Amazon SageMaker Clarify liefert vor und nach dem Training belastbare Bias- und Explainability-Analysen; Abweichungen werden als Befunde abgelegt und sind Teil der Freigabe. Datensätze liegen versioniert in Amazon S3 (optional mit Object Lock), Zugriffe und Verantwortlichkeiten regelt Amazon Lake Formation. So wird aus „Wir glauben, dass es passt“ ein prüfbarer Zustand: Zweck, Datenherkunft, Metriken, Grenzen, Verantwortliche sind jederzeit abrufbar.

Transparenz & Schutz herstellen. Für generative Anteile nutzen wir Amazon Bedrock: kuratierte Modelle und Amazon Bedrock Guardrails, um unerwünschte Inhalte, PII-Offenlegungen oder unsichere Antwortmodi zu verhindern. Über Model Evaluation werden Qualitäts- und Sicherheitstests wiederholbar. Wenn Fakten zählen, binden wir Unternehmenswissen mit RAG/Knowledge Bases ein. Antworten kommen mit Quellen, die in der Oberfläche angezeigt werden. Die gesetzliche Kennzeichnung („Sie chatten mit KI“ bzw. Hinweise zu synthetischen Medien) lösen wir bewusst in der UX und ergänzen Metadaten in den Antworten. Für Daten, die das System verlassen, prüfen Macie (S3-PII-Erkennung) und, falls nötig, vorgelagerte PII-Detektoren. Logs dokumentieren, welche Schutzmaßnahme wann gegriffen haben.

Betrieb & Nachweis sichern. Im Betrieb zählen Qualität, Sicherheit und Belegbarkeit. Model Monitor beobachtet Eingabedaten und Vorhersagen auf Drift. CloudWatch sammelt Metriken und löst Alarme aus. CloudTrail protokolliert Änderungen an Ressourcen und Endpunkten. Such- und Analyse-Workflows laufen über OpenSearch. Security Hub, GuardDuty und Config erkennen Fehlkonfigurationen und Anomalien. KMS und IAM sichern Schlüssel und Zugriffe, VPC/PrivateLink trennt Netze. Für Audits sammelt Audit Manager die Belege entlang definierter Kontrollen. Lifecycle-Regeln in S3 halten Logs über einen angemessenen Zeitraum vor – dokumentiert und datenschutzkonform. EventBridge und Systems Manager orchestrieren Vorfälle von der Erstklassifizierung über die Benachrichtigung bis zum Rollback des Modells. Wo eine menschliche Entscheidung vorgeschrieben ist, etablieren wir mit Amazon A2I (Augmented AI) einen überprüfbaren Review-Pfad mit Schwellenwerten, Quoren und Training für Reviewer*innen.

So entsteht kein Technologiestapel um seiner selbst willen, sondern ein betriebsfähiger Nachweisfluss: von der Datenquelle über das Modell bis zur Entscheidung und zurück, falls etwas korrigiert werden muss.

Was Teams jetzt konkret tun sollten

Starten Sie mit einer ehrlichen Inventur: Wo steckt KI in Ihren Produkten und Prozessen? Ordnen Sie die Anwendungsfälle entlang der Risikokategorien ein und markieren Sie diejenigen, die 2025/26 besondere Aufmerksamkeit brauchen. Richten Sie eine lebende Dokumentation ein und schließen Sie Lücken bei Datenherkunft und Metriken. Bringen Sie Transparenz in die Oberfläche Ihrer Assistenten – schlicht, aber sichtbar. Legen Sie Oversight-Punkte fest und schulen Sie die Rolle. Und etablieren Sie ein zweistufiges Monitoring: Qualitätsmetriken plus Sicherheits-/Compliance-Signale. Die Logs halten Sie so lange vor, wie es nötig ist – begründet, dokumentiert, datenschutzkonform.

Fazit

Das EU-KI-Gesetz ist kein Hemmschuh, sondern ein Rahmen für skalierbare Qualität. Wer heute seine Evidenzkette aufbaut, Transparenz als UX denkt und Monitoring ernst nimmt, liefert schneller – und schläft ruhiger. Der Tech-Stack (ob AWS oder anderswo) ist austauschbar. Disziplin in Daten, Doku und Betrieb ist es nicht.

Skaylink begleitet Unternehmen entlang der gesamten AI Journey von Use-Case-Priorisierung und AI Readiness über Umsetzung & Betrieb auf AWS (z. B. mit Amazon Bedrock / SageMaker) bis zu Governance, Security & Betrieb.

Case Stories