Künstliche Intelligenz (KI) verändert Branchen auf der ganzen Welt, doch es gibt immer noch viele Diskussionen darüber, was genau als „KI“ zu bezeichnen und wie sie zu regulieren ist. Der AI Act der Europäischen Union zielt darauf ab, diesen aufstrebenden Bereich transparenter zu machen, aber viele wichtige Details bleiben vorerst offen. Obwohl das Gesetz einen breiten Rahmen zur Regulierung von KI-Systemen vorgibt, bleibt die Definition von KI vage und deckt ein breites Spektrum an Technologien vom maschinellen Lernen bis hin zu Expertensystemen ab.
Die vagen Definitionen haben zu Bedenken geführt, wie das Gesetz in der Praxis umgesetzt werden soll. Viele Unternehmen sind sich noch unsicher, welche Systeme unter die Regelung fallen. Es ist jedoch klar, dass der Einfluss von KI auf die Gesellschaft weiter wachsen wird und die EU daher proaktive Maßnahmen ergreift, um sicherzustellen, dass der Einsatz von KI sicher, ethisch vertretbar und im Einklang mit den Grundrechten steht.
In diesem Beitrag beleuchten wir das Vorhaben des AI Acts und erläutern, wie er KI-Systeme basierend auf ihrem Risikoniveau regulieren wird und warum Unternehmen sich auf die strengen Compliance-Anforderungen vorbereiten müssen. Genau wie bei der DSGVO kann die Nichteinhaltung des AI Acts zu erheblichen Geldstrafen führen. Daher ist es für Unternehmen unerlässlich, saubere, überprüfbare Prozesse zu etablieren, um die Einhaltung der Vorschriften sicherzustellen. Die Einführung dieser Prozesse kann durch Technologien wie MLOps deutlich erleichtert werden.
Wir sind keine Anwaltskanzlei, sondern ein Softwareunternehmen. Dieser Beitrag erörtert das Thema aus einer praktischen Perspektive und stellt keine Rechtsberatung dar.
Was ist der EU AI Act?
Beim EU AI Act handelt es sich um eine EU-Verordnung, die am 1. August 2024 in Kraft getreten ist. Sie führt einen risikobasierten Ansatz zur Regulierung von KI-Systemen ein, wobei diese in vier Kategorien eingeteilt werden. Die Einteilung erfolgt basierend auf dem potenziellen Einfluss der Systeme auf Sicherheit, Rechte und Freiheiten. Für jede Risikoklasse gilt ein eigener Zeitplan für die Anwendbarkeit der Verordnung.
- Inakzeptables Risiko: KI-Systeme, die als zu gefährlich oder unethisch gelten, wie z.B. solche, die für Social Scoring oder staatliche Massenüberwachung eingesetzt werden, sind laut Gesetz ab dem 2. Februar 2025 verboten.
- Hochrisiko-KI-Systeme: An KI-Anwendungen mit erheblichen Auswirkungen in Bereichen wie Strafverfolgung, Gesundheitswesen, Bildung und Beschäftigung stellt die Verordnung erhöhte Anforderungen an Sicherheit, Transparenz und Ethik, die ab dem 2. August 2026 erfüllt werden müssen. Einige Hochrisiko-KI-System werden erst ein Jahr später reguliert.
- Begrenztes Risiko: Zu dieser Kategorie gehören KI-Systeme, die keine signifikanten Risiken bergen, aber dennoch Transparenzmaßnahmen erfordern. Beispiele hierfür sind KI-Systeme, die mit Menschen interagieren, wie Chatbots für den Kundenservice oder KI-gestützte Empfehlungssysteme. Bei diesen Systemen müssen Unternehmen die Nutzer darüber informieren, dass sie mit KI interagieren. Diese Transparenzanforderungen treten am 2. August 2026 in Kraft.
- Minimales Risiko: Systeme wie KI in Videospielen oder Spam-Filtern fallen in diese Kategorie. Da diese Anwendungen nur ein geringes oder gar kein Risiko für die Rechte oder die Sicherheit von Personen darstellen, sind sie weitgehend von regulatorischen Verpflichtungen befreit. Unternehmen, die KI mit minimalem Risiko einsetzen, unterliegen keinen zusätzlichen Pflichten, obwohl das Gesetz dazu ermutigt, bewährte Praktiken einzuhalten.
Welche Rolle haben Sie?
Gemäß des EU AI Acts bestimmt die Rolle eines Unternehmens innerhalb der KI-Lieferkette ihre spezifischen Compliance-Verantwortlichkeiten. Ein Anbieter, der das KI-System entwickelt und in Verkehr bringt, ist dafür verantwortlich, dass das System alle regulatorischen Standards erfüllt, insbesondere für hochriskante KI-Systeme. Sicherheit, Transparenz und eine ordnungsgemäße Datenverwaltung müssen während des gesamten Lebenszyklus der KI gewährleistet werden.
Ein Betreiber, der die KI in seinen Betriebsablauf integriert und verwendet, unterliegt nicht denselben strengen Anforderungen wie ein Anbieter, muss aber dennoch mehrere Verpflichtungen erfüllen. So muss beispielsweise sichergestellt werden, dass ein KI-System gemäß den Anweisungen verwendet wird. Außerdem muss der Betrieb überwacht werden, um festgestellte Risiken oder schwerwiegende Vorfälle zu melden.
Einführer und Händler, die den Verkauf oder die Verteilung von KI-Systemen erleichtern, sind verantwortlich dafür, sicherzustellen, dass die von ihnen angebotenen Systeme den Anforderungen des Gesetzes entsprechen.
Jede Rolle ist mit unterschiedlichen Compliance-Pflichten verbunden, um die Verantwortlichkeiten während der Entwicklung, der Einführung und der Nutzung des KI-Systems sicherzustellen.
Was bedeutet das für Ihr Unternehmen?
Um die Einhaltung des EU AI Acts sicherzustellen, ist eine Selbsteinschätzung erforderlich. Derzeit ist unklar, welche Behörde für die Überprüfung der Einhaltung zuständig sein wird.
Transparenz ist entscheidend, auch bei KI-Systemen mit begrenztem Risiko, bei denen die Nutzer darüber informiert werden müssen, dass sie mit einem KI-System interagieren. Regelmäßige Audits, klare Governance-Strukturen und proaktive Compliance-Überprüfungen helfen, Strafen zu vermeiden und die kontinuierliche Einhaltung der Anforderungen sicherzustellen.
Unternehmen müssen ihre KI-Systeme nach Risikokategorien bewerten und die entsprechenden Vorschriften anwenden. Für Hochrisiko-KI-Systeme bedeutet dies, überprüfbare Entwicklungsprozesse einzurichten und strenge Sicherheits- und Transparenzstandards einzuhalten. Der Einsatz von MLOps zur kontinuierlichen Überwachung und Dokumentation der KI-Systeme ist ein einfacher und professioneller Ansatz dafür. Auf diesen Teil möchten wir uns besonders konzentrieren, da er bereits den größten Teil des Problems löst.
Die Rolle von MLOps bei der Sicherstellung der Compliance
Eine der größten Herausforderungen für Unternehmen besteht darin, ihre KI-Systeme transparent und regelkonform zu verwalten. An dieser Stelle spielt MLOps (Machine Learning Operations) eine entscheidende Rolle. MLOps ist eine Sammlung von Praktiken und Tools, die die Entwicklung, Bereitstellung und Überwachung von Machine-Learning-Modellen in der Produktion vereinfachen.
So unterstützt MLOps Unternehmen bei der Einhaltung des EU AI Acts:
- Überprüfbare Pipelines: MLOps ermöglicht es Unternehmen, den gesamten Entwicklungslebenszyklus von KI-Modellen nachzuverfolgen, von der Datensammlung und dem Training bis hin zur Bereitstellung. Eine toolgestützte Dokumentation der einzelnen Schritte liefert Nachweise dafür, dass das KI-System die gesetzlichen Anforderungen erfüllt.
- Kontinuierliche Überwachung: KI-Systeme entwickeln sich im Laufe der Zeit weiter, und Hochrisiko-KI-Systeme müssen kontinuierlich überwacht werden, um sicherzustellen, dass sie wie vorgesehen funktionieren. MLOps sorgt durch die regelmäßige Überprüfung der Modelle auf Bias, Genauigkeit und ethische Bedenken dafür, dass die Vorschriften eingehalten werden.
- Transparenz: MLOps-Tools bieten oft Funktionen, die es Entwicklern ermöglichen, jede Entscheidung während des KI-Entwicklungsprozesses zu protokollieren. Dies gewährleistet Transparenz in Bezug darauf, wie Modelle trainiert und Daten verwendet werden und ist somit der Schlüssel zur Einhaltung der Transparenzanforderungen des EU AI Acts.
- Automatisierte Berichterstellung: MLOps-Plattformen können Berichte generieren, mit denen nachverfolgt werden kann, wie KI-Systeme entwickelt und bereitgestellt wurden. Dies erleichtert es Unternehmen, bei Audits oder Inspektionen die Einhaltung der Vorschriften nachzuweisen.
Um mehr darüber zu erfahren, wie MLOps die Professionalität steigert und gleichzeitig die Entwicklungszeiten positiv beeinflusst, lesen Sie gerne unseren Artikel über MLOps.
Fazit
Der EU AI Act reguliert den Einsatz von KI mit dem Ziel, sicherzustellen, dass sie der Gesellschaft zugutekommt und gleichzeitig die Grundrechte gewahrt bleiben. Angesichts erheblicher Strafen bei Nichteinhaltung müssen Unternehmen, die in Europa tätig sind, sich auf eine Zukunft vorbereiten, in der eine ethische, transparente und verantwortungsvolle KI-Entwicklung nicht nur gefördert, sondern gesetzlich vorgeschrieben ist.
Der Einsatz von MLOps als Teil Ihrer KI-Entwicklungsstrategie kann Ihnen dabei helfen, sicherzustellen, dass Ihr Unternehmen den EU AI Act einhält. Von der Aufrechterhaltung überprüfbarer Arbeitsabläufe bis hin zur Echtzeitüberwachung und automatischen Berichterstellung bietet MLOps vieles, um die strengen Anforderungen an Hochrisiko-KI-Systeme zu erfüllen. Durch Investitionen in saubere Prozesse und eine Compliance-Infrastruktur können Unternehmen hohe Strafen vermeiden und damit Vertrauen und Nachhaltigkeit in einer sich schnell entwickelnden KI-Landschaft aufbauen. Legen Sie gleich los und lesen Sie unseren Artikel über MLOps.
Autoren © 2024:
- Dr. Jörg Dallmeyer – www.linkedin.com/in/jörg-dallmeyer-5b3452243/
- Ruth Schreiber – www.linkedin.com/in/ruth-schreiber-0565742ba/