EU AI Act im Fokus: Neue Regelungen für KI in Europa

Inhaltsverzeichnis

Über diesen Guide

Die Diskussion um Künstliche Intelligenz (KI) ist seit der Ankündigung des EU AI Act wieder in den Fokus der Öffentlichkeit gerückt. So wie die Veröffentlichung von ChatGPT die Möglichkeiten von KI aufgezeigt hat, wirft auch der EU AI Act wichtige Fragen auf. Welche Auswirkungen wird diese neue Regelung auf die Entwicklung von KI und ihre Anwendungsbereiche haben? Inwieweit werden ethische Überlegungen und der Schutz der Gesellschaft vor möglichen Risiken im Vordergrund stehen? In diesem Artikel werfen wir einen genaueren Blick auf die Regulierung von Künstlicher Intelligenz in Europa und die Auswirkungen auf Unternehmen.

Was ist der EU AI Act?

Der EU AI Act stellt einen Meilenstein in der europäischen Regulierung von Künstlicher Intelligenz dar. Ziel dieses Gesetzgebungsvorhabens der Europäischen Union ist es, klare Richtlinien für den ethischen Einsatz von KI-Technologien zu schaffen und dabei einen ausgewogenen Ansatz zwischen Innovation und Grundrechtsschutz zu finden. Der EU AI Act (Artificial Intelligence Act) definiert Kriterien für risikoreiche KI-Anwendungen, legt Transparenzanforderungen fest und sieht eine verstärkte Aufsicht vor, um sicherzustellen, dass KI-Systeme den europäischen Werten entsprechen und für die Gesellschaft sicher sind.

Es ist der weltweit erste Rechtsrahmen für die Entwicklung, Veröffentlichung und Nutzung von künstlicher Intelligenz. Bereits am 21. April 2021 hat die Europäische Kommission erste Vorschläge dazu vorgelegt und nach langen Verhandlungen haben sich das Europäische Parlament und der Europäische Rat auf ein Gesetz zur Regulierung von künstlicher Intelligenz geeinigt.

Was beinhaltet der EU AI Act? 

Konkret beinhaltet der EU AI Act folgende Aspekte:

  • harmonisierte Vorschriften für das Inverkehrbringen, die Inbetriebnahme und die Nutzung von Systemen mit künstlicher Intelligenz in der EU.
  • Verbote bestimmter Praktiken auf dem Gebiet der künstlichen Intelligenz.
  • spezifische Anforderungen an KI-Systeme mit hohem Risiko und Verpflichtungen für die Betreiber solcher Systeme.Hierzu zählen beispielsweise Dokumentationspflichten oder auch die Einhaltung von Qualitätskriterien bei Trainings-, Validierungs- und Testdatensätzen.
  • harmonisierte Transparenzregeln für bestimmte KI-Systeme, wie beispielsweise eine anschauliche Darstellung der Arbeitsweise solcher Systeme oder die Bereitstellung von Gebrauchsanweisungen. 
  • Regeln für die Marktüberwachung, Marktbeobachtung und Governance.Hierzu wird ein europäischer Ausschuss für künstliche Intelligenz eingerichtet.
  • Maßnahmen zur Unterstützung von Innovationen, wie die Einrichtung von Testumgebungen  für die Entwicklung, Schulung, Erprobung und Validierung innovativer KI-Systeme durch die nationalen Behörden.

Grundsätzlich sieht die Gesetzgebung vor, künstliche Intelligenz in vier Fällen zu verbieten. Hierzu zählen:

  1. KI-Systeme, die das Verhalten von Menschen so beeinflussen, dass ihnen oder anderen dadurch körperlicher oder seelischer Schaden zugefügt wird.
  2. KI-Anwendungen, die die Schwächen von bestimmten Menschen, zum Beispiel aufgrund ihres Alters, einer Behinderung oder ihrer besonderen sozialen oder wirtschaftlichen Lage, ausnutzen.
  3. KI-Systeme, um Menschen über einen bestimmten Zeitraum basierend auf ihrem Sozialverhalten oder bekannten bzw. vorhergesagten persönlichen Eigenschaften zu bewerten oder zu klassifizieren (Social Scoring).
  4. biometrische Fernidentifizierungssysteme an öffentlich zugänglichen Orten durch oder im Namen von Strafverfolgungsbehörden zum Zwecke der Strafverfolgung, es sei denn, eine solche Verwendung ist für die nationale Sicherheit von Bedeutung.

Neben diesen Verboten werden Systeme, die auf künstlicher Intelligenz basieren, generell in Kategorien eingeteilt:

  1. Unacceptable risk: KI-Anwendungen, die in diese Kategorie fallen, sind verboten. Dazu gehören, wie bereits erwähnt, KI-Systeme zur Beeinflussung menschlichen Verhaltens, Systeme zur Echtzeit-Erkennung von biometrischen Merkmalen und Gesichtern im öffentlichen Raum sowie Systeme zur sozialen Bewertung.
  2. High-risk: KI-Anwendungen, die erhebliche Risiken für die Gesundheit, die Sicherheit oder die Grundrechte von Personen bergen, unterliegen Verpflichtungen in Bezug auf Qualität, Transparenz, menschliche Kontrolle und Sicherheit. Dies gilt insbesondere für KI-Systeme, die in den Bereichen Gesundheit, Bildung, Rekrutierung, Verwaltung kritischer Infrastrukturen, Strafverfolgung oder Justiz eingesetzt werden.
  3. General-purpose AI: In diese Kategorie fallen insbesondere Basismodelle wie ChatGPT. Sie unterliegen Transparenzanforderungen. Hochwirksame allgemeine KI-Systeme, von denen systemische Risiken ausgehen können, müssen darüber hinaus einem eingehenden Evaluierungsprozess unterzogen werden.
  4. Limited risk: Derartige Systeme unterliegen Transparenzpflichten, um die Benutzer:innen darüber aufzuklären, dass sie mit einem KI-System interagieren und dass das System entsprechend ihrer Wahl agiert. In diese Kategorie fallen beispielsweise KI-Anwendungen, mit denen Bilder, Töne oder Videos erzeugt oder manipuliert werden können. In dieser Kategorie werden Open-Source-Modelle bis auf wenige Ausnahmen nicht reguliert.
  5. Minimal risk: Dazu gehören beispielsweise KI-Systeme, die in Videospielen oder Spamfiltern eingesetzt werden. Sie werden nicht reguliert, und die Mitgliedstaaten können sie nicht über die Maximalharmonisierung hinaus regulieren. Das bedeutet, dass der Wortlaut des nationalen Rechts nicht weiter gefasst sein darf als der des EU-Rechts.Bestehende nationale Rechtsvorschriften über die Gestaltung oder Verwendung solcher Systeme werden weitestgehend aufgehoben. Allerdings wird ein freiwilliger Verhaltenskodex vorgeschlagen.
Die Roadmap des EU AI Acts: 2018 Expertengruppe der EU erarbeitet ein Whitepaper zur künstlichen Intelligenz. 2019 Ankündigung der Regulierung von künstlicher Intelligenz. April 2021 Erster Entwurf zum EU Al Act. Ende 2022 Einarbeitung von Änderungsvorschlägen der Mitgliedsstaaten. Juni 2023 Finaler Gesetzentwurf & Start der Trilogverhandlungen

Warum ist der EU AI Act wichtig?

Die Regulierung künstlicher Intelligenz ist aus mehreren Gründen wichtig, da sie dazu beiträgt, potenzielle Risiken zu minimieren und einen verantwortungsvollen Umgang mit dieser fortschrittlichen Technologie zu fördern. 

1. Schutz der EU-Bürger vor Risiken

Ein entscheidender Punkt, der die Bedeutung des EU AI Act unterstreicht, ist der Schutz der Bürger vor potenziellen Risiken, die mit der Nutzung von KI verbunden sind. Die Regulierung soll sicherstellen, dass KI-Systeme sicher und transparent funktionieren, ohne grundlegende Menschenrechte zu verletzen. Durch die Einbeziehung ethischer Grundsätze in die Entwicklung und Nutzung von KI soll verhindert werden, dass automatisierte Systeme diskriminierende oder unethische Entscheidungen treffen.

2. Einheitliche Regeln innerhalb der EU

Darüber hinaus schafft der EU AI Act einheitliche Standards innerhalb der Europäischen Union, was für die Wettbewerbsfähigkeit und den reibungslosen grenzüberschreitenden Einsatz von KI-Technologien von entscheidender Bedeutung ist. Die Verordnung schafft somit einen klaren Rahmen für Unternehmen, Forschungseinrichtungen und Regierungen, um KI verantwortungsvoll zu entwickeln und einzusetzen.

3. Einführung von Datenschutzstandards

Die Verarbeitung großer Datenmengen durch KI-Anwendungen ist eine Schlüsselkomponente ihrer Funktionalität. Diese Daten können personenbezogene und sensible Daten umfassen, was die Notwendigkeit einer wirksamen Regulierung unterstreicht. Der EU AI Act spielt in diesem Zusammenhang eine entscheidende Rolle, indem er sicherstellt, dass die Verarbeitung personenbezogener Daten durch KI-Systeme den höchsten Datenschutzstandards entspricht.

4. Risiken vor Cyberangriffe minimieren

Die rasante Entwicklung der künstlichen Intelligenz bringt nicht nur große Chancen mit sich. Sie birgt auch erhebliche Sicherheitsrisiken. Zu diesen Risiken zählen insbesondere die Bedrohung durch Cyberangriffe und der Missbrauch von KI-Technologien. Der EU AI Act spielt in diesem Zusammenhang eine entscheidende Rolle, da er darauf abzielt, die Entwicklung und Implementierung sicherer KI-Systeme zu fördern, um potenzielle Risiken zu minimieren.

5. Vertrauen in der Öffentlichkeit fördern

Eine klare und umfassende Regulierung, wie sie im EU AI Act vorgesehen ist, spielt eine entscheidende Rolle bei der Schaffung von Vertrauen in künstliche Intelligenz. Diese Vertrauensbildung erstreckt sich auf verschiedene Stakeholder, darunter die Öffentlichkeit, Nutzer und Unternehmen. Ein verantwortungsvoller Einsatz von KI, der durch klare Richtlinien und ethische Standards unterstützt wird, trägt wesentlich zur Akzeptanz dieser fortschrittlichen Technologie bei.

Wann tritt der EU AI Act in Kraft?

Im Jahr 2018 hat eine Expertengruppe der EU ein umfassendes Whitepaper über künstliche Intelligenz verfasst. Aufbauend auf diesem Papier wurde 2019 verkündet, dass die EU beabsichtigt, KI regulieren zu wollen. Der erste Entwurf dieser Verordnung wurde im April 2021 erarbeitet. Bis Ende 2022 hat das Europäische Parlament getagt und dabei Änderungsvorschläge der Mitgliedstaaten sowie verschiedener Ausschüsse berücksichtigt.

Im Juni 2023 wurde schließlich der endgültige Gesetzentwurf verfasst, und nun können die Trilogverhandlungen zwischen den Gesetzgebungsorganen der EU beginnen. Hierzu kommen die EU-Kommission, das EU-Parlament (EP) und der Ministerrat zusammen, mit dem Ziel, eine rasche Einigung unter Vermittlung der Kommission zwischen dem EP und dem Ministerrat für das finale Gesetz zu erreichen. Die Umsetzung des Gesetzes ist für die nächsten zwei Jahre geplant, mit einem Inkrafttreten im Jahr 2026. Unternehmen, die vom Geltungsbereich des Gesetzes betroffen sind, haben somit zum Zeitpunkt der Erstellung dieses Berichts noch etwa zwei Jahre Zeit, sich umfassend auf das KI-Gesetz vorzubereiten.

Welche Vorteile bringt der EU AI Act?

Die Regulierung von künstlicher Intelligenz bringt verschiedene Vorteile mit sich, die darauf abzielen, ethische, rechtliche und soziale Aspekte der KI-Nutzung zu berücksichtigen.

Der EU AI Act schafft mehr Transparenz bei KI-Systemen. Dies stellt sicher, dass Entscheidungsprozesse der Systeme nachvollziehbar sind und der Einsatz klar dokumentiert ist. Darüber hinaus sind klare Regeln für die Verantwortlichkeit festgelegt, um die Haftung im Falle von Fehlfunktionen oder Schäden zu klären. Unternehmen erhalten damit einen klaren Rahmen zum sicheren Einsatz von künstlicher Intelligenz. 

Dieser Rahmen bezieht sich dabei nicht nur auf Transparenzregeln und rechtlich einheitliche Regeln, sondern auch auf die Förderung von Innovationen. Dies ermöglicht es Unternehmen auch, verantwortungsbewusst in die KI-Forschung und -Entwicklung zu investieren.

Hinzu kommt, dass der EU AI Act nicht nur innerhalb der Europäischen Union eine wichtige Rolle bei der Regulierung von KI spielt, sondern auch weltweit als wegweisendes Modell für andere Länder dienen könnte, die sich mit der Herausforderung konfrontiert sehen, KI zu regulieren. Beispielsweise arbeiten die USA derzeit an einer vergleichbaren Regelung in einem früheren Stadium.

Welche Nachteile bringt der EU AI Act?

Der EU AI Act gilt nur innerhalb der Europäischen Gemeinschaft. Entwickler von KI-basierten Systemen können verbotene Software außerhalb des Geltungsbereichs veröffentlichen und betreiben. Der Schutz vor risikobehafteter KI ist somit außerhalb der EU nicht gewährleistet. 

Darüber hinaus können biometrische Fernüberwachung und Gesichtserkennungssoftware für die nationale Sicherheit eingesetzt werden. Durch diese Hintertür können Regierungen solche Anwendungen missbrauchen. 

Auch die Definition von Systemen, die als künstliche Intelligenz eingestuft werden, ist unzureichend. Weniger komplexe Software kann dennoch Schaden anrichten, der durch den EU AI Act nicht begrenzt wird. 

Neben diesen allgemeinen Nachteilen bringt der EU AI Act weitere Nachteile für Unternehmen und Organisationen mit sich. Um die neuen Regelungen umsetzen zu können, müssen Unternehmen Geld investieren. Insbesondere für kleine und mittlere Unternehmen kann dies zu einer höheren Kostenbelastung führen. 

Darüber hinaus verlangsamt die Einschränkung von Künstlicher Intelligenz die Entwicklungsgeschwindigkeit neuer KI-Anwendungen, da sich Unternehmen intensiv mit den Regelungen auseinandersetzen und diese einhalten müssen. 

Unternehmen und Organisationen müssen sich auch bewusst sein, dass sie durch die Regulierung einem höheren Haftungsrisiko ausgesetzt sind und haftbar gemacht werden können.

Fazit

Insgesamt stellt der EU AI Act einen wichtigen Schritt in der Regulierung von Künstlicher Intelligenz in der Europäischen Union dar. Die Regelung ist ein Meilenstein, der darauf abzielt, die Potenziale von KI verantwortungsvoll auszuschöpfen und dabei ethische Grundsätze und den Schutz der Gesellschaft fokussiert. Die Schaffung klarer Standards, die Transparenz, Sicherheit und einen ethischen Einsatz von KI fördern, sind die Vorteile des EU AI Act. Die Harmonisierung der Regeln innerhalb der EU stärkt die Wettbewerbsfähigkeit und erleichtert den grenzüberschreitenden Einsatz von KI-Technologien. 

Allerdings müssen auch Herausforderungen und mögliche Nachteile berücksichtigt werden. Trotz Regulierung könnten Regierungen KI mit dem Argument der nationalen Sicherheit missbrauchen und zu Überwachungszwecken einsetzen.Insgesamt bewegt sich der EU AI Act im Spannungsfeld zwischen dem Bedürfnis nach Sicherheit, Ethik und Transparenz einerseits und der Förderung von Innovation und Wettbewerbsfähigkeit andererseits.

Zufriedenere Kunden durch schnellere Antworten.

Überzeugen Sie sich selbst und erstellen Sie Ihren eigenen Chatbot. Kostenlos und unverbindlich.