Was ist der EU AI Act?
Der EU AI Act stellt einen Meilenstein in der europäischen Regulierung von Künstlicher Intelligenz dar. Ziel dieses Gesetzgebungsvorhabens der Europäischen Union ist es, klare Richtlinien für den ethischen Einsatz von KI-Technologien zu schaffen und dabei einen ausgewogenen Ansatz zwischen Innovation und Grundrechtsschutz zu finden. Der EU AI Act (Artificial Intelligence Act) definiert Kriterien für risikoreiche KI-Anwendungen, legt Transparenzanforderungen fest und sieht eine verstärkte Aufsicht vor, um sicherzustellen, dass KI-Systeme den europäischen Werten entsprechen und für die Gesellschaft sicher sind.
Es ist der weltweit erste Rechtsrahmen für die Entwicklung, Veröffentlichung und Nutzung von künstlicher Intelligenz. Bereits am 21. April 2021 hat die Europäische Kommission erste Vorschläge dazu vorgelegt und nach langen Verhandlungen haben sich das Europäische Parlament und der Europäische Rat auf ein Gesetz zur Regulierung von künstlicher Intelligenz geeinigt.
Was beinhaltet der EU AI Act?
Konkret beinhaltet der EU AI Act folgende Aspekte:
- harmonisierte Vorschriften für das Inverkehrbringen, die Inbetriebnahme und die Nutzung von Systemen mit künstlicher Intelligenz in der EU.
- Verbote bestimmter Praktiken auf dem Gebiet der künstlichen Intelligenz.
- spezifische Anforderungen an KI-Systeme mit hohem Risiko und Verpflichtungen für die Betreiber solcher Systeme.Hierzu zählen beispielsweise Dokumentationspflichten oder auch die Einhaltung von Qualitätskriterien bei Trainings-, Validierungs- und Testdatensätzen.
- harmonisierte Transparenzregeln für bestimmte KI-Systeme, wie beispielsweise eine anschauliche Darstellung der Arbeitsweise solcher Systeme oder die Bereitstellung von Gebrauchsanweisungen.
- Regeln für die Marktüberwachung, Marktbeobachtung und Governance.Hierzu wird ein europäischer Ausschuss für künstliche Intelligenz eingerichtet.
- Maßnahmen zur Unterstützung von Innovationen, wie die Einrichtung von Testumgebungen für die Entwicklung, Schulung, Erprobung und Validierung innovativer KI-Systeme durch die nationalen Behörden.
Grundsätzlich sieht die Gesetzgebung vor, künstliche Intelligenz in vier Fällen zu verbieten. Hierzu zählen:
- KI-Systeme, die das Verhalten von Menschen so beeinflussen, dass ihnen oder anderen dadurch körperlicher oder seelischer Schaden zugefügt wird.
- KI-Anwendungen, die die Schwächen von bestimmten Menschen, zum Beispiel aufgrund ihres Alters, einer Behinderung oder ihrer besonderen sozialen oder wirtschaftlichen Lage, ausnutzen.
- KI-Systeme, um Menschen über einen bestimmten Zeitraum basierend auf ihrem Sozialverhalten oder bekannten bzw. vorhergesagten persönlichen Eigenschaften zu bewerten oder zu klassifizieren (Social Scoring).
- biometrische Fernidentifizierungssysteme an öffentlich zugänglichen Orten durch oder im Namen von Strafverfolgungsbehörden zum Zwecke der Strafverfolgung, es sei denn, eine solche Verwendung ist für die nationale Sicherheit von Bedeutung.
Neben diesen Verboten werden Systeme, die auf künstlicher Intelligenz basieren, generell in Kategorien eingeteilt:
- Unacceptable risk: KI-Anwendungen, die in diese Kategorie fallen, sind verboten. Dazu gehören, wie bereits erwähnt, KI-Systeme zur Beeinflussung menschlichen Verhaltens, Systeme zur Echtzeit-Erkennung von biometrischen Merkmalen und Gesichtern im öffentlichen Raum sowie Systeme zur sozialen Bewertung.
- High-risk: KI-Anwendungen, die erhebliche Risiken für die Gesundheit, die Sicherheit oder die Grundrechte von Personen bergen, unterliegen Verpflichtungen in Bezug auf Qualität, Transparenz, menschliche Kontrolle und Sicherheit. Dies gilt insbesondere für KI-Systeme, die in den Bereichen Gesundheit, Bildung, Rekrutierung, Verwaltung kritischer Infrastrukturen, Strafverfolgung oder Justiz eingesetzt werden.
- General-purpose AI: In diese Kategorie fallen insbesondere Basismodelle wie ChatGPT. Sie unterliegen Transparenzanforderungen. Hochwirksame allgemeine KI-Systeme, von denen systemische Risiken ausgehen können, müssen darüber hinaus einem eingehenden Evaluierungsprozess unterzogen werden.
- Limited risk: Derartige Systeme unterliegen Transparenzpflichten, um die Benutzer:innen darüber aufzuklären, dass sie mit einem KI-System interagieren und dass das System entsprechend ihrer Wahl agiert. In diese Kategorie fallen beispielsweise KI-Anwendungen, mit denen Bilder, Töne oder Videos erzeugt oder manipuliert werden können. In dieser Kategorie werden Open-Source-Modelle bis auf wenige Ausnahmen nicht reguliert.
- Minimal risk: Dazu gehören beispielsweise KI-Systeme, die in Videospielen oder Spamfiltern eingesetzt werden. Sie werden nicht reguliert, und die Mitgliedstaaten können sie nicht über die Maximalharmonisierung hinaus regulieren. Das bedeutet, dass der Wortlaut des nationalen Rechts nicht weiter gefasst sein darf als der des EU-Rechts.Bestehende nationale Rechtsvorschriften über die Gestaltung oder Verwendung solcher Systeme werden weitestgehend aufgehoben. Allerdings wird ein freiwilliger Verhaltenskodex vorgeschlagen.
Warum ist der EU AI Act wichtig?
Die Regulierung künstlicher Intelligenz ist aus mehreren Gründen wichtig, da sie dazu beiträgt, potenzielle Risiken zu minimieren und einen verantwortungsvollen Umgang mit dieser fortschrittlichen Technologie zu fördern.
1. Schutz der EU-Bürger vor Risiken
Ein entscheidender Punkt, der die Bedeutung des EU AI Act unterstreicht, ist der Schutz der Bürger vor potenziellen Risiken, die mit der Nutzung von KI verbunden sind. Die Regulierung soll sicherstellen, dass KI-Systeme sicher und transparent funktionieren, ohne grundlegende Menschenrechte zu verletzen. Durch die Einbeziehung ethischer Grundsätze in die Entwicklung und Nutzung von KI soll verhindert werden, dass automatisierte Systeme diskriminierende oder unethische Entscheidungen treffen.
2. Einheitliche Regeln innerhalb der EU
Darüber hinaus schafft der EU AI Act einheitliche Standards innerhalb der Europäischen Union, was für die Wettbewerbsfähigkeit und den reibungslosen grenzüberschreitenden Einsatz von KI-Technologien von entscheidender Bedeutung ist. Die Verordnung schafft somit einen klaren Rahmen für Unternehmen, Forschungseinrichtungen und Regierungen, um KI verantwortungsvoll zu entwickeln und einzusetzen.
3. Einführung von Datenschutzstandards
Die Verarbeitung großer Datenmengen durch KI-Anwendungen ist eine Schlüsselkomponente ihrer Funktionalität. Diese Daten können personenbezogene und sensible Daten umfassen, was die Notwendigkeit einer wirksamen Regulierung unterstreicht. Der EU AI Act spielt in diesem Zusammenhang eine entscheidende Rolle, indem er sicherstellt, dass die Verarbeitung personenbezogener Daten durch KI-Systeme den höchsten Datenschutzstandards entspricht.
4. Risiken vor Cyberangriffe minimieren
Die rasante Entwicklung der künstlichen Intelligenz bringt nicht nur große Chancen mit sich. Sie birgt auch erhebliche Sicherheitsrisiken. Zu diesen Risiken zählen insbesondere die Bedrohung durch Cyberangriffe und der Missbrauch von KI-Technologien. Der EU AI Act spielt in diesem Zusammenhang eine entscheidende Rolle, da er darauf abzielt, die Entwicklung und Implementierung sicherer KI-Systeme zu fördern, um potenzielle Risiken zu minimieren.
5. Vertrauen in der Öffentlichkeit fördern
Eine klare und umfassende Regulierung, wie sie im EU AI Act vorgesehen ist, spielt eine entscheidende Rolle bei der Schaffung von Vertrauen in künstliche Intelligenz. Diese Vertrauensbildung erstreckt sich auf verschiedene Stakeholder, darunter die Öffentlichkeit, Nutzer und Unternehmen. Ein verantwortungsvoller Einsatz von KI, der durch klare Richtlinien und ethische Standards unterstützt wird, trägt wesentlich zur Akzeptanz dieser fortschrittlichen Technologie bei.
Wann tritt der EU AI Act in Kraft?
Im Jahr 2018 hat eine Expertengruppe der EU ein umfassendes Whitepaper über künstliche Intelligenz verfasst. Aufbauend auf diesem Papier wurde 2019 verkündet, dass die EU beabsichtigt, KI regulieren zu wollen. Der erste Entwurf dieser Verordnung wurde im April 2021 erarbeitet. Bis Ende 2022 hat das Europäische Parlament getagt und dabei Änderungsvorschläge der Mitgliedstaaten sowie verschiedener Ausschüsse berücksichtigt.
Im Juni 2023 wurde schließlich der endgültige Gesetzentwurf verfasst, und nun können die Trilogverhandlungen zwischen den Gesetzgebungsorganen der EU beginnen. Hierzu kommen die EU-Kommission, das EU-Parlament (EP) und der Ministerrat zusammen, mit dem Ziel, eine rasche Einigung unter Vermittlung der Kommission zwischen dem EP und dem Ministerrat für das finale Gesetz zu erreichen. Die Umsetzung des Gesetzes ist für die nächsten zwei Jahre geplant, mit einem Inkrafttreten im Jahr 2026. Unternehmen, die vom Geltungsbereich des Gesetzes betroffen sind, haben somit zum Zeitpunkt der Erstellung dieses Berichts noch etwa zwei Jahre Zeit, sich umfassend auf das KI-Gesetz vorzubereiten.
Welche Vorteile bringt der EU AI Act?
Die Regulierung von künstlicher Intelligenz bringt verschiedene Vorteile mit sich, die darauf abzielen, ethische, rechtliche und soziale Aspekte der KI-Nutzung zu berücksichtigen.
Der EU AI Act schafft mehr Transparenz bei KI-Systemen. Dies stellt sicher, dass Entscheidungsprozesse der Systeme nachvollziehbar sind und der Einsatz klar dokumentiert ist. Darüber hinaus sind klare Regeln für die Verantwortlichkeit festgelegt, um die Haftung im Falle von Fehlfunktionen oder Schäden zu klären. Unternehmen erhalten damit einen klaren Rahmen zum sicheren Einsatz von künstlicher Intelligenz.
Dieser Rahmen bezieht sich dabei nicht nur auf Transparenzregeln und rechtlich einheitliche Regeln, sondern auch auf die Förderung von Innovationen. Dies ermöglicht es Unternehmen auch, verantwortungsbewusst in die KI-Forschung und -Entwicklung zu investieren.
Hinzu kommt, dass der EU AI Act nicht nur innerhalb der Europäischen Union eine wichtige Rolle bei der Regulierung von KI spielt, sondern auch weltweit als wegweisendes Modell für andere Länder dienen könnte, die sich mit der Herausforderung konfrontiert sehen, KI zu regulieren. Beispielsweise arbeiten die USA derzeit an einer vergleichbaren Regelung in einem früheren Stadium.
Welche Nachteile bringt der EU AI Act?
Der EU AI Act gilt nur innerhalb der Europäischen Gemeinschaft. Entwickler von KI-basierten Systemen können verbotene Software außerhalb des Geltungsbereichs veröffentlichen und betreiben. Der Schutz vor risikobehafteter KI ist somit außerhalb der EU nicht gewährleistet.
Darüber hinaus können biometrische Fernüberwachung und Gesichtserkennungssoftware für die nationale Sicherheit eingesetzt werden. Durch diese Hintertür können Regierungen solche Anwendungen missbrauchen.
Auch die Definition von Systemen, die als künstliche Intelligenz eingestuft werden, ist unzureichend. Weniger komplexe Software kann dennoch Schaden anrichten, der durch den EU AI Act nicht begrenzt wird.
Neben diesen allgemeinen Nachteilen bringt der EU AI Act weitere Nachteile für Unternehmen und Organisationen mit sich. Um die neuen Regelungen umsetzen zu können, müssen Unternehmen Geld investieren. Insbesondere für kleine und mittlere Unternehmen kann dies zu einer höheren Kostenbelastung führen.
Darüber hinaus verlangsamt die Einschränkung von Künstlicher Intelligenz die Entwicklungsgeschwindigkeit neuer KI-Anwendungen, da sich Unternehmen intensiv mit den Regelungen auseinandersetzen und diese einhalten müssen.
Unternehmen und Organisationen müssen sich auch bewusst sein, dass sie durch die Regulierung einem höheren Haftungsrisiko ausgesetzt sind und haftbar gemacht werden können.
Weitere wichtige Regulierungen für digitale Dienste
Neben dem EU AI Act gibt es weitere wichtige Regelungen, die von der EU erarbeitet wurden, um den neuen Bedingungen des digitalen Wandels zu begegnen. Hierzu gehören unter anderem der Digital Markets Act (DMA = Gesetz über digitale Märkte), der Digital Service Act (DSA = Gesetz über digitale Dienste) und der Data Act.
Digital Markets Act (DMA)
Der Digitale Markets Act ist zusammen mit dem Digital Service Act ein Eckpfeiler der aktuellen Digitalstrategie der Europäischen Union. Das Gesetz ist am 1. November 2022 als Verordnung in Kraft getreten und muss seit dem 2. Mai 2023 verbindlich angewandt werden.
Das Ziel des DMA ist es, klare Regelungen für große, systemische und marktbeherrschende Online-Plattformen, sogenannte “Gatekeeper”, zu schaffen. So soll zum einen die Wahlfreiheit der Nutzer erhöht, der Wettbewerb gestärkt und der Markt insgesamt fairer gestaltet werden.
Folgende Kriterien müssen erfüllt sein, um als Gatekeeper zu gelten:
- Das Unternehmen hat eine starke wirtschaftliche Stellung mit großem Einfluss auf den EU-Binnenmarkt und ist in mindestens drei Ländern der Europäischen Union aktiv.
- Die Online-Plattform hat eine stark vermittelnde Rolle, d.h. sie verbindet viele Nutzer mit einer Vielzahl an Unternehmen.
- Die Position der Firma auf dem Markt ist gefestigt und dauerhaft.
Unternehmen wie Alphabet (Google), Amazon, Apple, ByteDance (TikTok), Meta und Microsoft erfüllen beispielsweise alle diese Kriterien und gelten deshalb als Gatekeeper.
Seit dem 02. Mai 2023 gelten für die Gatekeeper unter anderem an folgende Regelungen:
- Die Gatekeeper müssen Dritten in bestimmten Situationen ermöglichen, mit ihrer Plattform zusammenarbeiten zu können.
- Sie müssen ihren Nutzern gewährleisten, auf die von ihnen auf der Plattform generierten Daten zugreifen zu können.
- Sie dürfen Konsumenten nicht davon abhalten, vorinstallierte Apps zu deinstallieren.
- Die Plattformen dürfen eigene Produkte und Dienstleistungen gegenüber denen von Dritten nicht in Bezug auf Reihung bevorzugen.
- Die Gatekeeper dürfen Nutzer ohne Zustimmung nicht außerhalb des zentralen Plattformdienstes mit dem Ziel, gezielt Werbung zu betreiben, nachverfolgen.
Eine vollständige Übersicht über alle Verhaltensregelungen finden Sie auf der Webseite der Europäischen Kommission.
Verstöße gegen das Gesetz über digitale Märkte können Bußgelder, Zwangsgelder oder andere Abhilfemaßnahmen zur Folge haben.
Digital Service Act (DSA)
Der Digital Service Act (DSA), zu Deutsch Gesetz über digitale Dienste, ist am 16. November 2022 in Kraft getreten und muss seit dem 14. Mai 2024 verbindlich in allen Mitgliedsstaaten der EU angewandt werden.
Hierbei handelt es sich um Vorschriften für Anbieter digitaler Dienste, die dafür sorgen sollen, dass die Grundrechte der Nutzer im Internet, wie z.B. die Redefreiheit, besser geschützt werden und mehr Rechtssicherheit im Online-Umfeld geboten ist. Die Entfernung illegaler Inhalte, worunter beispielsweise Hassreden oder gefälschte Produkte, die zum Kauf angeboten werden, gehören, sollen mit dem DSA leichter entfernt werden können.
Die Regelungen des Gesetzes über digitale Dienste gelten für alle Online-Anbieter, die ihre digitalen Dienste im EU-Binnenmarkt zur Verfügung stellen - ganz unabhängig davon, ob sie in der EU niedergelassen sind oder nicht. Hierzu zählen beispielsweise Internetanbieter, Domänennamen-Registrierstellen, Hosting-Dienste wie Cloud- und Webhosting-Dienste, Online-Marktplätze, App-Stores, Plattformen der kollaborativen Wirtschaft und Social-Media-Plattformen. Besondere Sorgfaltspflichten gelten für sehr große Anbieter, die mehr als 45 Millionen aktive monatliche Nutzer zählen.
Fazit
Insgesamt stellt der EU AI Act einen wichtigen Schritt in der Regulierung von Künstlicher Intelligenz in der Europäischen Union dar. Die Regelung ist ein Meilenstein, der darauf abzielt, die Potenziale von KI verantwortungsvoll auszuschöpfen und dabei ethische Grundsätze und den Schutz der Gesellschaft fokussiert. Die Schaffung klarer Standards, die Transparenz, Sicherheit und einen ethischen Einsatz von KI fördern, sind die Vorteile des EU AI Act. Die Harmonisierung der Regeln innerhalb der EU stärkt die Wettbewerbsfähigkeit und erleichtert den grenzüberschreitenden Einsatz von KI-Technologien.
Allerdings müssen auch Herausforderungen und mögliche Nachteile berücksichtigt werden. Trotz Regulierung könnten Regierungen KI mit dem Argument der nationalen Sicherheit missbrauchen und zu Überwachungszwecken einsetzen.Insgesamt bewegt sich der EU AI Act im Spannungsfeld zwischen dem Bedürfnis nach Sicherheit, Ethik und Transparenz einerseits und der Förderung von Innovation und Wettbewerbsfähigkeit andererseits.