Gesetz zur künstlichen Intelligenz

Einigung zum EU AI Act

Nach langen Verhandlungen haben sich die europäischen Gesetzgeber, das Europäische Parlament und der Rat der EU auf das Gesetz über die Künstliche Intelligenz politisch geeinigt. „Künstliche Intelligenz verändert schon heute unseren Alltag. Und das ist erst der Anfang. Klug und breit eingesetzt, verspricht KI enorme Vorteile für unsere Wirtschaft und Gesellschaft. Daher begrüße ich die heutige politische Einigung des Europäischen Parlaments und des Rates über den Rechtsakt zur Künstlichen Intelligenz sehr“, sagte Ursula von der Leyen, Präsidentin der Europäischen Kommission.

Bild: ©BillionPhotoscom/stock.adobe.com

Die Präsidentin betonte weiter: „Das EU-Gesetz über die Künstliche Intelligenz ist der erste umfassende Rechtsrahmen für künstliche Intelligenz weltweit. Dies ist also ein historischer Moment. Mit dem KI-Gesetz werden die europäischen Werte in eine neue Ära überführt. Durch die Konzentration der Regulierung auf erkennbare Risiken wird die heutige Einigung eine verantwortungsvolle Innovation in Europa fördern. Indem sie die Sicherheit und die Grundrechte von Menschen und Unternehmen garantiert, wird sie die Entwicklung, den Einsatz und die Einführung vertrauenswürdiger KI in der EU unterstützen. Unser KI-Gesetz wird einen wesentlichen Beitrag zur Entwicklung globaler Regeln und Grundsätze für menschenzentrierte KI leisten.”

Unterscheidung nach Risiken

Die neuen Vorschriften werden in allen Mitgliedstaaten auf der Grundlage einer zukunftssicheren Definition von KI unmittelbar und in gleicher Weise angewandt. Sie folgen einem risikobasierten Ansatz, der wie folgt unterteilt wird:

Minimales Risiko: Die große Mehrheit der KI-Systeme fällt in die Kategorie des minimalen Risikos. Anwendungen mit minimalem Risiko wie etwa KI-gestützte Empfehlungssysteme oder Spam-Filter sollen von einem Freipass und fehlenden Verpflichtungen profitieren, da diese Systeme nur ein minimales oder gar kein Risiko für die Rechte oder die Sicherheit der Bürger darstellen. Wie die Kommission mitteilt können sich Unternehmen auf freiwilliger Basis jedoch zu zusätzlichen Verhaltenskodizes für diese KI-Systeme verpflichten.

Hohes Risiko: KI-Systeme, die als risikoreich eingestuft werden, müssen strenge Anforderungen erfüllen, darunter Systeme zur Risikominderung, eine hohe Qualität der Datensätze, die Protokollierung von Aktivitäten, eine ausführliche Dokumentation, klare Benutzerinformationen, menschliche Aufsicht und ein hohes Maß an Robustheit, Genauigkeit und Cybersicherheit. Sogenannte ‘regulatorische Sandkästen’ sollen verantwortungsvolle Innovationen und die Entwicklung von konformen KI-Systemen erleichtern. Beispiele für solche risikoreichen KI-Systeme sind bestimmte kritische Infrastrukturen, etwa in den Bereichen Wasser, Gas und Strom, medizinische Geräte, Systeme zur Bestimmung des Zugangs zu Bildungseinrichtungen oder zur Rekrutierung von Personen oder bestimmte Systeme, die in den Bereichen Strafverfolgung, Grenzkontrolle, Rechtspflege und demokratische Prozesse eingesetzt werden. Darüber hinaus gelten biometrische Identifizierungs-, Kategorisierungs- und Emotionserkennungssysteme ebenfalls als hochriskant.

Unannehmbares Risiko: KI-Systeme, die eine eindeutige Bedrohung für die Grundrechte der Menschen darstellen, werden verboten. Dazu gehören KI-Systeme oder -Anwendungen, die das menschliche Verhalten manipulieren, um den freien Willen des Nutzers zu umgehen, wie etwa Spielzeug mit Sprachassistenz, das gefährliches Verhalten von Minderjährigen fördern kann, ‘Social Scoring’-Systeme, sowie bestimmte Anwendungen der vorausschauenden Polizeiarbeit. Darüber hinaus sieht der AI Act ein Verbot einiger Anwendungen biometrischer Systeme vor, beispielsweise Systeme zur Erkennung von Emotionen am Arbeitsplatz und einige Systeme zur Kategorisierung von Personen oder zur biometrischen Fernidentifizierung in Echtzeit zu Strafverfolgungszwecken in öffentlich zugänglichen Räumen (mit engen Ausnahmen).

Spezifisches Transparenzrisiko: Beim Einsatz von KI-Systemen wie Chatbots sollten sich die Nutzer bewusst sein, dass sie mit einer Maschine interagieren. Deep Fakes und andere KI-generierte Inhalte müssen als solche gekennzeichnet werden, und die Nutzer müssen informiert werden, wenn biometrische Kategorisierungs- oder Emotionserkennungssysteme verwendet werden. Darüber hinaus müssen die Anbieter ihre Systeme so gestalten, dass synthetische Audio-, Video-, Text- und Bildinhalte in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkannt werden können.

Unternehmen, die sich nicht an die Vorschriften halten, müssen mit Geldstrafen rechnen. Vorgesehen sind Geldbußen zwischen 35Mio.€ oder 7 Prozent des weltweiten Jahresumsatzes (je nachdem, welcher Betrag höher ist) für Verstöße gegen verbotene KI-Anwendungen. Verstöße gegen andere Verpflichtungen werden von der EU mit 15Mio.€ oder 3 Prozent beziffert. Die Strafe für die Bereitstellung falscher Informationen liegt bei 7,5Mio.€ oder 1,5 Prozent des weltweiten Jahresumsatzes. Für KMU und Start-ups sind bei Verstößen laut EU Kommission verhältnismäßigere Obergrenzen für Bußgelder vorgesehen.

KI für allgemeine Zwecke

Mit dem KI-Gesetz führt die EU Kommission zudem spezielle Vorschriften für KI-Modelle für allgemeine Zwecke ein, die für Transparenz entlang der Wertschöpfungskette sorgen sollen. Für sehr leistungsfähige Modelle, die systemische Risiken darstellen könnten, wird es zusätzliche verbindliche Verpflichtungen in Bezug auf das Risikomanagement und die Überwachung schwerwiegender Vorfälle sowie die Durchführung von Modellevaluierungen und Tests mit gegnerischen Systemen geben. Diese neuen Verpflichtungen sollen durch Verhaltenskodizes operationalisiert werden, die von der Industrie, der Wissenschaft, der Zivilgesellschaft und anderen Interessengruppen zusammen mit der Kommission entwickelt werden.

Das könnte Sie auch interessieren

Trotz eines aktuell schwierigen konjunkturellen Umfelds erwartet der Digitalverband Bitkom im deutschen Markt für IT und Telekommunikation (ITK) 2025 ein Umsatzplus. Im vergangenen Jahr hatten die ITK-Umsätze um 3,3 Prozent auf 222,6Mrd.€ zugelegt.‣ weiterlesen

Die digitale Transformation wird zur Schlüsselfrage für den Erfolg im Maschinen- und Anlagenbau. Welche Handlungsoptionen Unternehmen dabei haben, beleuchtet die Impuls-Stiftung des VDMA in ihrer neuen Kurzstudie 'Erfolgsfaktoren digitaler Geschäftsmodelle', die vom Institut FIR der RWTH Aachen erstellt wurde.‣ weiterlesen

Was bedeutet 2025 für unsere Cybersicherheit? Welche Cyberattacken werden häufiger, welche Branchen stehen besonders im Visier und welche Rolle spielt KI? Michael Veit, Technology Evangelist beim Security-Spezialisten Sophos, gibt Antworten.‣ weiterlesen

Eine Umfrage von Vention und YouGov zeigt, dass die viele Menschen auf dem deutschen Arbeitsmarkt noch wenig Kontakt mit künstlicher Intelligenz (KI) haben. 50 Prozent der Befragten fühlen sich zudem nicht auf den Umgang mit KI-Anwendungen vorbereitet, 43 Prozent möchten jedoch in Zukunft KI-Tools zu verwenden. Die Einführung von KI am Arbeitsplatz sei bis dato noch begrenzt, so die Studienautoren, obwohl die Technologie das Potenzial habe, dem Arbeitskräftemangel entgegenzuwirken und ganze Branchen zu verändern.‣ weiterlesen

Im Forschungsprojekt 'AutoPres' des IPH - Institut für Integrierte Produktion Hannover und Jobotec zeigen die Beteiligten am Beispiel einer Spindelpresse, dass sich auch ältere Maschinen mit KI nachrüsten lassen.‣ weiterlesen

Digitale Tools bringen den Aufbau einer Circular Economy auf Touren, wenn sie systemisch eingesetzt werden. Wie das gelingen kann, zeigt die Studie 'Digitale Enabler der Kreislaufwirtschaft' anhand von drei sehr unterschiedlichen Produkten: T-Shirts, Waschmaschinen und Einfamilienhäusern. Die Studie der Deutschen Akademie der Technikwissenschaften (Acatech) arbeitet heraus, welche digitalen Technologien und Anwendungen Wertschöpfungsketten zirkulär gestalten können - und wie die einzelnen Enabler im Zusammenspiel ein erweitertes Potenzial entfalten.‣ weiterlesen