Gesetz zur künstlichen Intelligenz

Einigung zum EU AI Act

Nach langen Verhandlungen haben sich die europäischen Gesetzgeber, das Europäische Parlament und der Rat der EU auf das Gesetz über die Künstliche Intelligenz politisch geeinigt. „Künstliche Intelligenz verändert schon heute unseren Alltag. Und das ist erst der Anfang. Klug und breit eingesetzt, verspricht KI enorme Vorteile für unsere Wirtschaft und Gesellschaft. Daher begrüße ich die heutige politische Einigung des Europäischen Parlaments und des Rates über den Rechtsakt zur Künstlichen Intelligenz sehr“, sagte Ursula von der Leyen, Präsidentin der Europäischen Kommission.

Bild: ©BillionPhotoscom/stock.adobe.com

Die Präsidentin betonte weiter: „Das EU-Gesetz über die Künstliche Intelligenz ist der erste umfassende Rechtsrahmen für künstliche Intelligenz weltweit. Dies ist also ein historischer Moment. Mit dem KI-Gesetz werden die europäischen Werte in eine neue Ära überführt. Durch die Konzentration der Regulierung auf erkennbare Risiken wird die heutige Einigung eine verantwortungsvolle Innovation in Europa fördern. Indem sie die Sicherheit und die Grundrechte von Menschen und Unternehmen garantiert, wird sie die Entwicklung, den Einsatz und die Einführung vertrauenswürdiger KI in der EU unterstützen. Unser KI-Gesetz wird einen wesentlichen Beitrag zur Entwicklung globaler Regeln und Grundsätze für menschenzentrierte KI leisten.”

Unterscheidung nach Risiken

Die neuen Vorschriften werden in allen Mitgliedstaaten auf der Grundlage einer zukunftssicheren Definition von KI unmittelbar und in gleicher Weise angewandt. Sie folgen einem risikobasierten Ansatz, der wie folgt unterteilt wird:

Minimales Risiko: Die große Mehrheit der KI-Systeme fällt in die Kategorie des minimalen Risikos. Anwendungen mit minimalem Risiko wie etwa KI-gestützte Empfehlungssysteme oder Spam-Filter sollen von einem Freipass und fehlenden Verpflichtungen profitieren, da diese Systeme nur ein minimales oder gar kein Risiko für die Rechte oder die Sicherheit der Bürger darstellen. Wie die Kommission mitteilt können sich Unternehmen auf freiwilliger Basis jedoch zu zusätzlichen Verhaltenskodizes für diese KI-Systeme verpflichten.

Hohes Risiko: KI-Systeme, die als risikoreich eingestuft werden, müssen strenge Anforderungen erfüllen, darunter Systeme zur Risikominderung, eine hohe Qualität der Datensätze, die Protokollierung von Aktivitäten, eine ausführliche Dokumentation, klare Benutzerinformationen, menschliche Aufsicht und ein hohes Maß an Robustheit, Genauigkeit und Cybersicherheit. Sogenannte ‘regulatorische Sandkästen’ sollen verantwortungsvolle Innovationen und die Entwicklung von konformen KI-Systemen erleichtern. Beispiele für solche risikoreichen KI-Systeme sind bestimmte kritische Infrastrukturen, etwa in den Bereichen Wasser, Gas und Strom, medizinische Geräte, Systeme zur Bestimmung des Zugangs zu Bildungseinrichtungen oder zur Rekrutierung von Personen oder bestimmte Systeme, die in den Bereichen Strafverfolgung, Grenzkontrolle, Rechtspflege und demokratische Prozesse eingesetzt werden. Darüber hinaus gelten biometrische Identifizierungs-, Kategorisierungs- und Emotionserkennungssysteme ebenfalls als hochriskant.

Unannehmbares Risiko: KI-Systeme, die eine eindeutige Bedrohung für die Grundrechte der Menschen darstellen, werden verboten. Dazu gehören KI-Systeme oder -Anwendungen, die das menschliche Verhalten manipulieren, um den freien Willen des Nutzers zu umgehen, wie etwa Spielzeug mit Sprachassistenz, das gefährliches Verhalten von Minderjährigen fördern kann, ‘Social Scoring’-Systeme, sowie bestimmte Anwendungen der vorausschauenden Polizeiarbeit. Darüber hinaus sieht der AI Act ein Verbot einiger Anwendungen biometrischer Systeme vor, beispielsweise Systeme zur Erkennung von Emotionen am Arbeitsplatz und einige Systeme zur Kategorisierung von Personen oder zur biometrischen Fernidentifizierung in Echtzeit zu Strafverfolgungszwecken in öffentlich zugänglichen Räumen (mit engen Ausnahmen).

Spezifisches Transparenzrisiko: Beim Einsatz von KI-Systemen wie Chatbots sollten sich die Nutzer bewusst sein, dass sie mit einer Maschine interagieren. Deep Fakes und andere KI-generierte Inhalte müssen als solche gekennzeichnet werden, und die Nutzer müssen informiert werden, wenn biometrische Kategorisierungs- oder Emotionserkennungssysteme verwendet werden. Darüber hinaus müssen die Anbieter ihre Systeme so gestalten, dass synthetische Audio-, Video-, Text- und Bildinhalte in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkannt werden können.

Unternehmen, die sich nicht an die Vorschriften halten, müssen mit Geldstrafen rechnen. Vorgesehen sind Geldbußen zwischen 35Mio.€ oder 7 Prozent des weltweiten Jahresumsatzes (je nachdem, welcher Betrag höher ist) für Verstöße gegen verbotene KI-Anwendungen. Verstöße gegen andere Verpflichtungen werden von der EU mit 15Mio.€ oder 3 Prozent beziffert. Die Strafe für die Bereitstellung falscher Informationen liegt bei 7,5Mio.€ oder 1,5 Prozent des weltweiten Jahresumsatzes. Für KMU und Start-ups sind bei Verstößen laut EU Kommission verhältnismäßigere Obergrenzen für Bußgelder vorgesehen.

KI für allgemeine Zwecke

Mit dem KI-Gesetz führt die EU Kommission zudem spezielle Vorschriften für KI-Modelle für allgemeine Zwecke ein, die für Transparenz entlang der Wertschöpfungskette sorgen sollen. Für sehr leistungsfähige Modelle, die systemische Risiken darstellen könnten, wird es zusätzliche verbindliche Verpflichtungen in Bezug auf das Risikomanagement und die Überwachung schwerwiegender Vorfälle sowie die Durchführung von Modellevaluierungen und Tests mit gegnerischen Systemen geben. Diese neuen Verpflichtungen sollen durch Verhaltenskodizes operationalisiert werden, die von der Industrie, der Wissenschaft, der Zivilgesellschaft und anderen Interessengruppen zusammen mit der Kommission entwickelt werden.

Das könnte Sie auch interessieren

Für die Digitalisierung braucht es in Zukunft mehr Fachkräfte. Eine Studie des Instituts der deutschen Wirtschaft (IW) zeigt, in welchen Digitalisierungsberufen bis 2027 die meisten Stellen unbesetzt bleiben dürften.‣ weiterlesen

Unternehmen stehen aktuell vor großen Herausforderungen. Das Konzept des linearen Wirtschaftens wird immer stärker in Frage gestellt. Gleichzeitig herrscht ein hoher Digitalisierungs- und Innovationsdruck. Unternehmen müssen also ressourcen- und kostenschonend wirtschaften, um in Zukunft wettbewerbsfähig zu bleiben. In vielen Unternehmen gebe es laut einer Studie des Leasingunternehmens CHG-Meridian zwar bereits eine Nachhaltigkeitsstrategie, aber Potenziale bestimmter Maßnahmen würden nicht erkannt.‣ weiterlesen

Der D21-Digital-Index erhebt jährlich, wie digital die deutsche Gesellschaft ist und wie resilient sie für die Zukunft aufgestellt ist. Deutlich wird auch in diesem Jahr: Der Großteil der Menschen in Deutschland hat an der digitalen Welt teil und kann ihre Möglichkeiten selbstbestimmt für sich nutzen. Der Index-Wert liegt bei 58 von 100 Punkten (+1 zum Vorjahr).‣ weiterlesen

Zwischen 2023 und 2024 streben insgesamt 224.000 Mittelständler Nachfolgeregelungen für ihr Unternehmen an. Laut KfW Research wird dieser Wert bis Ende 2027 626.000 Unternehmen steigen. Die Studienautoren gehen davon aus, dass Schwierigkeiten bei der Nachfolgesuche zunehmen.‣ weiterlesen

Auch künstliche Intelligenz verbraucht Ressourcen. Forschende des Instituts für ökologische Wirtschaftsforschung, AlgorithmWatch und des DAI-Labors der TU Berlin fordern daher, die Nachhaltigkeitsauswirkungen von KI über den gesamten Lebenszyklus hinweg stärker in den Blick zu nehmen.
‣ weiterlesen

Der D21-Digital-Index erhebt, wie digital die deutsche Gesellschaft ist und wie resilient sie für die Zukunft aufgestellt ist. Auch in diesem Jahr zeigt sich: Der Großteil der Menschen in Deutschland nimmt an der digitalen Welt teil und kann ihre Möglichkeiten selbstbestimmt für sich nutzen. Der Indexwert steigt um einen Punkt auf 58 von 100 Punkten. ‣ weiterlesen

Delinea, ein Anbieter für Privileged Access Management (PAM), beobachtet einen Strategiewechsel bei Cyberkriminellen. Anstatt ein Unternehmen mit Ransomware lahmzulegen und als Geisel zu nehmen, werden sensible Daten heimlich exfiltriert. Cyberkriminelle drohen dann häufig damit, die Daten an den Meistbietenden zu verkaufen oder sie zu nutzen, um eine Cyberversicherungszahlung zu erhalten.‣ weiterlesen

Welche Voraussetzungen müssen erfüllt sein, damit Anwender KI-Anbietern vertrauen können und deren KI-Lösung nutzen? Diese Frage steht im Mittelpunkt des Forschungsprojektes ‘TrustKI’, das Anfang 2023 am Institut für Internet-Sicherheit – if(is) der Westfälischen Hochschule gestartet ist. Erste Antworten liefert eine kürzlich ­abgeschlossene Anwender-Studie.‣ weiterlesen

Marktunsicherheiten halten Unternehmen laut einer Untersuchung der Unternehmensberatung Horváth nicht von Transaktionen ab. Sechs von zehn Industrieunternehmen sind gezielt auf der Suche nach Kaufoptionen mit KI-Expertise.‣ weiterlesen

Deutsche Unternehmen sehen den Einsatz von Digitalisierung und KI zur Optimierung der Effizienz und zur Senkung des Energieverbrauchs als effektiver an als Offshoring. Das geht aus einer Untersuchung von Statista im Auftrag von Avanade hervor.‣ weiterlesen

Gemeinsam mit dem Institute of Technology Management der University of St.Gallen hat das WZL den?Status quo von Datenanalysen in der produzierenden Industrie untersucht. Die Autoren betonen die wachsende Bedeutung für die Industrie, aber auch den weiteren Forschungsbedarf.‣ weiterlesen