ThinkTank_Logo_black
Das Warten hat ein Ende
Ailance™ ThinkTank ist da!

KI-Verordnung – EU veröffentlicht erste Leitlinien

Die EU-Kommission hat Leitlinien veröffentlicht, die die Anwendung und Durchsetzung der Verbote nach Artikel 5 KI-Verordnung präzisieren.
Kategorien:

Die KI-Verordnung (KI-VO) verfolgt einen risikobasierten Ansatz, um Innovationen zu fördern und gleichzeitig fundamentale Rechte zu schützen. Ein zentraler Bestandteil der KI-VO ist das Verbot bestimmter KI-Praktiken, die als unvereinbar mit den Grundwerten der Union angesehen werden. Die Europäischen Kommission hat jetzt Leitlinien veröffentlicht, die die Anwendung und Durchsetzung der Verbote nach Artikel 5 KI-VO präzisieren. Die wichtigsten Punkte im Überblick.

Hintergrund der Verbote in Artikel 5 KI-Verordnung

Die Verbote in der KI-Verordnung sind ein zentrales Element zur Regulierung künstlicher Intelligenz in der Europäischen Union und basieren auf dem Schutz grundlegender Menschenrechte sowie der Wahrung demokratischer und rechtsstaatlicher Prinzipien. Sie sollen sicherstellen, dass bestimmte KI-Technologien nicht in einer Weise eingesetzt werden, die fundamentale Werte der EU wie Menschenwürde, Nichtdiskriminierung, Transparenz und Privatsphäre gefährden.

Die zunehmende Verbreitung von KI-Technologien bringt erhebliche Herausforderungen mit sich, insbesondere im Hinblick auf die Kontrolle über automatisierte Entscheidungsprozesse, die potenzielle Manipulation menschlichen Verhaltens und den unkontrollierten Zugriff auf persönliche Daten. Das Verbot besonders problematischer KI-Anwendungen dient daher der Abwehr gravierender Risiken und Gefahren, die von diesen Technologien ausgehen können.

Mit den Verboten sollen insbesondere Anwendungen verhindert werden, die durch absichtliche Manipulation oder täuschende Mechanismen das Verhalten von Individuen oder Gruppen steuern, ohne dass diesen die zugrundeliegenden Prozesse bewusst sind. Ebenso soll der Missbrauch biometrischer Daten eingedämmt und der Einsatz von Systemen zur sozialen Kontrolle und Diskriminierung ausgeschlossen werden.

Die Zielsetzung dieser Verbote liegt somit in der Wahrung der Autonomie und Entscheidungsfreiheit des Einzelnen, der Sicherstellung von Fairness und Transparenz bei KI-gestützten Prozessen sowie der Vermeidung von gesellschaftlichen und wirtschaftlichen Ungleichheiten, die durch intransparente oder diskriminierende KI-Systeme entstehen könnten.

Die in Artikel 5 der Verordnung aufgeführten KI-Praktiken sind daher nicht nur auf technischer oder wirtschaftlicher Ebene problematisch, sondern auch unter ethischen und sozialen Gesichtspunkten untragbar. Durch die klare Regulierung dieser Technologien soll sichergestellt werden, dass KI-Anwendungen zum Nutzen der Gesellschaft entwickelt und eingesetzt werden, ohne dass grundlegende Rechte und Freiheiten beeinträchtigt werden.

Die KI-Verordnung unterscheidet mehrere Kategorien verbotener KI-Anwendungen:

Manipulative und irreführende KI-Systeme (Art. 5 Abs. 1 lit. a KI-VO)

Diese Regelung verbietet KI-Systeme, die subversive, manipulative oder irreführende Techniken nutzen, um das Verhalten von Individuen zu beeinflussen. Dies umfasst unter anderem:

  • Subliminale Nachrichten: KI-Systeme, die visuelle oder auditive Reize außerhalb des bewussten Wahrnehmungsbereichs platzieren, um unbewusstes Verhalten oder Entscheidungen zu beeinflussen. Diese Techniken können durch ultraschnelle Bildblitze oder unhörbare akustische Signale umgesetzt werden.
  • Psychologische oder kognitive Manipulation: KI-Systeme, die gezielt psychologische Schwächen oder kognitive Verzerrungen ausnutzen, um Nutzer zu bestimmten Handlungen oder Entscheidungen zu bewegen. Beispiele sind personalisierte Werbung, die auf individuellen Schwächen basiert, oder KI-gestützte Benutzeroberflächen, die durch “Dark Patterns” Entscheidungsprozesse verzerren.
  • Desinformation und irreführende Inhalte: KI-Systeme, die gezielt falsche oder verzerrte Informationen generieren und verbreiten, um öffentliche Meinung oder individuelle Entscheidungen zu beeinflussen. Hierzu zählen Deepfakes, synthetische Nachrichtenartikel oder KI-gestützte Bots, die auf Social-Media-Plattformen Meinungsbildung manipulieren.
  • Zwanghafte Interaktionsmechanismen: KI-gestützte Systeme, die bewusst Nutzer zu längerem Engagement verleiten, indem sie Abhängigkeitsmechanismen wie Belohnungssysteme oder “Endlos-Scroll”-Funktionen ausnutzen. Dies kann besonders problematisch für Kinder und Jugendliche sein, die anfälliger für solche Mechanismen sind.


Die genannten Praktiken sind besonders problematisch, da sie die Entscheidungsfreiheit und kognitive Autonomie der Betroffenen untergraben. Solche KI-Systeme können weitreichende Auswirkungen auf Demokratie, Wirtschaft und Gesellschaft haben, insbesondere wenn sie zur gezielten Beeinflussung des Wahlverhaltens oder von Kaufentscheidungen eingesetzt werden Daher unterliegt ihre Verwendung strengen gesetzlichen Beschränkungen gemäß der KI-Verordnung.

Ausnutzung von Schutzbedürftigkeit (Art. 5 Abs. 1 lit. b KI-VO)

Die KI-Verordnung verbietet den Einsatz von KI-Systemen, die gezielt Schwächen von Einzelpersonen oder Gruppen aufgrund ihres Alters, einer Behinderung oder einer besonderen sozialen oder wirtschaftlichen Situation ausnutzen. Diese Regelung zielt darauf ab, besonders schutzbedürftige Personen vor unfairen oder manipulativen KI-Anwendungen zu bewahren, die ihre Entscheidungsfreiheit und Autonomie untergraben könnten.

Zu den verbotenen Praktiken gehören:

  • Gezielte Beeinflussung von Kindern und älteren Menschen: KI-gestützte Anwendungen, die speziell auf Kinder oder ältere Personen abzielen, um sie zu bestimmten Verhaltensweisen oder Kaufentscheidungen zu verleiten, beispielsweise durch manipulative Werbung oder gezielt irreführende Informationen.
  • Finanzielle Ausbeutung sozial oder wirtschaftlich benachteiligter Gruppen: Systeme, die gezielt einkommensschwache Gruppen mit wirtschaftlich nachteiligen Angeboten manipulieren, indem sie beispielsweise überhöhte Kreditangebote oder unfaire Versicherungsbedingungen durch algorithmische Entscheidungsprozesse vorschlagen.
  • Missbrauch kognitiver Einschränkungen: KI-Systeme, die bewusst darauf ausgelegt sind, kognitive Einschränkungen oder eine mangelnde digitale Kompetenz auszunutzen, um Einzelpersonen zu täuschen oder ihnen unfaire Vertragsbedingungen aufzuzwingen.
  • Ausnutzung von Abhängigkeiten und Suchterkrankungen: KI-gestützte Plattformen, die darauf abzielen, suchtgefährdete Personen durch gezielte Werbung oder Interaktionsmechanismen weiter in eine Abhängigkeit zu treiben, etwa durch die algorithmische Optimierung von Glücksspiel- oder Mikrotransaktionssystemen.


Diese Verbote dienen dazu, die Integrität und Sicherheit schutzbedürftiger Gruppen zu gewährleisten und eine ethische Nutzung von KI-Technologien sicherzustellen. KI-Anwendungen müssen so konzipiert werden, dass sie keine unfairen Vorteile aus den besonderen Lebensumständen oder Schwächen einzelner Gruppen ziehen. Durch die Umsetzung dieser Vorgaben wird sichergestellt, dass technologische Fortschritte nicht zulasten derjenigen gehen, die in besonderem Maße auf Schutz und Fairness angewiesen sind.

Social Scoring (Art. 5 Abs. 1 lit. c KI-VO)

Eine zentrale Neuerung im KI-Verordnung ist das umfassende Verbot von Social Scoring-Systemen, die durch öffentliche oder private Akteure eingesetzt werden. Social Scoring bezeichnet die algorithmische Bewertung von Individuen anhand ihres Verhaltens oder persönlicher Merkmale, um daraus soziale oder wirtschaftliche Konsequenzen abzuleiten. Diese Systeme sind besonders problematisch, da sie tief in die Privatsphäre der Bürger eingreifen und zu ungerechtfertigten Diskriminierungen führen können.

Das Verbot greift insbesondere, wenn:

  • eine Bewertung über soziale Verhaltensweisen oder persönliche Merkmale von Einzelpersonen oder Gruppen vorgenommen wird,
  • negative Folgen für Individuen in unzusammenhängenden gesellschaftlichen Bereichen entstehen, beispielsweise der Ausschluss von Bildungsangeboten oder Finanzdienstleistungen aufgrund eines schlechten Social Scores,
  • unverhältnismäßige Sanktionen oder Privilegien aus den Bewertungen resultieren, etwa die Erschwerung des Zugangs zu Krediten oder Wohnraum auf Basis nicht objektiver, diskriminierender Kriterien.


Social Scoring ist vor allem aus autoritären Staaten bekannt, wo es zur Kontrolle und Überwachung von Bürgern eingesetzt wird. Die KI-Verordnung stellt klar, dass solche Systeme mit den Grundwerten der Europäischen Union, insbesondere der Achtung der Menschenwürde, der Gleichbehandlung und der Privatsphäre, nicht vereinbar sind.

Ein besonderes Augenmerk liegt auf der Durchsetzung dieses Verbots durch nationale Marktüberwachungsbehörden und Datenschutzinstitutionen. Unternehmen und Behörden, die in Europa KI-Systeme entwickeln oder einsetzen, müssen sicherstellen, dass ihre Systeme keine unerlaubten Social Scoring-Mechanismen enthalten. Verstöße gegen dieses Verbot können mit hohen Geldstrafen geahndet werden, um sicherzustellen, dass der Missbrauch von KI für gesellschaftliche Kontrolle in der EU unterbunden wird.

KI-gestützte Vorhersage von Straftaten (Art. 5 Abs. 1 lit. d KI-VO)

Das Verbot erstreckt sich auf KI-Systeme, die das Risiko oder die Wahrscheinlichkeit einer kriminellen Handlung auf Basis persönlicher Merkmale, des sozialen Hintergrunds oder statistischer Wahrscheinlichkeiten vorhersagen. Die KI-Verordnung stellt klar, dass solche Systeme erhebliche Risiken für Grundrechte, insbesondere die Unschuldsvermutung, den Schutz der Privatsphäre und das Diskriminierungsverbot, bergen. Die Nutzung solcher Technologien kann zu systemischer Benachteiligung bestimmter Bevölkerungsgruppen führen, insbesondere wenn verzerrte oder unzureichende Datengrundlagen zur Entscheidungsfindung herangezogen werden.

Problematische Aspekte solcher KI-Systeme:

  • Diskriminierung und Verzerrung: KI-Modelle basieren oft auf historischen Daten, die bestehende Vorurteile oder strukturelle Ungleichheiten widerspiegeln. Dadurch besteht das Risiko, dass bestimmte Gruppen überproportional als verdächtig eingestuft werden.
  • Fehlende Transparenz und Nachvollziehbarkeit: Die Entscheidungsfindung durch KI-Systeme ist oft intransparent und schwer nachvollziehbar, was eine effektive Kontrolle und juristische Überprüfung erschwert.
  • Unschuldsvermutung: Eine automatisierte Einschätzung des individuellen Risikos einer Straftat kann dazu führen, dass Personen stigmatisiert oder überwacht werden, ohne dass eine tatsächliche strafrechtliche Grundlage vorliegt.


Ausnahmen bestehen für KI-Systeme, die objektive und verifizierbare Daten zur Unterstützung menschlicher Bewertungen nutzen. So können beispielsweise Systeme eingesetzt werden, um bereits bekannte kriminelle Muster in Datenanalysen zu identifizieren, wenn diese lediglich der Entscheidungsfindung durch Strafverfolgungsbehörden dienen und keine automatisierte Einstufung von Personen als potenzielle Täter erfolgt.

Insgesamt bleibt der Einsatz solcher Technologien in der EU hochsensibel und bedarf einer strikten Einhaltung rechtsstaatlicher Prinzipien sowie einer regelmäßigen Überprüfung durch unabhängige Aufsichtsbehörden.

Ungezieltes Sammeln biometrischer Daten (Art. 5 Abs. 1 lit. e KI-VO)

Das ungezielte Sammeln biometrischer Daten stellt eine erhebliche Bedrohung für die Privatsphäre und die informationelle Selbstbestimmung der betroffenen Personen dar. Die KI-Verordnung verbietet daher ausdrücklich das massenhafte, unkontrollierte Erfassen von Gesichtsbildern, Fingerabdrücken oder anderen biometrischen Merkmalen aus öffentlichen Quellen, insbesondere durch Techniken wie das sogenannte “Scraping”.

Solche Praktiken dienen häufig der Erstellung großflächiger biometrischer Datenbanken, die anschließend für eine Vielzahl von Zwecken eingesetzt werden können, etwa zur Gesichtserkennung oder zur Identitätsverifikation ohne explizite Zustimmung der betroffenen Personen. Dies wirft erhebliche datenschutzrechtliche und ethische Bedenken auf, insbesondere weil:

  • Fehlende Einwilligung: Die betroffenen Personen haben keine Kontrolle darüber, dass ihre biometrischen Daten erfasst und verarbeitet werden.
  • Risiken der Massenüberwachung: Solche Datenbanken können von staatlichen und privaten Akteuren genutzt werden, um weitreichende Überwachungsmaßnahmen durchzuführen.
  • Missbrauchsgefahr: Die biometrischen Daten könnten ohne Wissen oder Zustimmung für Zwecke der Strafverfolgung oder kommerzielle Anwendungen verwendet werden.
  • Fehlerrisiken und Diskriminierung: KI-gestützte Gesichtserkennungssysteme haben nachweislich eine höhere Fehlerquote bei bestimmten ethnischen Gruppen und können zu ungerechtfertigten Verdächtigungen oder Diskriminierungen führen.


Die Verordnung untersagt daher das Erstellen oder die Erweiterung solcher Datenbanken durch ungezieltes Scraping aus öffentlich zugänglichen Quellen wie sozialen Netzwerken oder Überwachungskameras. Unternehmen und Organisationen, die biometrische Technologien entwickeln oder einsetzen, müssen strenge Datenschutzrichtlinien und Transparenzanforderungen einhalten, um den Missbrauch sensibler personenbezogener Daten zu verhindern.

Zulässig sind biometrische Erfassungen nur unter strengen Auflagen, etwa wenn eine ausdrückliche, informierte Einwilligung der betroffenen Personen vorliegt oder gesetzliche Regelungen dies im Einklang mit den Grundrechten ermöglichen. Nationale Datenschutzbehörden sind angehalten, Verstöße gegen diese Bestimmungen konsequent zu verfolgen und empfindliche Strafen zu verhängen.

Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen (Art. 5 Abs. 1 lit. f KI-VO)

Das Verbot betrifft den Einsatz von KI-Systemen, die Emotionen von Arbeitnehmern oder Schülern analysieren, da dies erhebliche Auswirkungen auf die Privatsphäre, den Persönlichkeitsschutz und die individuelle Autonomie haben kann. Emotionserkennungstechnologien verwenden Gesichtserkennung, Sprachanalyse oder andere biometrische Signale, um den emotionalen Zustand einer Person zu bestimmen. Die EU stuft diese Praktiken als besonders kritisch ein, da sie potenziell diskriminierende Effekte haben und zu unrechtmäßigen Überwachungsmaßnahmen führen können.

Warum ist der Einsatz problematisch?

  • Eingriff in die Privatsphäre: Emotionserkennungssysteme sammeln und analysieren biometrische Daten, ohne dass die betroffenen Personen immer eine bewusste Zustimmung geben können.
  • Fehlinterpretation und Intransparenz: Die Genauigkeit dieser Systeme ist umstritten, da Emotionen subjektiv und kulturell unterschiedlich interpretiert werden können. Dies kann zu Fehlentscheidungen führen, die insbesondere im Arbeits- oder Bildungsumfeld schwerwiegende Konsequenzen haben.
  • Diskriminierung und Stigmatisierung: Personen mit bestimmten Gesichtsausdrücken oder Kommunikationsweisen könnten benachteiligt oder falsch kategorisiert werden, was zu unfairen Bewertungen oder sogar zum Ausschluss von Bildungs- oder Beschäftigungsmöglichkeiten führen kann.

Das Verbot sieht begrenzte Ausnahmen vor, insbesondere wenn die Emotionserkennung zu folgenden Zwecken dient:

  • Medizinische Anwendungen: In der Diagnostik oder Therapie, beispielsweise zur Unterstützung von Personen mit neurologischen Erkrankungen oder Kommunikationsschwierigkeiten.
  • Sicherheitsrelevante Maßnahmen: In engen Anwendungsbereichen, wie der Erkennung akuter Bedrohungen oder zur Identifikation von Personen in Notlagen (z. B. in der Luftfahrt oder bei kritischen Infrastrukturprojekten).

Organisationen und Unternehmen, die gegen das Verbot verstoßen, können mit empfindlichen Geldstrafen belegt werden. Regulierungsbehörden werden verpflichtet, den Einsatz solcher Technologien zu überwachen und sicherzustellen, dass sie nicht zu unzulässiger Überwachung oder ungerechtfertigten Eingriffen in die Privatsphäre führen.

Lese-Tipp: KI-Kompetenz und Unternehmenspflichten nach Artikel 4 KI-VO

Biometrische Kategorisierung sensibler Merkmale (Art. 5 Abs. 1 lit. g KI-VO)

Die biometrische Kategorisierung sensibler Merkmale durch KI-Systeme ist ein besonders sensibler Bereich, da sie direkt in die Grundrechte der betroffenen Personen eingreift. Die KI-Verordnung verbietet daher jegliche Nutzung biometrischer Daten zur Ableitung bestimmter persönlicher Merkmale, die im Zusammenhang mit der Identität und den geschützten Eigenschaften einer Person stehen.

Zu den sensiblen Merkmalen gehören insbesondere:

  • Rassenzugehörigkeit oder ethnische Herkunft: KI-Systeme dürfen nicht verwendet werden, um Menschen nach rassischen oder ethnischen Kriterien zu klassifizieren, da dies zu Diskriminierung und unzulässigen Ungleichbehandlungen führen kann.
  • Politische Überzeugungen: Die Analyse biometrischer Daten zur Bestimmung politischer Einstellungen kann zur Verfolgung und Unterdrückung abweichender Meinungen führen und ist daher strikt untersagt.
  • Religiöse oder weltanschauliche Ansichten: KI-Systeme, die aus biometrischen Daten Rückschlüsse auf die religiöse Zugehörigkeit oder weltanschauliche Überzeugungen einer Person ziehen, sind verboten, um die Freiheit der Religion und des Glaubens zu schützen.
  • Sexuelle Orientierung: Die Ableitung der sexuellen Orientierung aus biometrischen Daten stellt einen schwerwiegenden Eingriff in die Privatsphäre dar und kann zu Diskriminierung und Stigmatisierung führen.
  • Gewerkschaftszugehörigkeit: Die Analyse biometrischer Merkmale zur Bestimmung der Zugehörigkeit zu einer Gewerkschaft ist untersagt, um die Koalitionsfreiheit und den Schutz der Arbeitnehmerrechte zu gewährleisten.


Warum ist die biometrische Kategorisierung problematisch?

  • Fehlende wissenschaftliche Validität: Viele Methoden zur Ableitung sensibler Merkmale aus biometrischen Daten beruhen auf unbewiesenen oder pseudowissenschaftlichen Annahmen und sind daher äußerst fehleranfällig.
  • Risiken der Diskriminierung: Solche Systeme können bestehende Vorurteile und gesellschaftliche Ungleichheiten verstärken, indem sie bestimmte Gruppen benachteiligen oder stigmatisieren.
  • Ethische und rechtliche Bedenken: Der Einsatz dieser Technologien verstößt gegen fundamentale Datenschutzprinzipien und kann mit europäischen Grundrechten nicht vereinbart werden.

Unternehmen, die gegen diese Regelung verstoßen, können mit hohen Geldstrafen belegt werden, um den Schutz der Grundrechte und der individuellen Freiheit sicherzustellen.

Echtzeit-biometrische Fernidentifikation für Strafverfolgung (Art. 5 Abs. 1 lit. h KI-VO)

Das Verbot des Einsatzes von KI-gestützter Gesichtserkennung in öffentlichen Räumen durch Strafverfolgungsbehörden stellt eine der striktesten Regelungen der KI-Verordnung dar. Gesichtserkennungssysteme haben das Potenzial, umfassende Überwachungsmaßnahmen zu ermöglichen und stellen somit eine erhebliche Gefahr für die informationelle Selbstbestimmung der Bürger dar.

Problematische Aspekte der biometrischen Echtzeit-Fernidentifikation:

  • Massenüberwachung und Datenschutz: Der flächendeckende Einsatz von Gesichtserkennungssystemen könnte zu einer ständigen Überwachung im öffentlichen Raum führen, wodurch ein Klima der Kontrolle und Angst entsteht.
  • Fehlerrisiken und Diskriminierung: Biometrische Identifikationssysteme sind nachweislich fehleranfällig und zeigen insbesondere bei bestimmten ethnischen Gruppen höhere Fehlerquoten, was zu ungerechtfertigten Verdächtigungen oder gar Festnahmen führen kann.
  • Missbrauchspotenzial: Durch den unkontrollierten Einsatz solcher Technologien könnten Strafverfolgungsbehörden oder andere staatliche Akteure die Bewegungsprofile von Personen ohne ausreichende rechtliche Grundlage verfolgen.
  • Rechtsstaatliche Bedenken: Die Identifizierung von Individuen in Echtzeit könnte das Recht auf Anonymität im öffentlichen Raum einschränken und in bestimmten Fällen gegen die Prinzipien der Verhältnismäßigkeit verstoßen.


Trotz des grundsätzlichen Verbots sieht die KI-Verordnung wenige Ausnahmen vor, in denen der Einsatz der Technologie unter strengen Voraussetzungen erlaubt ist:

  • Gezielte Fahndung nach vermissten Personen: Falls eine Person als vermisst gemeldet wurde und akute Lebensgefahr besteht, kann Gesichtserkennung unter engen gesetzlichen Vorgaben eingesetzt werden.
  • Terrorismusbekämpfung: In Fällen, in denen eine unmittelbare terroristische Bedrohung vorliegt, kann die Technologie verwendet werden, um Personen zu identifizieren, die an Anschlägen beteiligt sein könnten.
  • Schwere Straftaten: Eine eng begrenzte Nutzung der Gesichtserkennung kann in bestimmten Situationen gestattet werden, wenn es um die Aufklärung schwerer Straftaten geht und keine anderen weniger eingreifenden Maßnahmen verfügbar sind.


Um Missbrauch zu verhindern, müssen alle Anwendungen biometrischer Fernidentifikation in Echtzeit durch unabhängige Aufsichtsbehörden genehmigt und regelmäßig überprüft werden. Unautorisierter oder unverhältnismäßiger Einsatz kann mit hohen Geldstrafen oder gerichtlichen Maßnahmen geahndet werden. Dies stellt sicher, dass der technologische Fortschritt nicht auf Kosten der Grundrechte geht und rechtsstaatliche Prinzipien eingehalten werden.

Sanktionen bei Verstoß gegen KI-Verordnung

Die Durchsetzung der Verbote erfolgt durch verschiedene Institutionen auf nationaler und europäischer Ebene. Insbesondere sind die nationalen Marktaufsichtsbehörden für die Überwachung der Einhaltung der Regelungen zuständig. Sie haben die Befugnis, Verstöße zu untersuchen, Maßnahmen zur Unterbindung unerlaubter KI-Praktiken zu ergreifen und Sanktionen zu verhängen. Parallel dazu übernimmt der Europäische Datenschutzbeauftragte eine Schlüsselrolle, insbesondere wenn es um Verstöße im Bereich der Verarbeitung personenbezogener Daten geht.

Verstöße gegen die Verbote des AI Act können erhebliche finanzielle Sanktionen nach sich ziehen. Die Verordnung sieht Geldstrafen von bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes eines Unternehmens vor – je nachdem, welcher Betrag höher ist. Diese Sanktionen sollen sicherstellen, dass Unternehmen und Organisationen die gesetzlichen Vorgaben einhalten und keine unzulässigen oder schädlichen KI-Systeme entwickeln oder einsetzen. Neben finanziellen Strafen können zudem Betriebseinschränkungen oder Verkaufsverbote für nicht konforme KI-Systeme verhängt werden.

Darüber hinaus sind Unternehmen verpflichtet, regelmäßige Berichte zur Einhaltung der Vorschriften vorzulegen. In schwerwiegenden Fällen können auch strafrechtliche Konsequenzen in einzelnen Mitgliedstaaten vorgesehen sein, wenn fahrlässige oder vorsätzliche Verstöße gegen fundamentale Rechte durch den Einsatz verbotener KI-Technologien nachgewiesen werden.

Erste Leitlinien zur KI-Verordnung setzen strenge Maßstäbe

Die Leitlinien der EU zur Umsetzung der KI-Verordnung schaffen klare Regeln für den Umgang mit künstlicher Intelligenz und setzen strenge Maßstäbe zur Wahrung der Grundrechte. Während der Schutz vor missbräuchlicher KI-Nutzung gestärkt wird, besteht die Herausforderung darin, Innovationen nicht zu hemmen. Die zukünftige Rechtsprechung des EuGH wird maßgeblich zur Auslegung der Regelungen beitragen und Klarheit schaffen, inwieweit spezifische KI-Anwendungen den Anforderungen der KI-Verordnung entsprechen.

Quelle: Leitlinien zu verbotenen Praktiken der künstlichen Intelligenz gemäß der KI-Verordnung

Sie wollen Ihr Unternehmen fit für die KI-Verordnung machen? Wir packen es gemeinsam an! Unsere Experten beraten Sie gerne. Rufen Sie uns an oder schreiben Sie uns:
Fon: +49 (228) 926165-100
E-Mail: info@2b-advice.com

Tags:
Share this post :
de_DEGerman