Welche Praktiken sind durch den EU AI Act verboten?

Der EU AI Act verbietet Social Scoring durch Regierungen, manipulative KI, Echtzeit-Biometrie-Erkennung und unterschwellige KI, um ethische, faire und menschenzentrierte KI-Systeme zu gewährleisten.

Welche Praktiken sind durch den EU AI Act verboten?

Social Scoring und manipulative KI

Der EU AI Act benennt spezifische Praktiken der Künstlichen Intelligenz (KI), die aufgrund von Konflikten mit europäischen Werten, Ethik und Grundrechten verboten sind. Dazu gehören der Einsatz von KI für Social Scoring durch Regierungen sowie manipulative KI-Systeme. Artikel 5 des Gesetzes beschreibt diese Verbote, um eine verantwortungsvolle und ethische Entwicklung, Implementierung und Nutzung von KI zu gewährleisten.

Social Scoring durch Regierungen

Social Scoring bezieht sich auf die Bewertung oder Kategorisierung von Personen basierend auf ihrem sozialen Verhalten, persönlichen Merkmalen oder anderen über die Zeit gesammelten Daten. Der EU AI Act verbietet derartige Systeme ausdrücklich, wenn sie von Behörden oder Regierungen genutzt werden. Dieses Verbot adressiert die Risiken solcher Praktiken für Grundrechte wie Privatsphäre, Gleichheit und Schutz vor Diskriminierung.

Wichtige Aspekte des Social Scoring-Verbots

  • Ungerechtfertigte Behandlung: Das Gesetz verbietet KI-Systeme, die Einzelpersonen oder Gruppen in Situationen unfair oder schädlich behandeln, die mit dem ursprünglichen Zweck der erhobenen Daten nicht in Zusammenhang stehen. Beispielsweise ist es nicht erlaubt, Daten aus dem Arbeitsumfeld dafür zu verwenden, einer Person den Zugang zu Wohnraum oder Bildung zu verwehren.
  • Unverhältnismäßige Konsequenzen: Social Scoring-Systeme, die Strafen verhängen, die im Verhältnis zum bewerteten Verhalten übermäßig sind – etwa der Ausschluss vom Zugang zu öffentlichen Dienstleistungen –, sind ebenfalls verboten.

Ethische Bedenken

Social Scoring-Systeme, wie sie in einigen Nicht-EU-Ländern implementiert sind, werfen Bedenken bezüglich Massenüberwachung, Verletzungen der Privatsphäre und zunehmender sozialer Ungleichheit auf. Die EU verbietet diese Systeme, um individuelle Rechte zu schützen und Fairness in der Gesellschaft zu fördern.

Manipulative KI-Techniken

Der EU AI Act verbietet auch KI-Systeme, die das Verhalten von Menschen ohne deren Bewusstsein manipulieren. Diese Techniken nutzen Schwachstellen wie Alter, Behinderung oder finanzielle Lage aus, um Entscheidungen oder Handlungen auf schädliche Weise zu beeinflussen.

Unterschwellige Manipulation

KI-Systeme, die unterschwellige Techniken einsetzen, um Menschen ohne deren Bewusstsein zu beeinflussen, sind verboten. Diese Methoden arbeiten, indem sie subtile, nicht wahrnehmbare Hinweise in Medien oder Werbung einbetten, um Handlungen wie Kaufentscheidungen oder Stimmverhalten zu beeinflussen. Der EU Act verbietet solche Systeme, wenn sie erheblichen Schaden für Einzelne oder Gruppen verursachen.

Ausnutzung von Schwachstellen

KI-Technologien, die Schwachstellen bestimmter Bevölkerungsgruppen wie Kinder, ältere Menschen oder wirtschaftlich Benachteiligte ausnutzen, sind ebenfalls verboten. Beispielsweise gehören Werbeanzeigen mit manipulativen Inhalten für ungesunde Produkte, die sich gezielt an Kinder richten, in diese Kategorie.

Beispiele aus der Praxis

Manipulative KI wirft sowohl ethische als auch praktische Probleme auf. Etwa zeigte der Fall Cambridge Analytica, wie KI-gestützte psychologische Profile eingesetzt wurden, um das Wahlverhalten zu beeinflussen. Der EU AI Act verbietet solche Praktiken, um die Autonomie von Personen bei Entscheidungen zu schützen.

Die Verbote von Social Scoring und manipulativer KI im EU AI Act unterstreichen den Fokus der EU auf sichere, ethische und menschenzentrierte KI-Systeme. Diese Vorschriften schützen Einzelne vor Schaden, wahren Grundrechte und verhindern den Missbrauch fortschrittlicher Technologien. Mit diesen Maßnahmen positioniert sich die EU als globale Vorreiterin für verantwortungsvolle KI-Regulierung.

Echtzeit-Biometrie-Erkennung und unterschwellige KI

Der EU AI Act legt strenge Beschränkungen für KI-Technologien fest, die Grundrechte verletzen oder ethische Prinzipien kompromittieren könnten. Dazu zählen Regelungen zur Echtzeit-Fernbiometrie-Erkennung und zu unterschwelligen KI-Methoden, da beide erhebliche ethische, sicherheitsbezogene und datenschutzrechtliche Risiken bergen.

Echtzeit-Biometrie-Erkennung

Echtzeit-Fernbiometrie-Erkennungssysteme nutzen einzigartige biometrische Daten – wie Gesichtszüge, Fingerabdrücke oder Iris-Muster –, um Personen häufig in öffentlichen Räumen zu identifizieren. Diese Technologien stehen im Fokus des EU AI Act, da sie Risiken für Privatsphäre, persönliche Freiheit und Autonomie darstellen.

Generelles Verbot und Ausnahmen

  • Grundsätzliches Verbot: Das Gesetz verbietet im Allgemeinen den Einsatz von Echtzeit-Biometrie-Erkennung in öffentlich zugänglichen Bereichen. Diese Beschränkung soll Massenüberwachung verhindern und unterbinden, dass Personen ohne ihre Zustimmung überwacht oder identifiziert werden.
  • Ausnahmen für Strafverfolgung: Unter strengen Bedingungen gibt es begrenzte Ausnahmen, die es Strafverfolgungsbehörden erlauben, diese Systeme nur dann einzusetzen, wenn es absolut notwendig ist. Erlaubte Szenarien umfassen:
    • Auffinden von Opfern von Entführung, Menschenhandel oder sexueller Ausbeutung.
    • Abwendung unmittelbarer Gefahren für Leben oder öffentliche Sicherheit, etwa bei Terroranschlägen.
    • Identifizierung von Verdächtigen schwerer Straftaten, sofern das Delikt im betreffenden Mitgliedsstaat mit mindestens vier Jahren Freiheitsstrafe bedroht ist.
  • Schutzmaßnahmen: Selbst in diesen Ausnahmefällen müssen Behörden sicherstellen, dass das System verhältnismäßig und gezielt nur für zuvor identifizierte Personen eingesetzt wird. Der Einsatz muss zudem den Datenschutzbestimmungen der Datenschutz-Grundverordnung (DSGVO) entsprechen.

Ethische und rechtliche Bedenken

Echtzeit-Biometrie-Technologien schaffen Risiken für Massenüberwachung, Missbrauch durch Behörden und den Verlust der Privatsphäre. Die Einschränkungen des EU AI Act sollen öffentliche Sicherheit und individuelle Rechte in Einklang bringen und verhindern, dass die Technologie zu unterdrückenden oder diskriminierenden Zwecken missbraucht wird.

Unterschwellige KI

Unterschwellige KI-Systeme beeinflussen Entscheidungen oder Verhaltensweisen von Menschen, ohne dass diese es bewusst wahrnehmen. Sie arbeiten, indem sie subtile und nicht erkennbare Hinweise in Medien oder Interaktionen einbetten, die Entscheidungen auf eine Weise verändern, für die sich Menschen normalerweise nicht entscheiden würden.

Ausdrückliches Verbot

  • Manipulative Techniken: Unterschwellige KI-Methoden, die Entscheidungen oder Verhalten von Personen auf schädliche Weise verzerren, sind vollständig verboten. Diese Systeme umgehen die kognitiven Abwehrmechanismen von Menschen und beeinträchtigen deren Autonomie und Fähigkeit, informierte Entscheidungen zu treffen.
  • Beispiele für unterschwellige Manipulation: Solche KI-Techniken können in folgenden Kontexten auftreten:
    • Steuerung des Konsumverhaltens durch versteckte Botschaften in Werbung.
    • Beeinflussung von Wählerentscheidungen durch das Einbetten voreingenommener Signale in politischen Kampagnen.
    • Drängen von Personen zu finanziellen Entscheidungen unter dem Vorwand persönlicher Empfehlungen.

Ausnutzung von Schwachstellen

Das Gesetz verbietet zudem KI-Systeme, die Schwachstellen im Zusammenhang mit Alter, Behinderung oder sozioökonomischem Status ausnutzen, wenn sie zu schädlichen Verzerrungen des Verhaltens führen. Beispielsweise:

  • Werbung für ungesunde Produkte direkt an Kinder.
  • Überzeugen älterer Menschen zum Kauf unnötiger oder schädlicher Dienstleistungen.

Ethische Implikationen

Unterschwellige KI widerspricht ethischen Prinzipien wie Transparenz und Autonomie. Ihr potenzieller Missbrauch in politischen, wirtschaftlichen und gesellschaftlichen Kontexten unterstreicht die Notwendigkeit starker Regulierung. Das Verbot solcher Systeme im EU AI Act spiegelt das Engagement wider, Menschen vor versteckter Manipulation zu schützen und sicherzustellen, dass KI die Menschenwürde achtet.

Die Einschränkungen bei Echtzeit-Biometrie-Erkennung und unterschwelliger KI zeigen den Fokus der EU auf ethische und menschenzentrierte KI. Durch die Regulierung dieser Hochrisikotechnologien will der EU AI Act Grundrechte schützen, Vertrauen in KI schaffen und einen globalen Standard für verantwortungsvolle KI-Entwicklung setzen. Diese Vorschriften stellen sicher, dass KI-Systeme im Einklang mit gesellschaftlichen Werten eingesetzt werden und Schaden oder Ungleichheit verhindern.

Häufig gestellte Fragen

Welche KI-Praktiken sind gemäß dem EU AI Act ausdrücklich verboten?

Der EU AI Act verbietet die Nutzung von KI für Social Scoring durch Regierungen, manipulative KI-Techniken (einschließlich unterschwelliger Manipulation), Echtzeit-Fernbiometrie-Erkennung in öffentlichen Räumen (mit strengen Ausnahmen) sowie Systeme, die die Verwundbarkeit bestimmter Gruppen wie Kinder oder ältere Menschen ausnutzen.

Warum verbietet der EU AI Act Social Scoring durch Regierungen?

Social Scoring durch Regierungen ist aufgrund der Risiken für Privatsphäre, Gleichheit und Schutz vor Diskriminierung verboten. Solche Systeme können zu ungerechtfertigter Behandlung und unverhältnismäßigen Konsequenzen für Einzelpersonen oder Gruppen führen, basierend auf nicht zusammenhängenden oder übermäßigen Daten.

Gibt es Ausnahmen vom Verbot der Echtzeit-Biometrie-Erkennung?

Ja, Ausnahmen bestehen für Strafverfolgungsbehörden in Fällen wie dem Auffinden von Opfern schwerer Straftaten, der Abwendung unmittelbarer Gefahren für Leben oder öffentliche Sicherheit und der Identifizierung von Verdächtigen schwerer Straftaten – jedoch nur unter strengen Auflagen und Einhaltung der DSGVO.

Was ist manipulative oder unterschwellige KI und warum ist sie verboten?

Manipulative oder unterschwellige KI bezeichnet Systeme, die das Verhalten von Personen ohne deren Bewusstsein beeinflussen und häufig Schwachstellen ausnutzen. Diese Praktiken sind verboten, um die Autonomie zu schützen, Schaden zu verhindern und ethische Standards bei KI zu wahren.

Wie fördert der EU AI Act ethische und menschenzentrierte KI?

Durch das Verbot von Hochrisikopraktiken wie Social Scoring, manipulativer KI und unregulierter Biometrie-Erkennung zielt der EU AI Act darauf ab, Grundrechte zu schützen, Privatsphäre und Fairness zu gewährleisten und einen globalen Standard für verantwortungsvolle KI-Entwicklung zu setzen.

Viktor Zeman ist Miteigentümer von QualityUnit. Auch nach 20 Jahren als Leiter des Unternehmens bleibt er in erster Linie Softwareentwickler, spezialisiert auf KI, programmatisches SEO und Backend-Entwicklung. Er hat zu zahlreichen Projekten beigetragen, darunter LiveAgent, PostAffiliatePro, FlowHunt, UrlsLab und viele andere.

Viktor Zeman
Viktor Zeman
CEO, KI-Ingenieur

Bereit für den Aufbau ethischer KI?

Beginnen Sie mit der Entwicklung von KI-Lösungen, die mit den neuesten EU-Vorschriften im Einklang stehen. Entdecken Sie die Tools von FlowHunt für konforme, ethische und innovative KI-Entwicklung.

Mehr erfahren