Ziel der Verordnung sei es, einerseits die Grundrechte der Bürger zu schützen, andererseits aber auch diese Zukunftstechnologie zu fördern. „Um dies zu erreichen, müssen die Menschen digitalen Innovationen vertrauen“, sagte Vizepräsidentin der EU-Kommission Věra Jourová bereits im September.
Der Entwurf macht deutlich, dass niemand durch den Einsatz von KI diskriminiert werden oder Schaden erleiden solle. So dürfen KI-Systeme Menschen nicht zu bestimmten Zwecken manipulieren. Auch soll verboten werden, dass KI-Anwendungen mithilfe verschiedener Daten das Verhalten und die Persönlichkeit von Menschen bewerten und diese dadurch Nachteile haben in Situation, die mit den erhobenen Daten nichts zu tun haben. Die Einschränkung lässt den Schluss zu, dass ein Besser- oder Schlechterstellen von Personen anhand von ermittelten Daten dann erlaubt ist, wenn das im selben Kontext geschieht, in dem auch die Informationen gesammelt wurden.
Verboten sein soll auch die automatisierte Gesichtserkennung durch biometrische Daten im öffentlichen Raum in Echtzeit. Nur in festgelegten Ausnahmefällen und mit richterlicher Genehmigung soll das Strafverfolgern gestattet sein, etwa um mögliche Opfer einer Straftat zu suchen oder wenn eine erhebliche Gefahr für die kritische Infrastruktur oder das Leben von Menschen besteht.
Eine nachträgliche Auswertung von Videoüberwachung anhand biometrischer Daten ist damit aber nicht gemeint. Das kritisiert die Organisation Algorithmwatch und sieht in den Ausnahmen für die Strafverfolgung Schlupflöcher zur staatlichen Überwachung. Auch die biometrische Erfassung, um zu überprüfen, ob eine Person diejenige ist, für die sie sich ausgibt, oder um Zugang zu Geräten oder Räumen zu bekommen, ist erlaubt.
Menschen müssen Hochrisiko-KI überwachen
Darüber hinaus stellt die Verordnung Regeln auf für „hochriskante“ Systeme künstlicher Intelligenz. Dieses hohe Risiko einer KI liegt dann vor, wenn durch ihren Einsatz Grundrechte beeinträchtigt werden oder Gesundheit und Sicherheit gefährdet sein können. Konkret nennt der Entwurf beispielsweise KI, die im Bereich der kritischen Infrastruktur zum Einsatz kommt, etwa im Straßenverkehr oder bei der Energieversorgung. Ebenfalls als hochriskant gelten KI-Systeme für das Personalmanagement in Firmen, solche, die im Justizwesen oder bei Grenzkontrollen eingesetzt werden, sowie Anwendungen, die ermitteln, ob eine Person kreditwürdig ist oder nicht.
Für solche Hochrisiko-KI sind verschiedene technische Dokumentationen, Meldepflichten und ein Risikomanagement vorgeschrieben. Und vor allem: menschliche Aufsicht. Das bedeutet auch, dass ein Mensch in der Lage sein muss, im Zweifel anders zu entscheiden, als die KI es vorschlägt, und sie notfalls abzuschalten.
Hochrisiko-KI soll außerdem so konzipiert sein, dass sie widerstandsfähig ist gegen Fehler und geschützt vor Hackerangriffen. Wenn Menschen mit einer KI zu tun haben, müssen sie darüber informiert werden. Das gilt ebenso für sogenannte Deepfakes: Wenn Bild-, Ton- oder Videoinhalte mittels KI manipuliert wurden, muss das gekennzeichnet werden.
Wer beim Einsatz von KI gegen die Verbote verstößt oder den festgelegten Pflichten nicht nachkommt, muss mit Bußgeldern von bis zu 30 Millionen Euro rechnen.
Regeln gelten nicht bei Einsatz für nationale Sicherheit
KI-Systeme, die im Militär oder im Rahmen der Verteidigung und nationalen Sicherheit zum Einsatz kommen, fallen nicht unter die Verordnung. Auch für KI-Systeme, die ausschließlich der Forschung dienen, soll sie nicht gelten.
Bundesjustizminister Marco Buschmann (FDP) bewertete den Entwurf Medienberichten zufolge positiv. Die EU sei auf einem „sehr gutem Weg, den weltweit ersten verbindlichen Maßstab für vertrauenswürdige KI zu setzen“. Wo es um die Anonymität in der Öffentlichkeit gehe, gebe es jedoch Verbesserungsbedarf. Sein Haus ist mit dem Ministerium für Digitales und Verkehr seines Parteikollegen Volker Wissing von deutscher Seite für die Aushandlung des Gesetzes verantwortlich. Wissing nahm an der Sitzung des Rates am Dienstag teil.
Der Verbraucherzentrale Bundesverband kritisiert, dass die Rechte der Verbraucher nicht ausreichend in dem Entwurf berücksichtigt würden. „In der Auflistung hochriskanter KI-Systeme fehlen etwa Systeme, die in der Lage sind, Emotionen zu erkennen und zu verarbeiten. Auch KI-Systeme, die sich an Kinder richten oder den Zugang zu Wohnraum regeln, müssen als hochriskant eingestuft werden“, kommentierte die Vorständin Ramona Pop. Sie fordert, dass das Europäische Parlament sich für diese Aspekte stark macht.
Den Gesetzesvorschlag hat die Europäische Kommission im vorigen Jahr eingebracht. Nachdem nun die Minister der Mitgliedsstaaten darüber verhandelt haben, befasst sich das Parlament damit. Das wird voraussichtlich im ersten Quartal 2023 darüber abstimmen.
3 Antworten
Auf in den totalen Überwachungsstaat des Antichristen! Schreib ich nur dazu.
Auch ich habe ein starkes mulmiges Gefühl.
Ich hoffe jedoch noch auf die Verbraucher-, Datenschutz-, Datensicherheits- und Netzpolitik-Fachleute.
Meiner Meinung muss auf eine Vernetzung der erhobenen Daten mit andewren, bereits bestehenden Datensätzen – die spätestens dann zu personenbezogenen Daten werden – nur massiv eingeschränkt stattfinden dürfen.
Bereits jetzt lassen sich – auch ohne Zustimmung der betroffenen Personen – vielfach Standort- und Sozial-Daten (z.-B.: Wer trifft sich wann und ggf. regelmäßig mit wem. Welche Hobby’s und Interessen? usw.) erfassen und verarbeiten.
Ist eine digitale „Vermessung des Menschen“ in Gottes Sinn?
(Zitat-Beginn)
„Wir müssen Kritik an Systemen üben, die in der Netzkommunikation entstehen:
Diese sind intransparent. Was z.B. der deutsche Datenschutz aus der Menschenwürde ableitet:
Ich muss wissen, was andere über mich wissen.
Es ist der Grundsatz der Freiheit, dass ich weiß, was andere über mich wissen.
Da muss aus den Kirchen und der Religion heraus Widerstand gegenüber den Menschenvermessungen und
menschenverachtenden Strukturen entstehen.“
(Zitat-Ende – Quelle: Video der Konferenz „republica 2017“: „„Die Lehren von der Reformation bis zur Aufklärung für das Netz von heute“ – Kai Schächtele im Gespräch mit Theologie-Prof. J. Haberer“)
Auch, wenn das bereits 5 Jahre her ist: Nachdenkenswert.
Es heißt im Artikel zur KI:
„Das bedeutet auch, dass ein Mensch in der Lage sein muss, im Zweifel anders zu entscheiden, als die KI es vorschlägt, und sie notfalls abzuschalten.“
Wie soll das aber zum Beispiel bei einem autonom fahrenden Kraftfahrzeug gehen, bei dem kein Fahrer mehr hinter dem Steuer sitzt? Wer soll denn dann im Notfall rechtzeitig abschalten? – Hieran sieht man doch, wie irrsinnig das alles ist?