AI ACT: angemessene Schulungen für Unternehmen unerlässlich
Diejenigen, die befürchteten, dass künstliche Intelligenz zu einem unkontrollierten Abdriften bei der Nutzung von Technologie führen könnte, können jetzt etwas ruhiger schlafen.
Vor allem, wenn er/sie den Status eines europäischen Bürgers lebt.
In der Tat ist es eine Neuigkeit, dass Europa, das erste Land der Welt, das diesen Bereich legal betritt, ein so neues und in vielerlei Hinsicht noch unbekanntes Thema reguliert.
Vor etwa einem Monat, am 13. März, billigte das Europäische Parlament mit sehr großer Mehrheit(523 Ja-Stimmen, 46 Nein-Stimmen und 49 Enthaltungen) das KI-Gesetz, die europäische Verordnung über künstliche Intelligenz, die von der Europäischen Kommission am 21. April 2021 vorgeschlagen worden war, um die Achtung der Grundrechte und der Würde der Menschen bei der Entwicklung und Nutzung von KI-Technologien zu gewährleisten.
Der Anwendungsbereich umfasst alle Bereiche (mit Ausnahme des Militärs) und alle Arten von künstlicher Intelligenz.
Die Verordnung wird im Mai oder Juni in Kraft treten, da der Text in 24 Sprachen übersetzt und durch eine weitere Abstimmung des Parlaments und die Genehmigung durch den Rat der Europäischen Union an die nationalen Vorschriften angepasst werden muss.
Anwendungen der künstlichen Intelligenz werden nach dem Risiko, den Bürgern zu schaden, klassifiziert und reguliert und fallen hauptsächlich in drei Kategorien: verbotene Praktiken, Systeme mit hohem Risiko und andere Systeme.
Verbotene Praktiken von KI-Anwendungen sind zum Beispiel biometrische Klassifizierungssysteme, die wahllose Extrapolation von Gesichtsbildern aus dem Internet oder aus CCTV-Aufnahmen, um Datenbanken zur Gesichtserkennung zu erstellen.
Ziel ist es, alle Systeme auszuschließen, die das menschliche Verhalten manipulieren oder die Schwachstellen der Menschen ausnutzen.
Die biometrische Identifizierung in Echtzeit in öffentlich zugänglichen Räumen ist zwar nicht verboten, aber eingeschränkt. Erlaubte Verwendungszwecke sind z.B. die Suche nach einer vermissten Person oder die Verhinderung eines Terroranschlags, bedürfen aber der Genehmigung durch ein Gericht oder eine unabhängige Behörde.
Die nachträgliche biometrische Identifizierung wird als hohes Risiko angesehen. Daher muss eine gerichtliche Genehmigung mit einer Straftat verbunden sein, bevor sie verwendet werden kann.
S ysteme mit hohem Risiko sind laut der vorgeschlagenen Verordnung solche, die eine erhebliche Bedrohung für die Gesundheit, die Sicherheit oder die Grundrechte von Menschen darstellen. Sie erfordern eine obligatorische Konformitätsbewertung, die als Selbstbewertung durch den Anbieter durchgeführt wird, bevor sie auf den Markt gebracht werden.
Dazu gehören nicht nur kritische Infrastrukturen oder Sicherheitskomponenten, sondern auch:
- die Bildungswesen (zur Bestimmung des Zugangs oder der Zulassung, zur Zuweisung von Personen zu Berufsbildungseinrichtungen oder -programmen auf allen Ebenen, zur Bewertung der Lernergebnisse von Personen, zur Beurteilung des angemessenen Bildungsniveaus einer Person, zur Überwachung und Aufdeckung von unzulässigem Schülerverhalten bei Tests usw.);
- die Verwaltung der Arbeitnehmer (für die Einstellung und Auswahl von Personen, für den Erlass von Entscheidungen über die Beschäftigungsbedingungen, die Beförderung und die Beendigung von Vertragsverhältnissen, für die Zuweisung von Aufgaben auf der Grundlage des individuellen Verhaltens, usw.);
- i wesentliche Dienstleistungen einschließlich Gesundheitsdienste, Sozialversicherungsleistungen, soziale Dienste, aber auch Kreditwürdigkeit, Justizverwaltung, Migration und Grenzverwaltung.
Bei besonders kritischen Anwendungen, wie z.B. Medizinprodukten, muss die Selbstbewertung des Anbieters im Rahmen der Verordnung über künstliche Intelligenz von der Stelle, die die Bewertung durchführt, in Übereinstimmung mit den bestehenden EU-Verordnungen berücksichtigt werden.
Andere Systeme, d.h. Systeme der künstlichen Intelligenz außerhalb der oben genannten Kategorien (einschließlich großer generativer KI-Modelle, wie z.B. die bekannte Plattform zur Erstellung von Inhalten ChatGPT), müssen eine Reihe von Transparenzanforderungen erfüllen:
- offenlegen, dass der Inhalt von KI generiert wurde;
- sicherstellen, dass die Modelle keine illegalen Inhalte erzeugen;
- Zusammenfassungen von urheberrechtlich geschützten Daten zu veröffentlichen.
Die leistungsstärksten Modelle, die systemische Risiken darstellen könnten, werden auch andere Verpflichtungen erfüllen müssen, z.B. Modellbewertungen durchzuführen, systemische Risiken zu bewerten und abzumildern und Vorfälle zu melden.
Anwendung des AI ACT
Der Anwendungsbereich der Verordnung gilt sowohl für die Anbieter als auch für die Nutzer von KI-Systemen. Sie müssen sicherstellen, dass die Produkte den festgelegten Normen entsprechen, mit den erforderlichen Unterlagen versehen sind und ein europäisches Konformitätszeichen tragen. Es gibt jedoch Ausnahmen, wie z.B. Systeme, die ausschließlich für militärische oder verteidigungspolitische Zwecke bestimmt sind, sowie freie und Open-Source-Modelle, die keine systemischen Risiken darstellen.
Zeitrahmen des AI ACT
Die Bestimmungen werden schrittweise in Kraft treten, auch um den Unternehmen Zeit zu geben, sich an die neuen Maßnahmen anzupassen.
Genauer gesagt:
- 6 Monate später müssen die Mitgliedstaaten die verbotenen KI-Systeme verbieten,
- 1 Jahr später werden die Regeln für allgemein einsetzbare künstliche Intelligenzsysteme zur Anwendung kommen,
- 2 Jahre später wird der Rest des IV-Gesetzes anwendbar sein,
- 3 Jahre später werden die Verpflichtungen für Hochrisikosysteme gelten,
Sanktionen des AI ACT
Die Verordnung stuft KI-Systeme nach ihrem Risikograd ein, der minimal, begrenzt, hoch oder inakzeptabel sein kann. Daraus ergeben sich unterschiedliche Verantwortlichkeiten und Einschränkungen für Entwickler und Nutzer solcher Systeme. Die Strafen bei Nichteinhaltung reichen von 1,5 bis 7 Prozent des weltweiten Umsatzes des Unternehmens.
Europäisches Komitee für künstliche Intelligenz
Das Gesetz schlägt auch die Einführung eines Europäischen Ausschusses für künstliche Intelligenz
um die internationale Zusammenarbeit zu fördern und die Einhaltung der Verordnung sicherzustellen. Die EU-Länder müssen auf nationaler Ebene regulatorische Testräume und Testmechanismen unter realen Bedingungen einrichten und zugänglich machen, damit KMU und Start-ups KI-Systeme entwickeln können, bevor sie sie auf den Markt bringen.
Reaktionen
Wie immer gibt es die Befürworter einer Regulierung, die die Gefahren einer technologischen Deregulierung fürchten und daher die neuen Maßnahmen begrüßen, und auf der anderen Seite diejenigen (insbesondere Unternehmen), die befürchten, dass diese zu übermäßigen Einschränkungen bei der Anwendungsentwicklung führen werden.
Auf jeden Fall, so der für den Binnenmarkt zuständige Kommissar Thierry Breton, der von Il Sole 24 Ore zitiert wird, „ist Europa jetzt ein zuverlässiger Weltstandard für KI“. Dieselbe Wirtschaftszeitung bezeichnet die Verordnung als „das bisher umfassendste Regulierungssystem für künstliche Intelligenz, ein historisches Paket von Standards, das in Ermangelung einer spezifischen US-Gesetzgebung den Ton angeben könnte, wie KI in der westlichen Welt geregelt werden sollte“.
Sicherlich handelt es sich bei der künstlichen Intelligenz um ein Thema, das nicht unterschätzt werden darf und mit Bewusstsein, Ernsthaftigkeit und Professionalität behandelt werden sollte, auch weil es sich ständig weiterentwickelt. Diese neuen Regelungen stellen auch ein zusätzliches Wissensgebiet dar, das erworben und verwaltet werden muss.
Deshalb ist es wichtig, dass die Unternehmen eine spezielle Schulung absolvieren, um sie sowohl in technologischer als auch in rechtlicher Hinsicht unangreifbar zu machen.