Arbeitsrecht

KI im Arbeitsalltag – Auswirkungen der KI-Verordnung

Der Entwurf der KI-Verordnung (KI-VO) soll den Einsatz von KI-Systemen im Arbeitsalltag in unterschiedliche Risikokategorien einteilen und – je nach Risikokategorie – unterschiedliche Anforderungen und Pflichten vorsehen. Die KI-VO wird somit Auswirkungen auf den KI-Einsatz im Arbeitsalltag haben. 

Das Ringen um die KI-VO

Der „Boom“ KI-gestützter Anwendungen ist ungebrochen. In Europa wird nach einer Auswertung der Online-Plattform für Statistik Statista Inc. im Zeitraum von 2024 bis 2030 mit einer durchschnittlichen jährlichen Wachstumsrate des KI-Marktes von rund 15 Prozent gerechnet. Bereits in sechs Jahren könnten damit allein in Europa jährlich über 200 Mrd. EUR mit der Entwicklung und dem Vertrieb von KI-Systemen umgesetzt werden.

Es verwundert nicht, dass auf Ebene der EU ein Regelungsinteresse besteht. Bereits im April 2021 hat die EU-Kommission einen Entwurf für eine KI-Verordnung (KI-VO-E) vorgestellt, über den seitdem lebhaft diskutiert wird. Bis Dezember 2023 zogen sich die Verhandlungen im sog. Trilog-Verfahren zwischen dem Europäischem Parlament, den Mitgliedstaaten und der Kommission hin. Wenngleich die Details teilweise noch unklar sind, konnte am 9. Dezember 2023 eine Grundsatzeinigung auf europäischer Ebene erzielt werden. Das erklärte Ziel der am Gesetzgebungsverfahren beteiligten Organe ist es einerseits, einen Rechtsrahmen zu schaffen, in dem KI sicher und unter Wahrung der Grundrechte der Verbraucher zum Einsatz kommen kann. Andererseits soll gleichzeitig verhindert werden, dass technologischer Fortschritt durch zu strenge Vorgaben und kleinteilige Überregulierung ausgebremst wird. Wie gut dieser Balanceakt der KI-VO gelingt, wird sich zeigen, sobald der finale Wortlaut der Verordnung vorliegt.

Die KI-VO verfolgt nach derzeitigem Verständnis einen risikobasierten Ansatz, der sich an den potenziellen Auswirkungen der eingesetzten KI-Systeme orientiert. Danach werden KI-Anwendungen in drei Kategorien eingeteilt: KI-Anwendungen mit unannehmbarem Risiko, mit hohem Risiko und mit geringem bzw. minimalem Risiko.

Unannehmbares Risiko

KI-Anwendungen mit unannehmbarem Risiko sollen nach dem KI-VO-E grundsätzlich untersagt sein, da sie Grundwerte der EU verletzen (können). Dazu gehören beispielsweise KI-Systeme, die auf Techniken der unterschwelligen, unbewussten Beeinflussung von Personen zurückgreifen, die diesen Personen einen physischen oder psychischen Schaden zufügen oder zufügen können. Diese Kategorie dürfte im Beschäftigungskontext nur eine geringe Rolle spielen, da solche KI-Systeme im Arbeitsverhältnis kaum zum Einsatz kommen werden oder bereits nach geltendem Recht unzulässig sind.

Hohes Risiko

KI-Anwendungen mit hohem Risiko sind Anwendungen, die in sensiblen Bereichen wie etwa dem Bereich der Gesundheit, des Verkehrs oder der Justiz eingesetzt werden. In diese Kategorie will der europäische Gesetzgeber auch Kernbereiche des Arbeitgeberhandelns einordnen. Nach Art. 6 II KI-VO-E i.V.m. Nr. 4 Anhang III des KI-VO-E gelten als Hochrisiko-KI-Systeme im Bereich Beschäftigung/Personalmanagement:

  • KI-Systeme, die bestimmungsgemäß für die Einstellung oder Auswahl natürlicher Personen verwendet werden sollen, insbesondere für die Bekanntmachung freier Stellen, das Sichten oder Filtern von Bewerbungen und das Bewerten von Bewerbern in Vorstellungsgesprächen oder Tests;
  • KI-Systeme, die bestimmungsgemäß für Entscheidungen über Beförderungen und über Kündigungen von Arbeitsvertragsverhältnissen, für die Aufgabenzuweisung sowie für die Überwachung und Bewertung der Leistung und des Verhaltens von Personen in solchen Beschäftigungsverhältnissen verwendet werden sollen.

Bereits der Wortlaut macht deutlich, dass diese Kategorie im Arbeitsrecht besonders relevant werden dürfte. Mit der Einstellung oder Auswahl von Bewerbern, der Entscheidung über Beförderungen oder Kündigungen sowie der Überwachung und Bewertung der Leistung und des Verhaltens von Arbeitnehmern attestiert der Gesetzgeber zentralen arbeitsrechtlichen Entscheidungen ein hohes Risiko, sofern sie von einer KI vorgenommen werden sollen. 

Die genannten Hochrisiko-KI-Systeme sind grundsätzlich auf dem europäischen Markt erlaubt, müssen aber bestimmten Anforderungen genügen und vorab eine Konformitätsbewertung durchlaufen. Die Anforderungen betreffen unter anderem die Qualität der Daten, die für die Entwicklung und das Training der KI-Systeme verwendet werden, die Sicherheit, Transparenz und Nachvollziehbarkeit der KI-Systeme sowie die (menschliche) Aufsicht und Kontrolle. Die Pflichten treffen vor allem den Anbieter des KI-Systems, also denjenigen, der das KI-System entwickelt oder entwickeln lässt, um es unter seinem eigenen Namen oder seiner eigenen Marke in Verkehr zu bringen oder in Betrieb zu nehmen (vgl. Art. 3 Nr. 2 KI-VO-E). Nutzt der Arbeitgeber ein externes Hochrisiko-KI-Systems (vgl. Art. 3 Nr. 4 KI-VO-E) treffen ihn gleichwohl ebenfalls mehrere Pflichten. So muss er etwa den Betrieb des KI-Systems anhand der vom Anbieter zu erstellenden Gebrauchsanweisung überwachen und die von dem KI-System automatisch erzeugten Protokolle aufbewahren.

Geringes Risiko

KI-Anwendungen mit geringem Risiko unterliegen kaum Einschränkungen durch den KI-VO-E. Sie müssen lediglich bestimmten Transparenzpflichten genügen, die die Arbeitnehmer über den Einsatz von KI informieren sollen. In diese Kategorie können zum Beispiel Chat Bots fallen.

Fazit

Gegenwärtig ist mit einem Inkrafttreten der KI-VO im Jahr 2026 zu rechnen. Auch wenn Details derzeit noch unklar sind, da der finale Wortlaut der Verordnung noch nicht vorliegt, ist davon auszugehen, dass die KI-VO maßgeblichen Einfluss auf den arbeitgeberseitigen Einsatz von KI-Systemen haben wird. Arbeitgeber sind gut beraten, die Entwicklung rund um die europäische KI-Regulierung im Blick zu behalten. Dies gilt insbesondere, da mit entsprechenden Sanktionen bei Verstößen zu rechnen ist. Wir halten Sie über die weitere Entwicklung rund um die KI-VO und andere europäische Regulierungsvorhaben im Digitalisierungsumfeld auf dem Laufenden.
 

Weiterleiten