Das europäische Parlament hat sich auf Grundregeln für das weltweit erste Regulierungs-Instrumentarium für Künstliche Intelligenz (KI) geeinigt. GPA-Expertin Eva Angerler erklärt, warum das ein guter Anfang ist und wo es weitere Regeln für die Anwendungen der KI in der Arbeitswelt braucht.
Mitte Juni hat das Europäische Parlament in Straßburg den Rahmen für ein künftiges EU-Gesetz beschlossen, das den Umgang mit Programmen und Produkten, die mit Künstlicher Intelligenz (KI) erstellt werden, innerhalb der Mitgliedsstaaten festlegt. Massenüberwachungen sollen ausgeschlossen werden und auch Social Scoring – bei dem staatliche Systeme, mittels KI-gestützter Anwendungen, Punkte für gewünschtes Verhalten vergeben – ist nicht zulässig. Die EU will KI-Systeme in verschiedene Risikogruppen einteilen, indem die potentiellen Gefahren, die Anwendungen Künstlicher Intelligenz für die Nutzer:innen darstellen, analysiert werden. Je mehr Gefahren von einer Applikation ausgehen, desto strengere Regeln sollen für sie gelten.
Hochrisikobereiche werden aufgelistet
Komplett verboten werden sollen biometrische Identifizierungsmethoden wie die Gesichtserkennung im öffentlichen Raum sowie KI-Systeme, die Menschen nach ihrem sozialen Verhalten oder ethnischen Merkmalen klassifizieren. Auch Programme, die Wähler:innen im Wahlkampf beeinflussen wollen oder Emotionserkennungssysteme sind nicht zulässig. Als Künstliche Intelligenz werden Anwendungen verstanden, die Daten in großem Umfang sammeln, auswerten und anhand von Algorithmen Muster erkennen können um daraus Entscheidungen abzuleiten oder selbstständig Ziele zu erreichen. Das beinhaltet Risiken, zum Beispiel, dass bestimmte Bewerber:innen durch eine Recruiting-Software diskriminiert werden.
Eva Angerler von der Abteilung Arbeit & Technik in der GPA sieht es „positiv, dass auf EU-Ebene eine grundsätzliche Gesetzgebung zur KI erfolgen soll: Die Verhandlungen mit den einzelnen EU-Staaten beginnen jetzt. Der Europäische Rat will bis Jahresende die endgültige Ausgestaltung des Gesetzes fixieren.“ Die KI-Verordnung enthalte vor allem Regeln für Hersteller von KI-Anwendungen, die Arbeitswelt sei nur indirekt betroffen: „Verbote und Einschränkungen bestimmter risikoreicher Systeme sowie verschiedene Benachrichtigungs- und Erklärungspflichten der Systembetreiber kommen der Arbeitswelt aber zugute.“
„KI-Anwendungen im Arbeitsalltag müssen streng reguliert werden.“
Eva Angerler
Für die Anwendung von KI am Arbeitsplatz müsse es laut Angerler noch speziellere Regeln geben: „Eine EU-Richtlinie könnte Mindeststandards, unabhängige Kontrollmechanismen sowie die Stärkung der Mitbestimmungsrechte der Arbeitnehmer:innen schaffen. Dadurch können überbetriebliche und betriebliche Regulierung zusammenwirken.“ Die individuelle Einwilligung der Arbeitnehmer:innen könne „jedenfalls keine ausreichende Grundlage für den Einsatz solcher Systeme am Arbeitsplatz sein, denn die Machtverhältnisse zwischen Arbeitgebern und Dienstnehmern sind ungleich.“
Viele Textverarbeitungs-Programme, Redaktions-Systeme oder Logistikverfahren verfügen über die technischen Möglichkeiten im Zusammenspiel mit KI automatisierte Auswertungen über Anwesenheit, Arbeitsabläufe oder Produktivität zu erstellen. Das Arbeitsverfassungsgesetz und die Datenschutzgrundverordnung sehen auf nationaler Ebene vor, dass dies nicht ohne das Wissen der Beschäftigten und deren Vertreter:innen durchgeführt werden darf: „Auf EU-Ebene haben wir erreicht, dass diese Rechte am Arbeitsplatz durch die KI-Verordnung, die an der Produktregulierung ansetzt, nicht ausgehebelt werden dürfen.“ Auf betrieblicher Ebene habe die GPA mit der Datenschutz-Rahmenbetriebsvereinbarung ein gut funktionierendes Instrument geschaffen, das regelt, dass „anfallende Protokollierungsdaten nicht für die Auswertung des Leistungsverhaltens verwendet werden dürfen, sondern nur für die Systemsicherheit.“
Schutzmechanismen müssen weiter ausgebaut werden
Im Beschluss ist verankert, dass die betriebliche Interessenvertretung im Falle der Einführung eines KI-Systems am Arbeitsplatz involviert werden muss und dass die Arbeitnehmer:innen gesondert darüber informiert werden müssen. „Viele sind sich der Gefahren selbstlernenden Systeme nicht bewusst. Von der Leistungsauswertung hin zu automatisiert erstellten Kündigungen ist es bei verknüpfenden, selbstlernenden Algorithmen nicht mehr weit“, erklärt Angerler.
Zusätzlich bräuchte es „spezifische Regulative und dezentrale Mitbestimmungsrechte auf nationaler Ebene: Wir wollen Überwachung und Kontrollen am Arbeitsplatz verhindern und den Arbeitnehmer:innen arbeitsrechtliche Möglichkeiten geben, sich gegen derartige Mechanismen wirksam zur Wehr zu setzen.“
Kritisch sieht Angerler den „Selbstregulierungsansatz, wonach Unternehmen die Risikoeinschätzung von KI-Anwendungen selbst vornehmen können: Aus unseren Erfahrungen bei der Einschätzung von Datenschutzrisiken wissen wir, dass Unternehmen dazu tendieren, das Risiko für die Grundrechte der Betroffenen als niedrig einzuschätzen.“
„KI am Arbeitsplatz muss auf eine bessere und humanere Gestaltung der Arbeit abzielen.“
Manuel Stolz
Die Anwendungen Künstlicher Intelligenz müssen für Manuel Stolz, Sekretär in der Abteilung Europa, Konzerne und internationale Beziehungen der GPA, „immer ein Instrument sein, um gute Arbeitsbedingungen zu fördern: Menschliche Arbeit muss aufgewertet werden, nicht ausgewertet. Der Mensch muss immer im Mittelpunkt stehen.“
KI am Arbeitsplatz muss aus seiner Sicht „für die Arbeitnehmer:innen von Nutzen sein: Aus diesem Grund ist eine ergänzende Richtlinie erforderlich, um sicherzustellen, dass die Kontrolle beim Einsatz von Künstlicher Intelligenz beim Mensch bleibt. Die Anwendung von KI-Systemen am Arbeitsplatz soll nur mit Zustimmung von Gewerkschaften und Belegschaftsvertretungen umgesetzt werden können, vor allem wenn es Berührungspunkte zur Gesundheit oder den Arbeitsbedingungen der Beschäftigten gibt. Die Rechte und der Schutz der Arbeitnehmer:innen muss jederzeit gewährleistet sein.“
KI-Anwendungen würden laut Angerler „am besten mit dem ´Bottom-Up Ansatz´, also unter breiter Miteinbeziehung der Betroffenen funktionieren: Die Regelungen müssen mit den Beteiligten selbst ausgestaltet werden, dann ist die nötige Unterstützung da.“ Wichtig sei, menschliche Kontrolle und möglichst hohe Transparenz einzubauen: „KI-Anwendungen müssen verstanden, ihre Funktionsweisen erlernt werden.“ Dazu brauche es eine Reihe von Aus- und Weiterbildungen für Beschäftigte und Belegschaftsvertreter:innen.
Als nächsten Schritt wollen die EU-Parlamentarier Regeln für Chat-GPT verhandeln, für Angerler eine „nützliche Dynamik: Alle sehen, dass es hier Regulierung braucht. Für unsere Demokratie ist es gefährlich, wenn die Menschen nicht unterscheiden können, ob Fotos oder Informationen real sind oder von einer Künstlichen Intelligenz generiert wurden.“ Auch eine eigene EU-Behörde, an die Bürger:innen Beschwerden über KI-Systeme einreichen können, werde diskutiert.
Beschäftigte und Betriebsräte, die aktuell Probleme mit der Anwendung von KI im Unternehmen haben, können sich an die Gewerkschaft GPA wenden. Die Abteilung Arbeit und Technik in der GPA stellt Datenschutz-Checklisten und Musterbetriebsvereinbarungen zur Verfügung. Auch Seminare zur Einschätzung von KI-Anwendungen für Betriebsrät:innen werden angeboten.