Aktuelle Ausgabe

Newsletter

Abonnieren

KI: Algorithmen rechtssicher für People Analytics einsetzen

Wenn Unternehmen für People Analytics Systeme einsetzen, die auf künstliche Intelligenz beruhen, müssen sie sich rechtlich absichern. Insbesondere müssen sie darauf achten, dass Autonomie und Mitsprache der Beschäftigten gewahrt bleiben.

Das geltende Recht sieht vor, dass Arbeitgeber schon bei der Planung von KI-basierter Personalsoftware den Betriebsrat einbeziehen, ihn über die Funktionsweise der Software aufklären sowie gemäß § 87 Abs. 1 Nr. 6 BetrVG seine Zustimmung einholen . Dazu sollten sie eine Betriebsvereinbarung abschließen, die den Einsatz datenschutz- und mitbestimmungsrechtlich legitimiert. Alternativ können Organisationen auch jeden Beschäftigten – einzeln und freiwillig – um seine Zustimmung bitten, dass seine personenbezogenen Daten mit People-Analytics-Verfahren erhoben und ausgewertet werden dürfen. 

Viele Unternehmen bewegen sich in Grauzone

Dass viele Unternehmen bei People Analytics diesen Vorgaben nicht gerecht werden, hat jetzt ein Forschungsprojekt der Hans-Böckler-Stiftung festgestellt. In ihrem Arbeitspapier „Automatisiertes Personalmanagement und Mitbestimmung“ vergleichen die Projektverantwortlichen die Systeme mit einer Black Box: Methoden und Verfahren, die mittels KI angewendet werden, seien oft nicht bekannt. Das liege auch daran, dass KI-Anbieter diese Informationen nicht offenlegen.

Um zu analysieren, wie Individuen oder Teams arbeiten oder ob sie ihre Ziele erreichen werden, setzen die Anbieter statistische Methoden der Mustererkennung und Wahrscheinlichkeitsrechnung ein. Welche Modelle und Annahmen sie für die Prognosen zugrunde legen und mit welchen Daten sie das System trainiert haben, halten die Dienstleister zumeist geheim. Damit wollen sie sich zum einen vor Nachahmern schützen. Zum anderen möchten sie vermeiden, dass Beschäftigte die Aussagen der Systeme verfälschen, weil sie deren Funktionsweise kennen.

Arbeitgeber können ihren Beschäftigten und deren Interessenvertretungen somit oftmals nicht in dem Maß Informationen geben, wie es das Betriebsverfassungsgesetz, vorsieht. Mitarbeiter haben jedoch einen Anspruch darauf, die Logik der Systeme zu verstehen, denn nur dann bleibt ihre Autonomie gewahrt. Haben sie die erforderlichen Informationen nicht, sei der Einsatz von KI im HR-Analytics-Bereich laut Aussage der Projektbeteiligten ethisch nicht zu rechtfertigen. Allerdings hätten auch die Beschäftigten die Pflicht, sich selbst angemessene Kompetenzen zu erarbeiten, um die Verfahren zu verstehen. 

Empfehlungen beim Einsatz von KI für HR-Analytics

Nach Ansicht der Projektverantwortlichen sind alle Beteiligen gefragt:

  • Die Hersteller müssen aktiv Möglichkeiten entwickeln und anbieten, damit Unternehmen ihren Beschäftigten sowie ihren Betriebsräten angemessen Auskunft über die Funktionsweise KI-basierter Systeme geben können.
  • Der Gesetzgeber sollte nachbessern, um Beschäftigte vor den Möglichkeiten und dem hohen Kontrollpotenzial zu schützen, das KI-Software und selbstlernende Algorithmen haben.
  • Alle Beteiligten – die Anbieter algorithmischer Systeme, die Unternehmen, die sie einsetzen, und die Beschäftigten, die davon betroffen sind – sollten gemeinsam Lösungen erarbeiten, um möglichst sämtliche Interessen zu berücksichtigen. Dabei ist es sinnvoll, Betriebsräte bereits in der Planungsphase von KI-Systemen einzubinden. Wenn Systeme erst einmal eingeführt sind, ist es meist zu spät, nachzubessern und der vorgesehenen Mitbestimmung gerecht zu werden. Zudem besteht die Gefahr, dass ein Betriebsrat, der sich übergangen oder nicht ausreichend beteiligt sieht, im Falle einer Nicht-Einigung mit dem Arbeitgeber rechtlich gegen die Implementierung des Systems vorgeht.

Kirstin Gründel beschäftigt sich mit den Themen Compensation & Benefits, Vergütung und betriebliche Altersversorgung. Zudem kümmert sie sich als Redakteurin um das F.A.Z.-Personaljournal. Sie ist redaktionelle Ansprechpartnerin für das Praxisforum Total Rewards.