Aktuelle Ausgabe

Newsletter

Abonnieren

Die neue Ethik in der KI

Michael Kramarsch ist Managing Partner und Mitglied des Verwaltungsrats der HKP Group. Foto: © HKP Group
Michael Kramarsch ist Managing Partner und Mitglied des Verwaltungsrats der HKP Group. Foto: © HKP Group

Michael Kramarsch, Managing Partner der HKP Group, hat
Anfang des Jahres den Ethikbeirat HR Tech mitgegründet. Ein Interview über den
Rahmen, den der Technikeinsatz im HR-Umfeld unter ethischen Gesichtspunkten
braucht.

Normen sind Bestandteil von Kultur, auch der von
Unternehmen. Deshalb ist es wichtig, den Umgang mit neuen Phänomenen
abzuklären. Ein neueres Phänomen ist die Nutzbarmachung von personenbezogenen
Daten mittels KI. Zwar begrenzt die DSGVO das Sammeln dieser Daten in der EU, allerdings
ist damit noch kein Wort über ethische Normen und Grenzen bei der
Datenauswertung gesprochen. In Europa misstraut man den von Menschen
programmierten Algorithmen tendenziell eher als in einigen anderen
Kulturkreisen. Ein Regelwerk zum, Umgang mit KI ist dringend nötig.

Personalwirtschaft: Herr Kramarsch, Sie plädieren im Umgang mit KI im Personalumfeld unter anderem für ein Wertegerüst, das sozialen Frieden und das Miteinander gestaltet.
Michael Kramarsch:
Das stimmt. Wir haben über Jahrzehnte ein Rechts- und Wertegerüst für die Personalarbeit entwickelt. Gleichzeitig wird das Erleben von Digitalisierung im beruflichen Alltag die Akzeptanz von KI und Digitalisierung wesentlich prägen.

Wir sind gut beraten, die erarbeiteten Spielregeln der analogen Welt nicht blind über Bord zu werfen, sondern sie sorgsam an eine neue Arbeitswelt und ihre Möglichkeiten anzupassen.

Uns geht es dabei um Grundsätzliches im Rahmen der Analyse von Daten mit oder ohne Unterstützung von KI.

Sie und Ihre Mitstreiter im Ethikbeirat sprechen davon, es müsse dabei stark auf die Subjekt-Qualität geachtet werden. Was meinen Sie damit im HR-Kontext?
Im Personalmanagementbereich sollten für individuelle Aussagen nur Daten analysiert werden, die der Mensch willentlich hergeben und beeinflussen kann. Es geht darum, dass der Mensch noch handelt und wahrnimmt – sozusagen als Subjekt – und nicht nur analysiert wird wie ein Objekt. Dies ist zum Beispiel nicht gegeben, wenn ein Lügendetektor den elektrischen Hautwiderstand misst oder in bestimmten Anwendungsfällen im Rahmen der Stimm- und Videodiagnostik.

Welche Einsatzbereiche von KI sind für Sie besonders relevant?
HR-Tech-Anwendungen erobern nahezu alle Phasen des Employee Lifecycle und kommen aus allen Technologiefeldern. Blockchain wird zu Verifizierungszwecken, zum Beispiel bei Zeugnissen oder der individuellen Verschlüsselung von Personaldaten eingesetzt. KI-Anwendungen analysieren große Datenmengen, um beispielsweise Muster in der Stimm- und Videodiagnostik zu erkennen. Algorithmen treffen Personalauswahlentscheidungen, Recruiting Budgets werden gelenkt, Profile vorstrukturiert oder im Extremfall sogar Auswahlentscheidungen getroffen. All das passiert mit dem festen Glauben an mehr Effizienz und Objektivität.

Und das ist problematisch?
Ein Algorithmus wird mit Daten gefüttert, analysiert Zusammenhänge und leitet daraus effiziente Entscheidungspfade ab. Dabei versteht der Algorithmus aber weder, um welche Daten es sich handelt, noch kennt er Werte, die seine Entscheidungen leiten. Das klassische Beispiel ist das Recruiting. In diesem Bereich haben US-Tech-Firmen wie Amazon den KI-Einsatz bereits wieder zurückgenommen, weil es nicht möglich war Entscheidungsverzerrungen, Vorurteile, zu eliminieren. Unsere reale Welt ist voller Unzulänglichkeiten und Vorurteile. Ein Algorithmus diskriminiert eben nicht zufällig, sondern systematisch und reproduzierbar. Soll eine KI-Anwendung beispielsweise einen DAX CEO finden, wird er aufgrund der historischen Daten niemals eine Frau vorschlagen.

Wo sehen Sie Gefahren?
Im Moment befinden wir uns in einem Rausch des Machbaren. Aber wir müssen aufpassen, dass die sogenannte künstliche Intelligenz nicht die natürliche verdrängt. Wenn man früher Bewerbern keinen Privatdetektiv auf den Hals gehetzt hat, warum dann heute breites Profiling und eine Analyse nicht relevanter Daten? Unser Wertefundament sollte nicht technologiebedingt über Board geworfen werden. Im Personalbereich sind nach wie vor Transparenz, Einbindung, Datenminimierung, Subjektqualität wichtig. Daher sage ich ein ganz anderes Szenario voraus: HR-Tech wird die Personalarbeit mittelfristig wieder menschlicher machen, indem sie effizient unterstützt und damit Freiräume für den Kern der Personalarbeit schafft. Oder kurz: KI wird in Unternehmen nicht zu weniger, sondern zu mehr “Human Intelligenz” führen.

Mehr zum Thema KI in HR lesen Sie in der › September-Ausgabe der Personalwirtschaft (Seiten 58 bis 60).

Ulli Pesch ist freier Journalist und schreibt regelmäßig über das Thema HR-Software in der Personalwirtschaft.