Aktuelle Ausgabe

Newsletter

Abonnieren

„Der Algorithmus ist nur so gut wie die Annahmen, auf denen er basiert“

Professor Torsten Biemann forscht an der Universität Mannheim über Personalmanagement und Führung. / Foto: Universität Mannheim
Professor Torsten Biemann forscht an der Universität Mannheim über Personalmanagement und Führung. / Foto: Universität Mannheim

Personalwirtschaft: Schaut man sich die Begriffsschwemme beim Data Driven Recruiting an, stellt sich die Frage, ob diese alle dasselbe meinen oder ob es substanzielle Unterschiede gibt?
Torsten Biemann: Data Driven Recruiting bedeutet, dass

bei der Ansprache und Suche nach Kandidaten IT-gestützte Lösungen verstärkt Datenmaterial nutzen. Aber der

Begriff sagt noch nichts Genaues darüber aus, welche Daten
wie verwendet werden. Beispielweise können Lebensläufe
aus Jobbörsen oder Lebenslaufdatenbanken über einen
Matching-Algorithmus einen automatisierten Abgleich mit

dem Stellenprofil vornehmen. Oder ein Algorithmus sammelt im Internet frei verfügbare Informationen über Kandidaten, um auf diesem Weg etwas über deren Persönlichkeitsprofil zu erfahren.

Und Robot Recruiting wird synonym verwendet?

Das klingt nach einer gefälligen Alliteration, die vor allem
zuspitzt, da sie suggeriert, die Rekrutierung funktioniere nun
automatisch – von der Eingabe der Stellenanzeige über die

Auswertung des Vorabinterviews in Chatbots bis zur automatischen Einladung der passendsten Kandidaten zum

Bewerbungsinterview. Der Begriff wird gerne in der Praxis verwendet, er erfasst aber nicht, welche Prozessschritte

im Einzelnen automatisiert sind. Ob beispielsweise aus dem

Bewerbermanagementsystem heraus Vorschläge für passgenaue Kandidaten erfolgen oder ob die Stellenanzeige

automatisch nach Schlagworten optimiert wird. Es werden
also Teile des Recruitings von einer künstlichen Intelligenz
übernommen, keinem Roboter im engeren Sinne.

Welche Chancen bieten Big-Data-Analysen für Jobbörsen?

Sie sind in der Lage, den Matching-Prozess, also den Fit zwischen Stellenprofil und Kandidat, immer weiter zu verbessern. Prinzipiell machen das Jobbörsen heute auch schon,

daher ist es nichts grundlegend Neues. Ihre Aufgabe ist es,

aus theoretisch Hunderttausenden von Kandidaten diejenigen zu finden, die von ihren Skills am besten zum Stellenprofil passen könnten. Das ist ein wichtiger erster Schritt.

Jedoch kann es anschließend kaum gelingen, die Leistungsfähigkeit dieser Kandidaten einzuschätzen. Es gibt ein paar

Grenzbereiche, in denen dies funktionieren könnte, beispielsweise wenn Softwareentwickler ihre entwickelten Codes auf

Fachplattformen wie Github offenlegen. Doch in der Regel
gilt: Auch wenn die Software der Jobbörsen mit mehr Daten
gefüttert wird, kann sie nur das Matching verbessern, nicht
jedoch Rückschlüsse auf die Performance der Bewerber
ziehen. Dazu fehlt ihnen eine valide Datenbasis über die
Leistungsfähigkeit der Kandidaten in der Praxis, die für
einen solchen Algorithmus notwendig wäre.

Das sogenannte People Analytics ist also kein Instrument
für Jobbörsen?

Die Matching-Prozesse der Stellenbörsen lassen sich durch-
aus als eine Form von People Analytics betrachten, auch

wenn sie keine Predictive-Analytics-Elemente beinhalten

müssen. Der Algorithmus ist aber nur so gut wie die Annahmen, auf denen er basiert. Es wäre sehr einfach, einen Algorithmus zu programmieren, der auf gewünschten Hobbys

und Schuhgröße der Kandidaten basiert. Sie bekommen
dann Bewerber mit einem perfekten Matching, hilfreich ist

es aber nicht. Sie müssen die Auswahlkriterien mit späterer Leistung verknüpfen, damit der Algorithmus mit der

Zeit lernt, welche Kriterien wichtig und welche redundant
sind. Bei dem genannten Beispiel ist es trivial, aber welches
die tatsächlich relevanten Fertigkeiten und Kenntnisse für
die Stelle sind und wie diese gewichtet werden sollten,
benötigt auch People-Analytics-Anwendungen.

An welchen Stellen im Prozess können Recruiter im Unternehmen von Big-Data-Analysen profitieren?

Big Data kann gerade bei der Ansprache potenzieller Kandidaten helfen. Erstens können Unternehmen alleine oder

unterstützt durch Jobbörsen oder Personalberater anhand
von Daten erkennen, welches die besten Kanäle für die
Ansprache von Bewerbern für bestimmte Positionen sind. Zweitens kann Big Data für Active Sourcing verwendet
werden, indem besonders geeignete Kandidaten aus einem
größeren Pool identifiziert werden, die gezielt angesprochen
werden. Dies geschieht im Executive Search auch heute
schon, in der Regel aber nicht unterstützt durch Big Data.
Damit würde dieser Prozess sozusagen automatisiert.
Im anschließenden Auswahlprozess ist
Big Data weniger hilfreich, hier ist eher

die Verwendung klassischer Instrumente zur Personalauswahl angebracht.

Denn obwohl sich bestimmte Erfahrungen und Kenntnisse aus vorhandenen Daten ableiten lassen, ist dies für

die Leistungsfähigkeit der Kandidaten
nur bedingt möglich.

Das heißt, CVs und Internetquellen bieten keine Informationen über die Persönlichkeit des Bewerbers?

Manche Entscheider oder Personalberater versuchen,

aus dem Material von Facebook und Co. Persönlichkeitsmerkmale der potenziellen Bewerber abzuleiten. Das

funktioniert, aber nicht sehr gut, weil es enorm schwierig ist, diese Fundstücke sinnvoll zu interpretieren. Außer-
dem können sich Bewerber leicht an diese neuen Methoden anpassen. Wenn Bewerber wissen, worauf Arbeitgeber

achten, können sie sich entsprechend im Internet präsentieren. Lebensläufe werden schon lange von den

Bewerbern an die jeweilige Stelle angepasst. Ähnlich können Kandidaten auch die über sie verfügbaren Informationen im Internet anpassen. Dazu muss nicht jedes Facebook-Foto zeigen, wie sie gebannt auf Excel-Sheets

schauen. Es reicht schon, die entsprechenden Schlagworte einzubinden, auf die der Algorithmus reagiert. Für

die Suche nach passenden fachlichen Fähigkeiten sind
Algorithmen also schon geeignet, aber alles darüber

hinaus stellt sich als extrem schwierig dar. So sind die bestehenden Lösungen mit der Suche nach Soft Skills oder der

Leistungsfähigkeit überfordert. Es ist immer noch viel einfacher und zuverlässiger, die Kandidaten einen kurzen Persönlichkeitstest absolvieren zu lassen.

Wie unterstützt Predictive Analytics im Auswahlverfahren?

Im Auswahlprozess können Predictive-Analytics-Tools helfen, die teilweise schon recht gut funktionieren. Die dahinterliegende Technologie wird auch als künstliche Intelligenz (KI) oder Machine Learning bezeichnet. KI ist nichts

grundsätzlich Neues, nur die Verwendung im Recruiting
ist neu. Was wird gemacht? Eine Software analysiert eine

Datenmenge, um zu erfahren, welches die besten Vorhersagevariablen sind. Diese Daten können aus Ergebnissen von

strukturierten Interviews, Persönlichkeitstests oder Assessment-Centern stammen. Der Algorithmus verwendet diese Daten nun, um daraus möglichst gute Vorhersagen für

diejenigen Fälle zu machen, für die man das Ergebnis schon
kennt. Er wird mit diesen Daten sozusagen für zukünftige

Entscheidungen trainiert, indem analysiert wird, wie die verschiedenen Variablen mit der Zielgröße, beispielsweise Leistung des Mitarbeiters, zusammenhängen. Bei zukünftigen Bewerbern wird

nun die Auswahl anhand der vorher als

wichtig erkannten Variablen vorgenommen. Auch von den neuen Mitarbeitern

wird später geprüft, ob die Entscheidung richtig war oder ob der Algorithmus für die Zukunft angepasst werden

muss.

Was ist mit sogenannten ungeraden Lebensläufen, kann
ein Algorithmus diese passend bewerten?

Sogar besser als der Mensch. Die Software kann jeder Information ein entsprechendes Gewicht zuteilen und lässt sich

dabei nicht von Vorurteilen leiten. Während zum Beispiel
ein ungerader Lebenslauf für einige Recruiter ein K.o.-

Kriterium darstellen könnte, würde ein Algorithmus diesen Aspekt nur so stark in die Entscheidung einfließen lassen, wie es sich aus den Daten rechtfertigen lässt. Hat sich

für das Unternehmen zum Beispiel gezeigt, dass ein ungerader Lebenslauf nicht mit der Leistung zusammenhängt,

würde der Lebenslauf keinen Einfluss auf die Entscheidung
haben. Ein lernender Algorithmus würde die neuen Daten
einbeziehen, um zukünftige Entscheidungen noch weiter
zu verbessern.

Ein Algorithmus funktioniert also nach dem Prinzip
“Trial and Error”?

Fallen dann nicht auch passende
Kandidaten durchs Raster?

Das ist richtig, es werden auch mit Anwendung von Predictive Analytics noch gute Leute durchs Raster fallen. Auch

der beste Algorithmus ist in diesem Bereich noch weit davon entfernt, eine hundertprozentige Trefferquote zu haben. Aber schon eine

kleine Verbesserung der Trefferquote gegenüber dem bestehenden Verfahren ist für jedes Unternehmen

bedeutsam. Im Personalbereich gibt
es zudem viele Zusammenhänge, die

auch über Unternehmen hinweg Gültigkeit besitzen. Möchte man zum

Beispiel die Personalauswahl optimieren, muss man also nicht bei null anfangen, sondern

kann die schon vorhandenen Erkenntnisse aus Wissenschaft und Praxis als Startpunkt nehmen. Man beginnt mit

den Verfahren, von denen andere schon zeigen konnten,
dass sie funktionieren, und passt diese dann an das eigene

Unternehmen an. Dies ist gerade für KMU relevant, die alleine keine hinreichend große Datenbasis aufbauen können.

Führt eine perfekte Datenbasis mit einem stetig optimierten Algorithmus automatisiert zum perfekt passenden

Kandidaten?

Theoretisch schon, aber diese perfekte Datenbasis ist nicht
in Sicht. Und das ist auch gut so. Wer wünscht sich schon eine Zukunft wie im Film “Gattaca”,
bei dem schon bei der Geburt klar
ist, welche beruflichen Chancen man
bekommen wird? Google hat eine
Zeitlang Führungskräfte mit einem
Algorithmus ausgewählt, der nach

eigenen Angaben sehr gut funktioniert hat. Trotzdem ist das Unternehmen zurückgerudert mit der

Begründung: “People should make
people decisions.” Die Manager sollten sich nicht hinter
einem Algorithmus verstecken, sondern selbst hinter der
Entscheidung stehen können. Wenn die Ergebnisse der
automatisierten Auswahl als Entscheidungsunterstützung
eingesetzt werden, aber die menschlichen Experten die

Möglichkeit haben, ihr Veto einzulegen und ihre abweichen-
de Meinung zu begründen, gewinnt der Prozess auch im

Unternehmen an Glaubwürdigkeit und Authentizität. Egal,
ob man es nun als Utopie oder Dystopie wahrnimmt, es

wird auch in Zukunft bei der Suche nach Kandidaten Faktoren geben, die nicht erfasst werden können. Algorithmen

können zwar helfen, die Auswahl zu verbessern, ganz ohne
Fehlentscheidungen geht dies aber nicht.

Glossar: Was soll das bedeuten?
Big Data im Recruiting: Big Data wird in der Regel als Sammelbegriff für digitale Technologien verwendet. Im engeren Sinne ist damit die Verwendung großer Datenmengen (unter anderem Arbeitsmarktzahlen, Mitarbeiterdaten, Ergebnisse unternehmensinterner Tests, wissenschaftlicher Studien, Daten von Social Media Networks, Jobbörsen) gemeint, die über eine Analyse zu einer Mustererkennung führen.
Anwendung: Im Recruiting werden die Daten einerseits bei der Ansprache und Suche mit dem Ziel eines noch genaueren Matching-Ergebnisses eingesetzt. Andererseits können sie im Auswahlprozess des Unternehmens die Entscheidungsfindung unterstützen (siehe Predictive Analytics), um den geeignetsten Kandidaten für eine Position zu finden.
Matching, automatisiert: Eine Software vergleicht die Arbeitsplatzanforderungen und das Stellenprofil mit den Lebenslaufangaben von Bewerbern, um die größtmögliche Übereinstimmung zu finden. Die Software-Algorithmen suchen entweder nach passenden Schlüsselbegriffen innerhalb der Bewerbungsunterlagen wie Bildungsabschluss, fachliche Fähig- keiten, Sprachkenntnisse oder Tätigkeitsprofil. Oder aber sie suchen Begriffe mit ähnlicher Bedeutung (semantische Suche oder Semantic Matching Engine – SEM).
Anwendung: Aus Bewerberprofilen, Datenbanken oder Business Networks wie Xing oder Linkedin kann die Software die passendsten Personen herausfiltern.
Algorithmen, selbstlernend: Lernende Algorithmen sind in der Lage, strukturierte und unstrukturierte Daten in komplexer Weise zu analysieren, und geben Handlungsanweisungen. Beispiel Amazon: Nach der Analyse, welche Filme, Bücher und Musik die Person X konsumiert, werden ihr automatisiert Empfehlungen vorgeschlagen. Auch die digitale Gesichtserkennung läuft nach dem Muster. Ebenso können selbst- lernende Algorithmen helfen, Nachwuchskräfte auszuwählen. Voraussetzung sind große Datenbestände, die mithilfe statistischer Methoden Trends und neue Muster aufzeigen können. Selbstlernen- de Algorithmen arbeiten auf der Grundlage bereits vorhandener Daten (Data Mining).
Anwendung: Algorithmen fördern neue Erkenntnisse zutage. Beispielsweise wie lange ein Berufsanfänger im Controlling durchschnittlich im Unternehmen verbleibt, sodass Recruiter rechtzeitig den Job neu ausschreiben können.
People Analytics/HR-Analytics/Predictive Analytics: Diese Form der Analyse nutzt die aus den Datenbeständen gewon- nenen Erkenntnisse. Die Software arbeitet mit modernen Algorithmen und Modellen und kann indirekt auch Schwachstellen oder Stärken der Bewerber aufzeigen. Richtigerweise muss es Predictive Analytics heißen, da die Analyse Vorhersagen trifft. Der Prädiktor ist eine Variable, der für eine einzelne Person (oder ein Team) gemessen wird, um ihr zukünftiges Verhalten vorherzusagen.
Anwendung: Im Auswahlprozess liefert Predictive Analytics eine Prognose zur Passung und zur Leistungsfähigkeit eines Bewerbers in der Zukunft.