Aktuelle Ausgabe

Newsletter

Abonnieren

Der Mensch im Fokus

In vielen Bereichen ist es keine Frage mehr, ob KI eingesetzt wird oder nicht. Sowohl das Internet der Menschen, zu dem mittlerweile rund 60 Prozent der Erdbevölkerung Zugang haben, als auch das Internet der Dinge generieren pro Jahr einen Umfang an Daten, der von Menschen allein nicht mehr analysiert werden kann.

Laut dem US-amerikanischen Bureau of Labor Statistics wechselt ein Angestellter alle drei bis fünf Jahre seinen Arbeitgeber. Das bedeutet für Unternehmen: Der Recruiting-Aufwand wird steigen, ebenso wie die wachsenden Möglichkeiten, Mitarbeiterdaten wie Zufriedenheit, Fluktuationsneigung und Performance auszuwerten. KI-Lösungen geben HR-Abteilungen eine „fighting chance“ gegen die anrollende Flut von Informationen. 

Geschätzt 64,2 Zettabyte an Daten wurden im Jahr 2020 weltweit erzeugt, wie das Statistik-Portal Statista meldet. Allerdings wird lediglich ein Bruchteil dieser Daten, nämlich nur etwa zwei Prozent, langfristig gespeichert. Die Ad-hoc-Analyse großer Datenmengen wird daher in vielen Geschäftsbereichen immer wichtiger.

Blackbox: neuronale Netze

Digitale Hilfe ist heute fast überall in Form von KI zu finden. So auch im Bereich des Personalmanagements. KI-Chat-Bots übernehmen in manchen Ländern das Erstinterview. In Südkorea gibt es inzwischen Dienstleister, die Bewerber mit gezielten Kursen auf das Interview mit einer KI-Lösung vorbereiten. Viele Dienstleister von Recruitment-Lösungen behaupten, dass KI helfen kann, Vorurteile aus dem Bewerbungsprozess rauszuhalten.

Doch die Realität ist komplexer: Das Innenleben moderner KI-Lösungen, die zunehmend auf sogenannten neuronalen Netzen beruhen, ist oft eine Blackbox, die für einen Menschen nur schwer zu verstehen und zu bewerten ist. Es liegt in der Natur des neuronalen Netzes, dass es sich leichter implementieren als vollständig erklären und verstehen lässt. Der Grund dafür ist, dass neuronale Netze die Art und Weise, wie wir einen Computer zur Berechnung von Ergebnissen einsetzen, entscheidend verändern. Anstatt Ergebnisse Schritt für Schritt auf der Grundlage von Regeln zu berechnen, wird dem Computer eine Architektur vorgegeben, in der er die eingegebenen Informationen so verarbeitet, dass er einem vom Menschen gewünschten Ergebnis möglichst nahekommt.

Dabei geben die Programmierer bewusst nicht vor, welche Informationen wichtig sind, sondern lassen den Computer seine eigenen Darstellungen der Daten lernen. Dies geschieht oft in einem hochdimensionalen Raum, über mehrere Schichten und in mehreren Lernzyklen. Selbst der Architekt des Netzes weiß nicht, welche Dimension in einer Schicht für welche Art von Information steht.
Eine gängige Strategie zur Bewertung von KI-Lösungen besteht daher darin, sich auf die Bewertung der Eingabe- und Ausgabedaten durch einen Vergleich mit historischen Daten zu konzentrieren. Aus diesem Grund kann es unglaublich schwierig sein, bestehende Vorurteile, die in den Daten erfasst sind, in diesen Berechnungsprozessen zu minimieren beziehungsweise zu eliminieren. Völlig autonome KI-Lösungen können dann entweder scheitern oder nicht akzeptiert werden.

So musste beispielsweise Amazon 2015 ein KI-Projekt aufgeben, als das Unternehmen feststellte, dass die KI, die darauf trainiert war, Kandidaten auf ihre Eignung hin zu überprüfen, die Bewerbungen von Männern bevorzugte. Auch in der Medizin gibt es zahlreiche Beispiele für diskriminierende KI-Lösungen. So arbeiten Sauerstoffmessgeräte bei dunkler Hautfarbe weniger genau.

Hybride menschlich-künstliche Intelligenz

Aus diesen Beobachtungen lassen sich zwei Grundregeln ableiten:

  1. Die Auswahl und Pflege der Daten, die für die Entwicklung von KI-Lösungen verwendet werden, ist fast noch wichtiger als die Auswahl des Algorithmus.
  2. Die Menschen, Mitarbeiter und Kunden müssen beteiligt werden.

Einen rein technischen Ansatz zu finden, der beide Grundregeln beinhaltet, ist äußerst schwierig, auch weil sich eine faire und die beste Lösung mathematisch ausschließen können. An diesem Problem wird weiterhin intensiv geforscht. Während man auf Lösungen aus dem Silicon Valley (Zuckerbergs Großprojekt Meta AI will die Fairness in der KI-Forschung vorantreiben) wartet, kann dieses Problem jedoch angegangen werden, indem menschliche Entscheider im Mittelpunkt des Prozesses stehen.

Anstatt monolithische komplexe KI-Software zu entwickeln, liegt das Ziel in KI-Mikrolösungen, deren Ergebnisse von einem Menschen verarbeitet werden. Dabei nutzen die Algorithmen die historischen Daten, um lediglich Lösungen vorzuschlagen oder automatische Auswertungen aufzuzeigen, aber sie treffen letztlich nicht die Entscheidung. Die Rohinformationen werden so aufbereitet, sortiert und ausgewertet, dass ein Mensch seine Bewertung einfacher vornehmen kann und nur noch einen Bruchteil der Information einsehen muss. Die letztliche Entscheidung wird an die KI zurückgegeben, woraus ein kontinuierliches maschinelles Lernen entsteht.   

KI trifft keine Entscheidungen

Im Idealfall inspiriert die KI den Menschen zu neuen Ideen und lernt aus der Bewertung durch den Entscheider. Der Mensch kann sowohl das Warum als auch ethische Überlegungen in seine Bewertung einfließen lassen, aber ebenso auch die Vorschläge der KI.

Dieser relativ neue Ansatz wird in der Forschung als hybride menschlich-künstliche Intelligenz bezeichnet. Er verdeutlicht, dass Menschen und Maschinen unterschiedliche Stärken haben:  
Maschinen sind effizient im Auffinden von Informationsmustern in großen Datenmengen.
Menschen sind besser in der Lage, globale Analysen durchzuführen und Informationen außerhalb eines bestimmten Kontextes zu sehen.

Wie also sollte KI-gestützte-Software konzipiert sein? Die Lösungen von Gradar setzen sowohl auf klassische Statistik als auch auf maschinelles Lernen einschließlich neuronaler Netze: zum Beispiel für Analyseaufgaben der Software sowie deren Lokalisierung in andere Sprachen und Märkte. Oft muss die Software verschiedene Stellenstrukturen verschiedener Anbieter für unterschiedliche Zwecke miteinander vergleichen. Dabei hilft eine auf drei Sprachmodellen basierenden KI zwar mit der Vorauswahl und reichert diese mit Daten an, die bei der Entscheidung helfen sollen.

Ein menschlicher Experte muss aber die Auswahl letztlich bestätigen. Diese menschlichen Entscheidungen werden in Aktualisierungsphasen als neue Trainingsdaten berücksichtigt.

Unsere Erfahrung hat gezeigt, dass der Einsatz von KI zwar sehr sinnvoll ist, aber am besten dann, wenn sie der Assistent eines Menschen ist und nicht völlig autonom Entscheidungen trifft. Dabei sollten die Lösungsanbieter auch gerne angeben, wo und wie KI eingesetzt wurde. Hierin, hoffen wir, liegt ein Weg, die allgemeine Akzeptanz von Künstlicher Intelligenz zu erhöhen.

Dr. Thomas Köntges
Head of Data Science
Gradar.com, Quality Personell Management
thomas.koentges(*)gradar(.)com
www.gradar.com