Nach welchen Werten richten wir unser Leben aus, auch unser Arbeitsleben? Lehnen wir uns gegen die Mächtigen wie Google oder Amazon auf? Oder handeln wir nach rein ökonomischen Gesichtspunkten? Auf der Zukunft Personal Süd sprach Dr. Petra Grimm, Professorin am Institut für Digitale Ethik an der Hochschule der Medien (HDM) Stuttgart, über den Wertewandel.
Die wichtigste Botschaft von ihr zum Thema persönliche Werte gleich vorab: „Wenn ein hohes Risiko für die Privatsphäre besteht, muss man tätig werden.“ Das fange schon bei der Wahl eines Messenger-Dienstes an: Nutzt man Datenkrake Whatsapp oder diskretere Tools wie Signal?
Doch der Wertewandel geht weit über die Wahl des Messengers hinaus. Nach den Kriterien „Fleiß, Disziplin und Pünktlichkeit“ in den 1960er Jahren fand die Pluralität von Lebensstilen Akzeptanz. Man lebte nicht mehr (nur), um zu arbeiten, sondern stellte die Selbstverwirklichung in den Fokus. Seit 2000 ist eine Ökonomisierung der Wertesysteme zu beobachten. „Früher wurde in Krankenhäusern geheilt, nicht gewirtschaftet“, betont die Professorin. Auch in der Bildung ging es nicht-ökonomisch zu. Heute stehen in Schulen und Hochschulen die Selbstoptimierung und Quantifizierung an erster Stelle.
Doch welche Ethik wollen sich die Gesellschaft und Arbeitswelt heute leisten? „Es geht nicht darum, was technisch möglich, sondern was für wen wünschenswert ist“, betont Grimm, „denn Digitalisierung muss einem guten Leben dienen.“ Das gelte auch für Mitarbeiter in einem Unternehmen. Braucht man ethisches Rahmenwerk? Wenn ja, dann nicht in Form von strengen Compliance-Regeln für die Belegschaft, sondern durch eine Sensibilisierung für die unsichtbaren Folgen der Technik und Digitalisierung. „Das bedeutet, man muss sich eine ethische Digitalkompetenz aneignen und sich nicht nur mit Hard- und Software auskennen.“
Personalauswahl durch Kollege Roboter?
Im Arbeitsalltag läuft die Debatte ja schon längst, welche Aufgaben eine Maschine erledigen kann und welche in der Hand von Menschen bleiben sollten – auch aus ethischer Sicht. Beispiel Recruiting: Matching-Tools sind Standard – nun folgt die nächste Stufe. Inzwischen gibt es intelligente Bots, die Telefoninterviews mit Bewerbern führen und aus dem Gesagten Persönlichkeitsmerkmale herausfiltern können. „Das Tool vermeidet zwar die Diskriminierung nach Herkunft oder Geschlecht, aber es erkennt auch psychische Belastungen“, warnt Grimm. Wie weit will man automatisierten Abläufen trauen? Wie weit gibt man seine menschlichen Fähigkeiten in puncto Persönlichkeitsanalyse an einen Computer ab? Außerdem seien Algorithmen nicht so schlau, wie man glaubt. Es kann immer Verzerrungen geben, was man bei so mancher Google-Suche sehen kann.
Die Ethik-Diskussion gewinnt immer mehr an Bedeutung, je mehr Robotics uns im täglichen Leben unterstützen. Menschlich anmutende Roboter arbeiten bereits als Assistenten im Pflegeheim, als kollaborative Partner in Lager und Logistik (Amazon, Zalando, etc.), und ihr kindlich anmutendes Erscheinungsbild hat die EU sogar auf die Idee gebracht, Robotern den Status einer elektronischen Person (E-Person) zu verleihen, die in Haftung genommen werden könnte. Das wird zurzeit in der EU-Kommission geprüft.
Grimms Fazit: Der Mensch sollte immer die Maschine kontrollieren, nicht umgekehrt. Und Transparenz ist nicht wünschenswert, sondern unabdingbar.