Digitale Ethik 5: Yasmin Fahimi und Ulrich Kelber

KI-Technologien werden in viele Bereiche des Lebens einfließen und sie verändern. Diese Veränderungen benötigen einen permanenten kritischen Begleitprozess und Nachsteuerungen auf gesetzlicher sowie technischer Ebene, vor allem in so sensiblen Bereichen wie HR, um das eigentliche Ziel – die Erleichterung für den Menschen bei der Arbeit und im Alltag – zu erreichen. Dies lässt sich als Fazit der finalen Session der Impulsreihe „Digitale Ethik“ des Demographie Netzwerks und des Ethikbeirats HR Tech ziehen.

Seit der ersten Stunde mit dabei war Michael Kramarsch, Co-Chair des Ethikbeirats HR-Tech und Managing Partner der hkp/// group. Yasmin Fahimi, Vorsitzende des DGB – Deutscher Gewerkschaftsbund, und Ulrich Kelber, Bundesdatenschutzbeauftragter, haben gemeinsam mit Michael Kramarsch für ein hochkarätiges, spannendes Finale gesorgt. Von Datenschutz bis Lösungen für Personal, Mitbestimmung und gesetzlichen Rahmenbedingungen für die innovative Gestaltung des KI-Einsatzes allgemein sowie speziell in der Personalarbeit wurden viele relevante Themen diskutiert und zum Abschluss eine Schleife um das Gesamtpaket „Digitale Ethik“ gebunden.  

Die Referierenden waren sich in den meisten Punkten einig und haben ihre Perspektiven den Teilnehmenden durch anschauliche Beispiele nähergebracht. Die Teilnehmenden hatten zum Ende außerdem die Möglichkeit, ihre eigenen Fragen an die Expert*innen zu stellen und fundierte Antworten zu erhalten. 

„Wenn Technologie hinreichend komplex ist, können wir sie nicht von Magie unterscheiden.“

Nicht komplett nachvollziehbare und nachrechenbare Technologien stellen eine Unsicherheit für alle Marktteilnehmenden dar, stellte Michael Kramarsch eröffnend fest. Das Ziel der Veranstaltungsreihe und auch des Ethikbeirats HR Tech sei es daher, im Markt mehr Sicherheit und Orientierung zu bieten, um in bestimmten Anwendungsfeldern einen ethisch und rechtlich korrekten Umgang mit Technologie in der Personalarbeit zu schaffen. Er betrachtet KI daher als Werkzeug, ähnlich wie einen Hammer. „Ich kann damit einen Nagel in die Wand schlagen und die Mona Lisa aufhängen oder damit meinen Nachbarn erschlagen.“ Die Quintessenz dieses philosophischen Vergleichs ist also: Die Auswirkungen einer KI hängen von ihrer Anwendung ab. Dabei seien die Anwendungsfälle im Personalwesen, wie die Potenzialeinschätzung von Mitarbeitenden oder die Vor-Selektierung von Bewerbungsunterlagen, sensible Bereiche, die von normativen Vorgaben stark geprägt sind.  

„Sie haben kaum eine Chance, einen Datensatz geschlechtsneutral zu stellen.“

Das Thema der normativen Prägung macht Kramarsch am Beispiel des KI-Einsatzes im Bewerbungsprozess deutlich. Ein Computer wird mit sogenannten Trainingsdaten gefüttert, die aus dem echten Leben kommen und somit zahlreiche Entscheidungsverzerrungen enthalten. Wenn es beispielsweise um die Entscheidung ginge, welche*r Kandidat*in am geeignetsten für den Posten als Vorstandsvorsitzende*r wäre, würde eine KI-Anwendung wenig überraschend und mit großer Wahrscheinlichkeit keine Frau nennen, da die Grundlage für die Beurteilung zum Beispiel die Vorstandsvorsitzenden (hier wird mit Absicht nicht gegendert) der DAX-Konzerne der letzten Jahre wären. Hier müsse also darauf Acht gegeben werden, wie wir KI-Anwendungen trainieren. Dies stellt eine große Schwierigkeit dar, denn man kann zwar versuchen, geschlechtsspezifische Daten aus dem Datensatz zu löschen, aber ein KI-System würde das Geschlecht höchstwahrscheinlich dennoch erkennen, so Kramarsch. 

Die vielleicht komplexeste Regel, die im Ethikbericht aufgenommen wurde, sei die Achtung der Subjektqualität. Der Mensch müsse immer noch ein handelndes Subjekt bleiben und dürfe nicht nur auf ein zu analysierendes Objekt reduziert werden.  

Die zehn Richtlinien des Ethikbeirat HR-Tech möchten einen Rahmen schaffen, in dem der technologische Fortschritt im HR-Bereich unter Berücksichtigung von Ethik und Vernunft, Einzug finden kann. Damit wollen die Expert*innen einen Leitfaden und Orientierung geben – auf Unternehmensseite, Anbieterseite, aber auch auf Mitarbeitendenseite. Michael Kramarsch gab uns dazu einen kleinen Einblick in aktuelle Überlegungen des Ethikbeirats. Etwa werde gerade diskutiert, ob diese bisher unverbindlichen Richtlinien in Richtung eines Marktsiegels weiterentwickelt werden können.  

„Wir sollten uns nicht nur technische Eigenschaften anschauen, sondern das gesamte sozio-technologische System.“

Auf die Eingangsfrage, wie oft Ulrich Kelber den Satz „Es geht nicht wegen des Datenschutzes“ vernehme, entgegnet er, er überhöre ihn manchmal schon. Er würde gerne das „nicht“ herausstreichen. Für Kelber ist klar, wir haben in Deutschland in vielen Themen einen Digitalisierungsrückstand, aber der Grund dafür ist nicht das Datenschutzrecht. Hinderlich seien oft eher Vorbehalte gegen Veränderungen, die hinter Rechtsfragen oder dem Datenschutz versteckt würden. Seine Beobachtung ist, dass sich manche Debatten in den letzten Jahren, seit Entwicklungsbeginn von KI-Technologien, gar nicht so stark verändert haben. In der Arbeitswelt werde KI zunehmend eingesetzt, ohne dass es dafür immer rechtliche Grundlagen gäbe Kelber gibt einen kurzen Rückblick auf die Arbeit zweier Kommissionen, die sich in diesem Jahr mit dem Thema KI und Datenschutz beschäftigen. Die Datenethikkommission der Bundesregierung, bei der er selbst und der DGB vertreten waren, habe vor zwei Jahren sehr grundlegende Vorschläge für den Umgang mit KI gemacht. Auf einige der Vorschläge habe der unabhängige interdisziplinäre Beirat zum Beschäftigtendatenschutz des BMAS Bezug genommen. Die Mitglieder wären sich einig gewesen, den Begriff der künstlichen Intelligenz auf Algorithmen im Allgemeinen auszuweiten, weil es ohnehin keine klare Abgrenzung sowie unterschiedliche Verarbeitungsformen und Einsatzgebiete gäbe – von einem Getränkeautomaten bis zu einer selbstständig tötenden Drohne. Die Handlungsempfehlungen für solche algorithmischen Systeme basieren daher auf der Bewertung des Risikos, wobei nicht nur die technischen Eigenschaften in den Blick genommen werden sollten, sondern das gesamte sozio-technische System. 

Transparenz, Erklärbarkeit und Nachvollziehbarkeit seien sowohl für die Entwickelnden, für die Anwendenden als auch für diejenigen, auf die die Technologie angewandt wird, essenziell. Der Mensch müsse im Mittelpunkt stehen und die Vereinbarkeit mit gesellschaftlichen Grundwerten und der Verfassung müsse jederzeit gewährleistet sein. Dazu gehört laut Kelber insbesondere auch die Klärung der Verantwortungsfrage bei vollautomatischen Entscheidungen, ohne die beispielsweise die Ausübung der Betroffenenrechte oder die Forderung einer Entscheidungsänderung gar nicht möglich wären. Menschen müssen vorab aufgeklärt werden, ob sie etwa mit einem Chatbot in einem Bewerbungsgespräch anstatt mit einem Menschen kommunizieren sollen, ansonsten seien Fehler weder zu erkennen noch zu eliminieren. 

Die Datenethikkommission verfolgt einen risikobasierten Ansatz, der anhand einer fünftstufigen Kritikalitätspyramide (Gutachten der Datenethikkommission s. 3.2) eingeteilt ist. Damit solle sichergestellt werden, dass sich KI dort innovativ weiterentwickeln kann, wo sie einen positiven Beitrag liefert. Demnach unterliege ein Großteil dieser Systeme auf Stufe 1 keinen Einschränkungen. Ab der zweiten Stufe müsse es aber Qualitätsanforderungen an die Entwicklung geben. Etwa müssten die Korrektur- und Kontrollinstrumente regelmäßig überprüft werden. Für die Prüfung der Qualität fordert Kelber Möglichkeiten, um dies dauerhaft nachzuvollziehen und Nachprüfungen zu ermöglichen. Ebenso sei eine Stufe, auf der es eine Art Live-Monitoring für Aufsichtsräte geben könne, vorstellbar. Auf Stufe 5 sieht der Experte dagegen auch ein unvertretbares Schädigungspotenzial, welches verboten werden müsse, wie etwa der Einsatz von autonomen Waffensystemen. Aber auch im Beschäftigungsumfeld seien solche unvertretbaren Technologieeinsätze vorstellbar. Kelber betont: „Die Personaldaten der Beschäftigten sind sehr sensibel und der Umgang damit muss professionell und datenschutzrechtlich sauber organisiert werden.“ Als Beispiel nennt er die im Arbeitsumfeld praktisch und technisch vorstellbaren Überwachungsmöglichkeiten, wovon viele unzulässig sind und dennoch stattfinden. Es sei jedoch gar nicht so einfach einen fragwürdigen Einsatz am Ende nachzuweisen, was eine große Herausforderung darstelle. 

„Automatik ist auch nur von Menschen gemacht. Solange das so ist, ist sie fehleranfällig“

Auf dieses Zitat von Charlotte von Bernstorff bezieht sich Kelber und fordert, dies bei der Entwicklung von KI-Technologien mitzudenken, denn sonst entstünden Mechanismen, die diskriminieren oder invalide Aussagen treffen. Eine große Gefahr sei, dass Menschen mit unterschiedlichen Lebensläufen oder unterschiedlichen Herangehensweisen durch die Systeme nicht gesehen würden. Ein System kann nicht alles gleichzeitig optimieren, so Kelber. 

Abschließend stellt er fest, dass wir Grenzen und Rahmenbedingungen für den Einsatz von KI vor allem im Beschäftigungs- und Bewerbungskontext brauchen. Das müsse gesetzlich geregelt werden und die Schwere, Tiefe sowie Breite der Grundrechtseingriffe müssen dafür eine wesentliche Grundlage sein. Die von ihm erwähnte Kritikalitätspyramide dürfe in dieser Regelung nicht fehlen. „Wir brauchen Korrekturen, Kontrollinstrumente, Zulassungsverfahren an bestimmten Stellen und Vorabprüfungen, Antidiskriminierungs- und Transparenzvorgaben und eine verbesserte Möglichkeit der Rechtsdurchsetzung. Das muss gesetzlich normiert sein.“ Besonders eingriffsintensive Datenverarbeitungen sollten gegebenenfalls verboten werden. (Beispielsweise sollte im Beschäftigungskontext die Profilbildung als solche dem Verbot mit Erlaubnisvorbehalt des Artikels 22 DSGVO unterstellt werden.)  

Kelber verweist darauf, dass der Beschäftigtendatenschutz aktuell vor allem in § 26 Bundesdatenschutzgesetz (BDSG) geregelt ist. Ein einzelner Paragraf im Bundesdatenschutzgesetz sei aber für unsere digitalisierte Arbeitswelt völlig unzureichend, wie die Ausführungen zum Einsatz von KI mit ihren Spezifika schon gezeigt hätten.  

Als Generalklausel konzipiert lasse er zu viel Interpretationsspielraum. Im Ergebnis führe das neben unzureichendem Schutz für Beschäftigte auch zu einer schädlichen Rechtsunsicherheit über die Zulässigkeit von Verarbeitungen personenbezogener Daten im Beschäftigungskontext für Arbeitgeberinnen und Arbeitgeber, Beschäftigte, Bewerberinnen und Bewerber, Personalvertretungen und Gerichte. Außerdem entstehe so eine unübersichtliche Einzelfallkasuistik von Gerichtsentscheidungen. Es brauche deshalb klare gesetzliche Regelungen nicht nur für einen besseren Schutz der Betroffenen, sondern auch für mehr Rechtsklarheit. Das Thema KI müsse in die Debatte über einen allgemeinen Beschäftigtendatenschutz in jedem Fall mit einfließen. Die meisten der Systeme, die derzeit in den Markt drängen, erfordern darüber hinaus schnelle Rechtssicherheit. Seine Bilanz: „Im Augenblick sind alle auf unsicherem Terrain unterwegs. Eine rechtssichere Lösung würde die eine oder andere besonders risikointensive Datenverarbeitung im Beschäftigtenkontext sicherlich einschränken, aber anderes, was man tut, hätte dann eine klare und belastbare Rechtsgrundlage und das würde wahrscheinlich allen helfen.“ 

„In der Arbeitswelt sind wir bei Personalfragen sehr schnell dabei zu akzeptieren, dass es der Verkauf der Arbeitskraft ist und man die Hälfte seiner Rechte vorm Werkstor hängen lässt und das kann mitnichten so sein.“

Yasmin Fahimi hebt zu Beginn ihres Impulses hervor, dass der Einsatz von Maschinen im Bereich Human Resources zurecht von der EU-Kommission als Hochrisikobereich eingeschätzt wird. Es müsse realisiert werden, dass wir nicht allein von einer Optimierung von Maschinen und Prozessen reden, sondern dass es hier um die Optimierung von Menschen gehen soll. Fahimi sieht hier vorrangig Klärungsbedarf ethischer und Selbstbestimmungsfragen. Sie betont, dass es um Kernfragen des Arbeitsrechts und der Würde des Menschen geht, „sensibler kann es quasi gar nicht sein.“ Sie fordert ein Verbot für verhaltensorientierte KI-Anwendungen, die individuell einsehbare Beschäftigtendaten erheben und preisgeben, ohne willentlich steuerbar zu sein. Das gelte genauso für Techniken, die unterschwellige Beeinflussungen außerhalb des Bewusstseins vornehmen sowie für den Versuch des Sammelns von betrieblichen Creditpoints zu einem guten oder schlechten Sozialverhalten. 

„Glauben wir daran, dass Menschen sich selbst verändern können, dass sie das Recht auf einen umfassenden freien Willen haben, oder sind wir dann doch alle nur triebgesteuerte Individuen, die für eine KI früher oder später durchschaubar sind?“

Wenn wir daran glauben, dass Menschen einen freien Willen haben und sich verändern können, so müssen wir auch über solche Verbote reden, so Fahimi. Denn eine KI könne am Ende keinen freien Willen gewährleisten. Ihre Anregung ist es, KI-Programme in die Hände der Beschäftigten zu geben, die dann selbst definieren könnten, nach welchen Kriterien ihnen Weiterentwicklungsangebote gemacht werden müssten, ein Unternehmen aufgestellt werden sowie ihr Arbeitsplatz gestaltet werden müsste. Denkbar wäre auch, dass Potenziale und Talente außerhalb des Unternehmens für die Beschäftigten erfasst und analysiert werden könnten und sie zu dem Ergebnis kommen: „Ich bin jetzt zwar 10 Jahre IT-Experte gewesen, aber morgen will ich der coolste Drummer der Welt werden und ich verlasse dieses Unternehmen.“ Zwar sei dieses Beispiel überzeichnet, dennoch möchte Fahimi damit verdeutlichen: „Jedes Unternehmen würde wahrscheinlich sagen, das würde ich meinen Beschäftigten nicht zur Verfügung stellen, es sei denn, ich habe auch Zugriff darauf.“ 

Aus Sicht des DGB ginge es nicht um Technikkritik, sondern um den richtigen und klugen Einsatz. Man sieht die absolute Notwendigkeit von mehr Digitalisierung und KI-Einsatz und Automation, um überhaupt dem Fachkräftemangel begegnen zu können. Eine alleinige Kompensation der Arbeitskräfte durch menschliches Personal, das uns in den kommenden Jahren in allen Bereichen fehlen wird, hält Fahimi für nicht schaffbar. Darüber hinaus verspricht sie sich einen KI-Einsatz, der die Arbeitssituation entlastet. Dabei müssen vor allem Entlastungsmöglichkeiten und Qualifizierungsbedarfe fokussiert werden, um gute, innovative Arbeitsplätze und Arbeitskräfte sichern zu können. Missbrauch sowie Arbeitsverdichtung, Dequalifizierung und Simplifizierung dessen, was beim Menschen bleibe, muss verhindert werden. Dafür sieht die Expertin neben dem allgemeinen Datenschutz einen Beschäftigtendatenschutz als unabdingbar und schließt sich somit Ulrich Kelber an. 

„Mitbestimmte Betriebe sind viel innovativer als nicht-mitbestimmte Betriebe.“

Zum Abschluss warnt die DGB-Chefin aber auch gleichzeitig davor, zu glauben, wir würden mit einem Beschäftigtendatenschutz alleine all diese Fragen dauerhaft klären können. Selbst wenn dieser alle zwei Jahre reformiert werden würde, wäre dies nicht zu schaffen. Deswegen sei eine funktionierende betriebliche Mitbestimmung elementar, um sicherzustellen, dass diese dauerhaften Prozesse im Beschäftigteninteresse gestaltet werden, „denn wir reden dann nicht von einem einmaligen technischen Ereignis, sondern von Veränderungsprozessen, die schneller, dynamischer und komplexer auf uns zukommen“. Das heiße aber auch, dass den Betriebsräten entsprechende Schulungen und Technologieberatungen zugänglich gemacht werden müssen. Selbstkritisch gesteht Fahimi, dass sie sich zum aktuellen Zeitpunkt nicht sicher ist, ob sie diese Aufgabe als Gewerkschaften vollumfänglich leisten können. Allerdings bemühen sie sich, wenn es auch nicht ihre unmittelbare Kernaufgabe sei.  

Für die Zukunft hält sie sozialpartnerschaftlich gestaltete Beratungs- und Schulungszentren, die zur Einführung von KI, zur Zielorientierung sowie zu Risiken beraten und den Prozess begleiten, für einen spannenden Ansatz, um einerseits die betriebswirtschaftlichen Fragestellungen, andererseits auch die Beschäftigteninteressen einzubeziehen. Auf diese Weise kämen wir weg von der Defizitdebatte - „was müssen wir alles verhindern, nicht weil wir technologiefeindlich sind, sondern weil wir berechtigte Sorge haben“ – hin zu einem gemeinsamen Prozess, wo wir die Technologie da einsetzen wollen, worum es eigentlich geht: „Eine Erleichterung des Menschen bei der Arbeit und im Leben sowie innovativere Produkte, die einen Wettbewerb sicherstellen, der fair ist und der nicht auf dem Rücken der Beschäftigten ausgetragen wird.“ 
 

KI wird oft zur Vorhersage genutzt. Wo stehen wir in einem Jahr? 

Abschließend stellte Diana Scholl den Expert*innen die Frage, wo sie Deutschland hinsichtlich der technologischen Entwicklung in einem Jahr sehen. 

"Technologisch wird sich in einem Jahr nichts Dramatisches verändern, innerhalb von fünf Jahren dagegen schon. Man überschätzt die schnelle Veränderung und unterschätzt dagegen, was in fünf bis zehn Jahren passieren kann, weil natürlich das, was früher mal das mooresche Gesetz (Verdoppelung der Anzahl an Transistoren, die in einen integrierten Schaltkreis festgelegter Größe passen, alle 18 Monate) war, im Augenblick übererfüllt wird. Beim AI Act werden wir weiter sein. In diesem ehrgeizigen Ansatz stecken viele gute Überlegungen. Es ist wichtig, dass die DSGVO nicht ausgehebelt wird, sondern als System läuft. Hinsichtlich der Gesetzgebung könnten wir in einem Jahr positiv weiter sein."

Prof. Ulrich Kelber, Bundesbeauftragter für Datenschutz & Informationsfreiheit
 

"Das ganz große Wunder wird vermutlich nicht passieren, aber es ist schon einiges auf dem Weg und in der Debatte. Vielleicht ist manchmal eine Krisenhaftigkeit, in der wir leben, gut, um zu erkennen, dass man manchmal auf Entscheidungen zurückgreifen muss. Und zwar in einem gesellschaftlichen Konsens, der hoffentlich in einem Jahr zutrifft."

Yasmin Fahimi, Vorsitzende Deutscher Gewerkschaftsbund

"Das europäische Datenschutzverständnis hat nahezu alle Unternehmen auf rechtlich sehr dünnes, wenn nicht sogar brüchiges Eis geführt. Ein verspäteter Weihnachtswunsch wäre, dass wir es in einem Jahr geschafft haben, das europäische Verständnis zum Umgang mit Daten und Datenschutz nach Nordamerika zu exportieren."

Michael H. Kramarsch, Co-Chair, Ethikbeirat HR-Tech, Managing Partner hkp/// group

Summa summarum: Nicht nur lernende Maschinen wird es geben, sondern auch lernende Menschen. 

Die Diskussion der Expert*innen zu Fragen der Beteiligten befasste sich unter anderem mit der KI Regulierung, dem EU AI Act, dem KI-Einsatz im Recruiting, modernen Lernmanagementsystemen sowie dem KI-Einsatz im Gesundheitswesen. Wenn Sie ebenfalls die Möglichkeit haben möchten, auf unseren Veranstaltungen mit Expert*innen zu diesen und weiteren Fragen ins Gespräch zu kommen, folgen Sie uns bei LinkedIn und abonnieren Sie unseren Newsletter - damit Sie jederzeit über unsere Events informiert sind!  

Wenn Sie sich für eine Mitgliedschaft interessieren, können Sie hier mehr dazu lesen. 

< Vorheriger Artikel