Human first, Algorithmus second?

| 14:07 Uhr

Wenn man sich mit Kompetenzen und Digitalisierung auseinandersetzt, stellt sich unweigerlich die Frage, welche Rolle Menschen und menschliche Fähigkeiten in der Verwaltung der Zukunft noch spielen werden. Insbesondere Algorithmen und Künstliche Intelligenz werden zugeschrieben, dass sie menschliche Expertise „angreifen“. Waren bisher eher einfache Tätigkeiten betroffen, so der Grundtenor, stehen jetzt auch die Tätigkeiten und Jobs von qualifizierten Berufen zur Disposition.

Es gibt diverse (Arbeitsmarkt-)Studien, die mehr oder weniger davon ausgehen, dass sich der Anteil menschlicher Arbeit in Berufen reduziert, Tätigkeiten sich verändern oder gar ganze Berufe verschwinden. Einige Untersuchungen kommen sogar zu dem Schluss, dass in den nächsten 10 Jahren 50 Prozent der Jobs wegfallen.

Bezogen auf die Situation von Staat und Verwaltung ist die Frage nach der Veränderung menschlicher Arbeit eminent wichtig, weil sich daraus eine Reihe von Folgewirkungen ergibt. Vorab sei angemerkt, ebenso wenig, wie es zukünftig eine völlig menschleere Smart Factory geben wird, wird es zukünftig eine menschenleere Verwaltung geben. Um das zukünftige Verhältnis von Mensch und Algorithmierung im Kontext von Staat und Verwaltung zu verstehen, respektive zu gestalten, bedarf es jedoch einer genaueren Betrachtung des komplexen Zusammenspiels von Algorithmen und Arten von Algorithmen in ihrem konkreten Verwendungszusammenhang. Generell wird auch die öffentliche Leistungserbringung algorithmischer, vernetzter und ggf. auch automatisierter.

Wie auch immer die zukünftige Entwicklung abgeschätzt wird, für eine differenzierte Betrachtung sind solche Globalstudien viel zu grob oder schlicht unbrauchbar, weil ein differenziertes Verständnis des Zusammenspiels von IT, Mensch und Organisation erforderlich ist, um hieraus konkrete Veränderungen zu verstehen. Neben einigen anderen Kritikpunkten, kann als wesentliche Kritik bzgl. der Studien angeführt werden, dass sie viel zu wenig unterschiedliche Informationstechniken betrachten mit deren Verwendungskontext in einem gegebenen organisationskulturellen Aufgabenrahmen. Oder mit anderen Worten formuliert: Viele der Studien haben eine viel zu hohe Flughöhe, um differenzierte Aussagen über die Rolle von Menschen in einer algorithmisierten und vernetzten Verwaltungswelt treffen zu können. Im Folgenden sollen deshalb konkrete Beispiele aufgeführt werden, die im nachfolgenden in Bezug auf eine veränderte menschliche Rolle/auf veränderte menschliche Fähigkeiten in einem Gestaltungszusammenhang ergeben.

Beispiele aus der Verwaltungspraxis

Die Frage nach der Rolle von Menschen bei neuer Digitalisierung ist keineswegs nur theoretisch, sondern hat unmittelbar die heutige Praxis erreicht. Bereits heute wird Führungskräften in Finanzämtern per Algorithmus vorgegeben, welche und an welcher Stelle eine Steuererklärung in welcher Tiefe zu prüfen ist. Die Führungskräfte fühlen sich von „der Maschine“ bevormundet und können die Entscheidung häufig nicht nachvollziehen, wie Leiter der Finanzämter berichten. In der Folge besteht die Tendenz, dass Führungskräfte demotiviert werden und es stellt sich die Frage, wie mit der algorithmischen Prüfproblematik in der täglichen Arbeit umgegangen werden muss.

Ähnliches ist heute in der Praxis polizeilicher Arbeit zu beobachten, die seit jeher mit der Auswertung von Daten beschäftigt sind. Moderne Anwendungen der Kriminalitätsvorhersage, wie sie beispielsweise in der Berliner Polizei beim Projekt „Krimpro“ zum Einsatz kommen, geben Aufschluss über sich verschärfende Konflikte und Widersprüche. Letzteres tritt ganz konkret auf, wenn der Algorithmus ein anderes Ergebnis vorschlägt als die menschliche Erfahrung und Intuition nahelegt. Professionelle menschliche Datenauswerter sagen, dass sie das Ergebnis von Krimpro (ähnlich der Situation im Finanzamt) nicht nachvollziehen können, es aber akzeptieren und weitestgehend unhinterfragt für die Polizeiarbeit vor Ort weiterleiten. Zitat: „Für uns ist die Software eine Black Box“. Nur wenn ganz offensichtliche Fehler zu erkennen sind, werden die algorithmisch erzeugten Ergebnisse kommentiert weitergegeben bzw. hinterfragt. Außerdem führen die Krimpro-Ergebnisse dazu, dass bestimmte Polizeiaktionen de facto automatisch losgetreten werden, weil z.B. vorhandene/überschüssige Ressourcen einem Gebiet mit der höchsten Einbruchswahrscheinlichkeit zugewiesen werden. Das heißt, es besteht eine enge Kopplung zwischen algorithmische Feststellung einer Einbruchswahrscheinlichkeit und der Zuweisung menschlicher Ressourcen. Durchaus ähnlich der Logik in den Finanzämtern.

In beiden Fällen wird der Algorithmus eingesetzt, um menschliche Ressourcen besser zu steuern. Beim Finanzamt ist es die Identifizierung von wahrscheinlichen Betrugsfällen, um dort verstärkt/vertieft zu prüfen; bei der Polizei ist es Ziel, eine hohe Einbruchswahrscheinlichkeit zu ermitteln, um dort entsprechende Ressourcen zuzuweisen. Die Vorteile dieser Ansätze liegen auf der Hand: knappe Ressourcen besser zu nutzen, um die Wirksamkeit zu erhöhen. In beiden Fällen haben jedoch menschliche Handlungsträger die Möglichkeit, Veränderungen entsprechend vorzunehmen, was de facto jedoch nur im Ausnahmefall geschieht.

Reflexion zur Rolle des Menschen

Zwei Kernaktivitäten sind in beiden Beispielen sichtbar, die bisher vom Menschen wahrgenommen wurden: Der Algorithmus gibt vor/empfiehlt, an welcher Stelle vertieft zu prüfen bzw. präventive Maßnahmen bei der Polizei zu vollziehen sind. Weiterhin besteht eine mehr oder weniger enge, weil automatisierte, Kopplung zwischen algorithmischem Ergebnis und Vollzugshandlung. An beiden Stellen kamen bisher Menschen zum Einsatz bzw. die Handlungen wurden mindestens von unteren Führungskräften entschieden und veranlasst. Nach der Einführung waren in beiden Fällen eine gewisse Distanz und Skepsis zu beobachten, was bei der Einführung neuer IT-Anwendungen auch nicht unbedingt verwundert. Obwohl in beiden Fällen keine Verwaltungsentscheidungen im Kern durch einen Algorithmus ausgeführt werden, sondern „lediglich“ Algorithmen zur verbesserten Ressourcensteuerung eingesetzt wurden, gibt es diverse Irritationen bei den Mitarbeiter*innen. Zunächst fühlen sie sich „entwertet“ in ihrer menschlichen Kompetenz, insbesondere weil der Algorithmus zu Ergebnissen kommt, die selbst für die Expert*innen kaum nachvollziehbar sind. Hieraus entstanden Dissonanzen zwischen Algorithmus und menschlicher Entscheidung, die kaum überbrückbar sind. Der Algorithmus ist hier in einen menschlichen Entscheidungsbereich vorgedrungen, der eine wesentlich engere Verzahnung von IT und menschlicher Handlung in dem jeweiligen organisatorischen Kontext zur Folge hatte.

Andere IT-Systeme, wie z.B. eAkte, beeinflussen zwar stärker die Organisationsfragen; Entscheidungen verbleiben aber in aller Regel weiterhin beim menschlichen Handlungsträger. Da die Entscheidung des Algorithmus für die Mitarbeiter*innen kaum nachvollziehbar war, wird dieser aus Sicht der Beschäftigten zur unbekannten Dritten und es ist eine mehr oder weniger erzwungene/hingenommene Akzeptanz zu beobachten, selbst wenn die menschliche Expertise zu anderen Einschätzungen gelangt. Auch ist es aus Sicht der Mitarbeiter*innen nicht rational sich gegen das Ergebnis des Algorithmus zu stellen, weil es für sie de facto einen erhöhten Begründungs- und Rechtfertigungsaufwand gibt, wenn sich ein Experte gegen den Algorithmus stellen würde und seine menschliche Entscheidung gegenüber des algorithmischen Ergebnisses durchsetzt. Damit würde sich der menschliche Experte einem erhöhten (Haftungs-)Risiko aussetzen, wenn er/sie falsch läge und sich im Nachhinein herausstellen würde, dass der Algorithmus doch „recht“ hatte. Liegt der Algorithmus falsch, dann ist eben aus interner bürokratischer Handlungslogik „das System“ Schuld und nicht ein individueller Handlungsträger, wenngleich nach außen bei Fehlentscheidung immer ein Mensch bzw. die Behördenleitung die Verantwortung trägt. Die interne Verantwortung wird aber durch den Algorithmus de facto auf die IT abgewälzt.

Im Ergebnis verändert die enge Verzahnung von algorithmischer Entscheidung und (menschlichem) Vollzug auch Verantwortungs- und Steuerungsfragen, so dass bei algorithmischen Entscheidungen die Tendenz zur Verschiebung hin zur Maschine besteht. Gleichzeitig könnte die Motivation und die Verstehenstiefe in der Organisation abnehmen. Letzteres könnte dazu führen, dass man sich erst gar nicht die Mühe gibt, das Ergebnis der algorithmischen Entscheidung zu verstehen, sondern mehr oder weniger als unhinterfragten Fakt hinnimmt, was tendenziell das Gefühl der Bevormundung und „Entmündigung“ verstärkt. Geht man davon aus, dass in Staat und Verwaltung auch zukünftig menschlich abgesicherte Entscheidungen bei wichtigen Themen dominieren, sind ausschließlich technikzentrierte Konstruktionslogiken eher weniger geeignet, Verantwortung und Motivation sicherzustellen.

Fähigkeiten und Fertigkeiten einer menschenzentrierte Handlungslogiken

Welche menschlichen Fähigkeiten und Fertigkeiten in algorithmisierten Umgebungen gefragt sind, lässt sich nicht ohne Weiteres beantworten, weil es auf die konkrete Gestaltung und den Einsatz des Algorithmus ankommt sowie deren Art der Einführung. Die Beispiele zeigen jedoch, dass sich insbesondere bei den Fachexperten, die bisher die Entscheidung des Algorithmus wahrgenommen haben, Skepsis zeigt. Wie kann dem begegnet werden bzw. wie kann dieses Phänomen, das man durchaus als neue Form der „digitalen Entfremdung“ von der Arbeit bezeichnen kann, abgemildert werden? Beide Fälle deuten darauf hin, dass die Einführung der Projekte von einer gewissen Technikfaszination begleitet waren, was per se nicht schlecht ist. Oftmals braucht es eine solche ggf. auch übertriebene Faszination, damit Projekte aufgesetzt und in einer Organisation mit der nötigen Schubkraft umgesetzt werden, so dass sie mindestens (ggf. kurzfristig) positive Effekte haben. Wenn dies jedoch mittel- bis langfristig zur Demotivation und Resignation führt, können die positiven Effekte schnell „aufgefressen“ und neue menschliche Fähigkeiten nicht entwickelt werden. Langfristig könnte dann eine weniger effektive und effiziente Verwaltung mit deutlich weniger Innovationskraft entstehen.

In Bezug auf algorithmische Entscheidungen kommt es also darauf an, wie die Verbindung und Arbeitsteilung zwischen Mensch und IT verläuft und welche Rolle bzw. notwendigen (Denk-)Handlungen und Fähigkeitsanforderungen dem Menschen zukommen. In beiden der o.g. Beispielen liegt die Vermutung nahe, dass die personelle Komponente weitestgehend ignoriert wurde. Der Mensch wird dann zur residualen Restgröße mit seinen Fähigkeiten/Fertigkeiten und nicht etwa explizit als eigenständiger menschlicher Akteur in die Gestaltungsüberlegungen einbezogen. Das hat Auswirkungen auf seine Kompetenzen im Sinne von Fähigkeiten/Fertigkeiten, Motivation etc. Fachleute fühlen sich überfordert, was eine zunehmende Distanz von der Arbeit bewirken könnte mit allen Folgen für Motivation, Qualität der Arbeit etc.

„Hätte der Algorithmus als „zweiter Experte“ eingeführt werden können, während die menschliche Entscheidung immer Vorrang hat?“

Wie sähe ein alternatives Einführungs- und Verwendungsszenario aus? Der Algorithmus hätte in beiden Fällen zwar eingeführt werden können, aber die menschliche Entscheidung hätte beispielsweise im Zweifelsfall immer den Vorrang, ohne sich dafür (bei Falschentscheidungen) rechtfertigen zu müssen, wenn er oder sie im Nachhinein falsch liegen. Eine solches „Verantwortung by Design“ mit Vorrang des Menschen hätte diesen in den Mittelpunkt der Gestaltung gestellt und so dauerhaft zu mehr Mitarbeitermotivation und im Ergebnis ggf. zu einer effektiveren Verwaltung geführt. In der technikzentrierten Variante wird der Mensch zu residualen Restkategorie herabgestuft, der nur noch die Skills haben muss, die die Maschine übrig lässt. Gestaltungsfragen, die behutsam Aspekte wie die Sinnstiftung von Arbeit, Motivation, Fachexpertise, etc. berücksichtigt und nach den dann erforderlichen menschlichen Fähigkeiten und Fertigkeiten fragt, wäre stärker in eine soziotechnische Gestaltung gegangen. Typische Fragen wären dann gewesen: Welche Rolle übernimmt der Mensch in Verbindung zum Algorithmus? Zum Beispiel hätte der Algorithmus als „zweiter Experte“ eingeführt werden können, während die menschliche Entscheidung immer Vorrang hat. Dabei kommt es darauf auch an, welche Art von Entscheidungen der Algorithmus trifft und welches Legitimationsniveau gefragt ist. Das ist eine verwaltungsorganisatorische und nicht zuletzt verwaltungspolitische Frage und nicht etwa eine ausschließlich technische. Insofern kann man die eingangs zitierte Frage der Finanzamtsleiter an sie zurückgeben. Sie selbst haben das Thema den Technikern und Technikfaszinierten überlassen, so dass entsprechende Gestaltung und organisatorische Einbettung ausgeblieben sind. Was wären die neuen Fähigkeiten der Fachleute, bei menschlich zentrierter Gestaltung, die im Übrigen nicht minder anspruchsvoll ist: erhöhte Analyse- und Reflexionsfähigkeit, tiefere fachliche Durchdringung, vernetzte Zusammenhänge kognitiv erfassen, Umgehen mit Unerwartetem etc. alles Fähigkeiten, die nicht innerhalb von zwei Seminartagen erworben werden können, sondern gänzliche neue Qualitäten.

Es spricht vieles dafür, sich nicht nur auf das technisch machbare zu konzentrieren und nur daraus die Gestaltungsprämissen zu ziehen, sondern bewusst menschliche Kompetenzen von Anfang an in den Mittelpunkt zu stellen. Das ist an sich nichts Neues, aber bei algorithmisierten Entscheidungen wichtiger denn je, besonders bei zukünftig selbstlernenden Algorithmen. Damit wird deutlich, dass menschliche Fähigkeiten und Fertigkeiten nicht isoliert und nicht getrennt von den Gestaltung-, Verwendungs- und Aufgabenzusammenhängen zu betrachten sind. Was nützen zunächst algorithmisch effizient arbeitende Organisation, die systematisch zu Unter- und/oder Überforderung von Menschen führen, so dass die jeweilige Organisation diverse Dysfunktionen ausprägt. Eine solche am Mensch orientierte Gestaltung wäre aufwändiger, anspruchsvoller und am Ende mit mehr Akzeptanz und Nachhaltigkeit verbunden. Menschen in einer algorithmischen Umgebung würden in ein soziotechnisches Lernumfeld gelangen, wo sie in der Lage sind im laufenden Betrieb die Organisation im Zusammenspiel mit der Technik weiterzuentwickeln. Das hat nichts mit Sozialromantik zu tun, sondern ist konstitutiv für eine funktionierende effektive und effiziente Verwaltungsorganisation.

Autor: Prof. Dr. Tino Schuppan, Hochschule der Bundesagentur für Arbeit und wissenschaftlicher Partner der Next:Public