Um Ihnen den bestmöglichen Service zu bieten, speichert diese Website Informationen über Ihren Besuch in sogenannten Cookies. Durch die Nutzung dieser Webseite erklären Sie sich mit der Verwendung von Cookies einverstanden. Weitere Informationen finden Sie unter Impressum. Impressum
Sichere Arbeit

The machine has no brain, use your own!

Arbeits- und Organisationspsychologie

Es ist allerhöchste Zeit für eine Standortbestimmung der praktischen Arbeits- und Organisationspsychologie (A&O-Psychologie). In der Praxis ergibt sich selten Zeit und Gelegenheit, über den eigenen Beruf nachzudenken. Wie in anderen Berufen auch, tauchen im Zusammenhang mit Digitalisierung, Computerisierung und Automatisierung neue und alte Fragestellungen auf, Vorgehensweisen verändern sich, die Expertise nimmt zu, die verwendeten Tools brauchen ein Update oder die Weiterentwicklung digitalisierter Auswertungsmethoden steht an. Dieser Artikel soll dazu ermutigen, sich Zeit zu nehmen und in die so dringend erforderliche öffentliche Diskussion zu den Folgen von Digitalisierung, Computerisierung und Automatisierung einzusteigen.

Die A&O-Psychologie ist aus folgenden Gründen ein unverzichtbarer Teil der Digitalisierung, Computerisierung und Automatisierung:

  • A&O-Psychologie postuliert die Aufnahme der psychologischen wie auch philosophischen oder soziologischen Perspektive in die Wertediskussion: „Arbeitende Menschen als zu minimierende Kostenfaktoren anzusehen und zu behandeln ist eine Entwürdigung arbeitender Menschen und respektlos gegenüber der menschlichen Arbeit.“ [1/114]
  • A&O-Psychologie fordert deshalb eine wirksame Forschungspolitik bzw. die Vergabe von wesentlich mehr Forschungsgeldern für den Bereich Arbeitspsychologie 4.0: „Der größte Teil der Forschungsgelder wird für gestaltungs- und umsetzungsorientierte Projekte vergeben.“ Oder: „Der universitäre Mainstream tendiert hin zur einseitigen Ausbildung von Fachleuten für Wirtschaft und Industrie und entfernt sich von dem Gedanken der Bildung und Entfaltung übergreifenden Wissens.“ [1/111
  • A&O-Psychologie ist am wirksamsten, wenn Arbeitspsychologie und Technik parallel und vorausschauend die Funktionsteilung zwischen Technik und Menschen entwerfen: „Ein Ideal humanistischer arbeitswissenschaftlicher Bemühungen war das prospektive Festlegen dessen, was bei Automatisierungslösungen in welcher Weise beim arbeitenden Menschen verbleiben sollte (duales Entwerfen).“ [2]
  • A&O-Psychologie postuliert die Einbindung von Psychologie, Philosophie und Soziologie in die Technikfolgenabschätzung: [3]
  • A&O-Psychologie braucht mehr Öffentlichkeit auch in der Berichterstattung über die Themen der A&O-Psychologie: „Eine arbeitspsychologisch fundierte, differenzierte Argumentation zu den Vor- und Nachteilen der Digitalisierung kann beitragen, Stigmatisierung und Ausgrenzung zu verhindern.“ (Anmerkung der Autorin.)
  • A&O-Psychologie bemüht sich um eine breite Diskussion über eine verbindliche Umsetzung der „Charta der Digitalen Grundrechte der Europäischen Union“: „Dass jeder das Recht haben soll, nicht Objekt von automatisierten Entscheidungen von erheblicher Bedeutung für die Lebensführung zu sein, das wird von Bürgerinnen und Bürgern in der ‚Charta der Digitalen Grundrechte der Europäischen Union‘ gefordert.“ (Download: www.digitalcharta.eu)
  • A&O-Psychologie setzt voraus, dass Entscheidungen beim Menschen verbleiben – keine selbstständigen Entscheidungen durch Maschinen, weil Maschinen nicht denken können! „Viele Menschen misstrauen jedoch intuitiven Entscheidungen oder haben Angst, eine solche zuzulassen, und vertrauen oft blind Algorithmen oder Big Data, als ob diese die Lösung aller Probleme wären.“ [4]

A&O-Psychologie fordert die Aufnahme der psychologischen Perspektive in die Wertediskussion

Anwendungsorientierte Wissenschaft kann nicht wertfrei betrieben werden. Wissenschaftliches Handeln auf psychologischer Grundlage ist auch für in der Praxis tätige A&O-Psychologinnen und -Psychologen unerlässlich. Eine idealtypische Arbeitsweise in der A&O-Psychologie wird u. a. so beschrieben: [5]

  • A&O-Psychologinnen und -Psychologen diagnostizieren den IST-Zustand. Dabei greifen sie auf jene wissenschaftlichen Verfahren zurück, die zur Beschreibung und messenden Erfassung der zu betrachtenden Fragestellung geeignet sind.
  • A&O-Psychologinnen und -Psychologen definieren nun den wünschenswerten SOLL-Zustand. Das passiert in gemeinsamen Gesprächen mit dem Auftraggeber und den betroffenen Personen.
  • A&O-Psychologinnen und -Psychologen aktivieren ihr Veränderungswissen und setzen dieses in eine konkrete Intervention, in eingreifendes Handeln um.
  • A&O-Psychologinnen und -Psychologen überprüfen, ob die Intervention im Sinne der Erwartung zum erwünschten Soll-Zustand führte.

Das klingt schön, ist aber in der Praxis nicht immer so. Auch praktisch tätige A&O-Psychologinnen und -Psychologen werden angehalten, „sich auf veränderte Marktsituationen einzustellen“ oder „gewinnbringende Geschäftsmodelle“ zu entwickeln. Viel zu oft wird ein Aspekt des Menschenbildes erkennbar, das bereits Taylor bei seiner Arbeit leitete: Es gehe dem Menschen primär um den ökonomischen Vorteil. Dieses Konzept des „homo oeconomicus“ wirkt auch heute – und auch in der Psychologie – noch nach. [6]
Dennoch: Aus Sicht der Autorin sichert nicht nur die Gestaltung der wirtschaftlichen und rechtlichen, sondern auch der psychologischen und sozialen Rahmenbedingungen einen Wirtschaftsstandort, an dem es sich außerdem gut leben lässt. [7]

Die A&O-Psychologie fordert die Aufnahme der psychologischen Perspektive in die Wertediskussion schon lange. Gefragt ist eine Sichtweise des Menschen als Ressource und nicht als zu minimierender Kostenfaktor. Die Auffassung von menschlicher Arbeit als zu reduzierender Kostenfaktor ist nicht nur moralisch wirksam, sondern – so merkt Rainer Oesterreich bereits 2006 kritisch an – macht sich auch in für A&O-Psychologie wirksamer Forschungspolitik bzw. in der Vergabe von Forschungsgeldern bemerkbar.

A&O-Psychologie fordert die Vergabe von mehr Forschungsgeldern für den Bereich Arbeitspsychologie 4.0

Die aktuellen Zahlen in Forschung und Entwicklung zeigen, dass in Österreich massiv in die Weiterentwicklung der Technik investiert wird. Beispielsweise investieren die Industrie, das Infrastrukturministerium und die Bundesländer Steiermark, Kärnten und Oberösterreich in den kommenden fünf Jahren 280 Millionen Euro in ein Forschungszentrum für Mikroelektronik, die Silicon Austria Labs (FEEI Fachverband der Elektro- und Elektronikindustrie). [8]
Ein Forschungsbudget für wissenschaftliche Studien in vergleichbarer Höhe für die Psychologie des Denkens und Handelns von Menschen ist erforderlich für eine systematische und umfassende begleitende Forschung zu den psychologischen oder soziologischen Auswirkungen von Digitalisierung, Computerisierung und Automatisierung.

Technikeinsatz überall – was sind die Bedürfnisse des Menschen?

Computerisierung, Digitalisierung und Automatisierung können dem Menschen bei seiner Arbeit und im Alltag dienlich sein, ihn entlasten und unterstützen. Aber genauso könnte man auch das Gegenteil behaupten. Die Einsatzmöglichkeiten der Computer sind weder wertneutral, noch kennen sie Grenzen. Die Grenzen müssen wir selbst festlegen. Eine breite Diskussion über genau diese nicht wertneutralen Einsatzzwecke und deren Grenzen fehlt aus Sicht der Autorin in unserer Gesellschaft bzw. in der Öffentlichkeit. Was sollen wir mit den unendlichen Anwendungsmöglichkeiten von Computern machen?
Als Ziel der Silicon Austria Labs (SAL) wird „nicht weniger als die digitale Revolution“ genannt und weiter: „– die massive Digitalisierung unseres Lebensbereichs – von Österreich aus voranzutreiben.“ [8] Die massive Digitalisierung nicht nur unseres Arbeitsbereichs, sondern des gesamten Lebensbereichs wird damit zum Selbstzweck. Nicht für jeden Zweck ist eine massive Digitalisierung Entlastung und Unterstützung oder den Bedürfnissen der Menschen dienlich.
Aber genau um diese Fragen muss es gehen: Was sind die Bedürfnisse des Menschen im Leben und in der Arbeit? Wie weit wollen wir gehen, in die totale Abhängigkeit und Aufgabe der Privatsphäre? Als praktisches Beispiel sei das ausschließliche Angebot von Telebanking im Zusammenhang mit der Abschaffung des Bargeldes genannt. Vordergründig genannte Motive wie Bequemlichkeit bleiben oftmals den Hinweis schuldig – bequem oder nützlich für wen? Für den Betrieb, die Wirtschaft, das Individuum, die Bevölkerung?

Die Technikfolgenabschätzung erfolgt meist im Hinblick auf die Wirtschaft und die Technik. Zu einer Technikfolgenabschätzung für die Zukunft unserer Gesellschaft gehören aus Sicht der Autorin untrennbar die wissenschaftlichen Erkenntnisse jener, manchmal nicht sehr wertschätzend als „Orchideenfächer“ bezeichneten Berufsgruppen wie Psychologie – im speziellen Arbeitspsychologie –, Soziologie und Philosophie.

Aber auch die sogenannten ‚Orchideenstudien‘ sind super. Wir müssen aufpassen, dass wir nicht in eine Kultur der Nur-Digitalisierung hineinkommen, der Nur-Rationalisierung. […] Man bemüht sich in der AI verstärkt Emotionen und ästhetische Kriterien zu berücksichtigen, da kann man nicht sagen: An den Unis wollen wir genau das aber nicht.“ [3]

A&O-Psychologie postuliert die Einbindung der Psychologie, Philosophie und Soziologie in die Technikfolgenabschätzung

Beispielsweise kann die Bequemlichkeit für die einen in der Folge die Vereinsamung für andere bedeuten, mit allen dazugehörigen schwerwiegenden Auswirkungen auf die psychische Gesundheit. Bequemlichkeit kann uns auch teuer zu stehen kommen. Waren die Nutzungsbedingungen beim Kauf einer Straßenkarte, eines Lexikons oder eines Videos klar beschränkt, werden die Informationen, die wir bei der Suche im Internet hinterlassen, vielfältig verarbeitet und kommerziell genützt. Wir verzichten bei Zustimmung zu den Nutzungsbedingungen auf unsere Privatsphäre und auf eine finanzielle Beteiligung an den zahlreichen Geschäftsmodellen dahinter.

Es wird auch nicht von allen Menschen positiv bewertet, dabei zusehen zu müssen, wie sich als nächste Berufsgruppe das Verkaufspersonal im Lebensmittelhandel gerade selbst abschafft, indem es Kunden die Selbstbedienungskassa erklärt. Es gibt in der A&O-Psychologie den Ausdruck „illegitime Arbeitsaufgaben“. Als solche werden jene Aufgaben benannt, die aus bestimmten Gründen innere Konflikte hervorrufen und damit eine Quelle psychischer Belastungen sind. [9] Diese betreffen heute jene Dienstleistende, die sich gerade selbst abschaffen, aber in weiterer Folge auch die Kundinnen und Kunden – das gilt vom Ticketkauf bis zu Bankangelegenheiten, Botendiensten und bald auch für den Einkauf oder Behördenwege.

Aus Sicht der A&O-Psychologie ist es empfehlenswert, sich mit zukunftsweisenden Fragen den massiven Technikeinsatz betreffend auseinanderzusetzen, gleichzeitig und parallel mit den wichtigen Fragen zu den benötigten Kompetenzen in der Zukunft. Bestimmt die Technik unseren zukünftigen Bildungsbedarf oder bestimmen die Aufgaben und Inhalte, was wir an Technik benötigen werden? Die Psychologie als die Wissenschaft vom Denken und Handeln des Menschen leistet dazu schon lange einen engagierten Beitrag, hier einige Fragestellungen dazu:

  1. Dient der Mensch der Maschine oder die Maschine noch dem Menschen?
  2. Wie kann Wissen innerhalb des Betriebs erfolgreich weitergegeben werden?
  3. Was fördert das Denken und Handeln in der Arbeit sowie in Aus- und Weiterbildung und was behindert es?
  4. Wie digital kompetent muss der Mensch sein, um noch frei für die eigentliche Arbeitsaufgabe zu sein?
  5. Kann man Aussagen trauen, wenn man nicht wissen kann, wie sie zustande kommen?

Die A&O-Psychologie weist immer wieder darauf hin, dass die Beherrschung der Technik oder des Werkzeuges, das man zum Beruf benötigt, nicht mit den Inhalten und Aufgaben im Beruf oder einer Strategie zu verwechseln sei. Hört man einer Konversation mit Siri oder Alexa zu, wird nicht nur der Mythos der intelligenten, sprachgesteuerten Maschine schnell entzaubert, wie bereits Keßler 2017 bemerkte [10], sondern gleichzeitig der eines intelligenten Menschen.
Eine Fragestellung von zukunftsweisender Bedeutung für Betriebe ist jene der Wissenskooperation bei digitalisierter Arbeit. Die Empfehlung der A&O-Psychologie ist es, Geld und Zeit auch für das Wissensmanagement im Betrieb zu investieren. Nur so kann Wissen innerhalb der betrieblichen Gemeinschaft erfolgreich weitergegeben werden. Digitalisierung ist dabei nicht immer die Bestlösung, wie beispielsweise die Forschung zum Denkhandeln zeigt. Denkmittel sind Arbeitsmittel, der Verzicht bedeutet eine massive Behinderung von Denkprozessen. [11]
Ob die Mentalkapazität des Menschen für die eigentliche Arbeitsaufgabe noch frei ist, wenn sie durch das Verstehen und Übersetzen von Informationssystemen bereits blockiert ist, empfiehlt sich ebenfalls noch vor Technikeinsatz zu klären. Wenn das Denken und Handeln im Wissenserwerb und in Arbeit durch Digitalisierung oder Automatisierung behindert wird, kann „Medienkompetenz“ das nicht ausgleichen.

A&O-Psychologie ist am wirksamsten, wenn Arbeitspsychologie und Technik gemeinsam die Funktionsteilung zwischen Technik und Menschen entwerfen

Aus dem bisher Gesagten begründet sich eine langjährige Forderung in der A&O-Psychologie, dass Arbeitspsychologie und Technik parallel und vorausschauend die Funktionsteilung zwischen Technik und Menschen entwerfen sollen (duales Entwerfen von Bearbeitungsprozessen nach Hacker; vgl. [7]). Es gibt kein anderes Studium als jenes der Psychologie, das sich ein ganzes Studium lang ausschließlich mit dem Denken und Handeln des Menschen auseinandersetzt:
„The machine has no brain, use your own“ steht im ArbeitnehmerInnenschutz als Synonym dafür, die „Selbststeuerung“ einer Maschine nicht mit „Denken“ zu verwechseln.
Vordergründig genannte Motive wie Bequemlichkeit werden auch gerne im Zusammenhang mit Mediennutzung genannt. Studien über die Mediennutzung sind es auch, die davor warnen, in der Gesellschaft „abgehängt“ zu werden. Sie sind ein gutes Beispiel dafür, dass anwendungsorientierte Wissenschaft nicht wertfrei betrieben werden kann. Aus Sicht der Autorin ist anderenfalls die Gefahr groß, Diskriminierungen zu „produzieren“.
Auf der Strecke bleiben all jene, die sich mit der Technik schwertun. Sie müssen nicht nur auf Bequemlichkeit verzichten, sondern zahlen oft auch finanziell drauf, wie eine Studie des Instituts für angewandte Telekommunikation (OIAT) im Auftrag der Arbeiterkammer (AK) zu ‚Offliner‘ nahelegt.“ [12]

Eine differenzierte Argumentation in Bezug auf die Vorteile der Digitalisierung kann dazu beitragen, Stigmatisierung und Ausgrenzung zu verhindern. Besonders häufig werden die Personengruppen „Ältere“, „Frauen“ „Ungebildete“ oder „Demenzerkrankte“ genannt:
Führung von Personen in Alltagssituationen (bspw. öffentliche Gebäude, Einzelhandel) und in der Altenpflege (z. B. bei Demenzpatienten) sind Anwendungsbereiche, in denen mobile Roboter verstärkt zum Einsatz kommen werden.“ [13]

Tendenziell seien Offliner in Österreich oft Frauen höheren Alters und mit formal niedriger Bildung, sagt Daniela Zimmer, Konsumentenschützerin der AK. Selbst wenn Betroffene angeben, freiwillig offline zu sein, versteckt sich dahinter oft die Überforderung im Umgang mit der neuen Technologie, so die Studie der Arbeiterkammer.“ [12]

Die Autorin möchte eine alternative Erklärung zu freiwilligen Offlinern anbieten und hält es selber eher mit Armin Thurnher, der meint: „Jedes neue Medium wurde von KLUGEN Menschen zu allen Zeiten mit ähnlicher Skepsis begrüßt.“ [14/12]
Nun gut, man kann argumentieren, dass „klug“ nicht gleich „gebildet“ bedeutet. Unbestritten bleibt jedenfalls die Bedeutung von Aus- und Weiterbildung. So hat z. B. die Plattform des Vereins Industrie 4.0 Österreich ein Ergebnispapier zur „Qualifikation und Kompetenz in der Industrie 4.0“ vorgelegt, in dem eine Expertengruppe sehr umfassend der Frage nachgegangen ist, welche Kompetenzen in Zukunft stärker benötigt werden. (Ergebnispapier „Qualifikation und Kompetenzen in der Industrie 4.0“)

Im Ergebnispapier „Qualifikation und Kompetenzen in der Industrie 4.0“ wird ebenfalls auf die Bedeutung der Medienkompetenz als „digitale Kompetenz“ hingewiesen:
„Jedoch sollten alle Menschen über grundlegende digitale wie auch Medienkompetenzen verfügen, um sich auch gut in einer digitalisierten (Arbeits-) Welt bewegen zu können.
… und die Verfasserinnen und Verfasser räumen ein, dass das Ausmaß benötigter Kompetenz vom jeweiligen Tätigkeitsfeld abhängt.
Die Autorinnen und Autoren erklären, was mit Medienkompetenz gemeint sei: „… die Kompetenz, sich bewusst und effektiv mit Informationen aus dem Netz auseinandersetzen zu können.“ (Download: Ergebnispapier „Qualifikation und Kompetenzen in der Industrie 4.0“)

A&O-Psychologie fordert die Einbindung von Psychologie, Philosophie und Soziologie auch in die Berichterstattung

Um uns nicht von einer Wissensgesellschaft in eine Informationsgesellschaft zu verabschieden, lohnt es sich, das Thema Medienkompetenz noch etwas genauer zu betrachten.

Medienkompetenz und das Öffentliche
Die Fähigkeit zur kritischen Auseinandersetzung mit digitalen Inhalten verweist auf die Verantwortlichkeit einzelner User – der einzelnen Person – und lässt die Öffentlichkeit unberücksichtigt. Aus Sicht der Autorin ist es weder wünschenswert noch umsetzbar, das dem Einzelnen zu überlassen. Das soll wie folgt begründet werden:

Die massive Digitalisierung unseres Lebensbereichs, wie u. a. von der Geschäftsführung der Silicon Austria Labs gefordert, schließt das Private mit ein. Das Private steht jedoch im Gegensatz zum Öffentlichen. [15] Die Unterscheidung zwischen öffentlichem und privatem Bereich ist zentral und jenes Spannungsfeld, in dem sich auch Erwerbsarbeit bewegt. Öffentlich nach dem zu fragen, was man nicht weiß, oder öffentlich zu sagen, was man weiß, ist Inhalt von Medien zu allen Zeiten. Egal, welche Technik dabei benutzt wird, das Teilen und Verbreiten sollte immer dem Medienrecht unterliegen. Teilen und Verbreiten ist Ausdruck demokratischer Öffentlichkeit und kann nicht der digitalen Kompetenz des Einzelnen überlassen werden. Hier ist nach Ansicht der Autorin die Politik angesprochen. Politik ist – so viel steht fest – Öffentlichkeit. [15]

Es geht bei Medienkompetenz um wesentlich mehr als um die „Auseinandersetzung mit den dargebotenen Informationen“. Macht wird zunehmend unsichtbar und wesentliche Informationen sind dem Einzelnen gar nicht zugänglich. Gegen gezielte Manipulationen ist der Mensch machtlos.

Das macht aus Sicht renommierter Vordenker und einiger Unternehmer ein neues Rechts- und Sozialsystem erforderlich. Das kann ein einzelner digital kompetenter Mensch nicht lösen. Um die positiven Effekte großer Netzwerke zu erhalten, von denen alle Nutzer profitieren können, fordert z. B. Albert Wenger als Konsequenz ein neues Rechtssystem für Netzwerkfirmen, da das Kartellrecht keine zeitgemäße Lösung mehr biete. Solange heutige Netzwerkfirmen eigene Systeme haben und nicht protokollbasiert (wie E-Mail-Verkehr) funktionieren, wird erstens kein Austausch mit anderen Systemen möglich und zweitens wird auf diese Weise eine extreme Kapitalanhäufung und Machtbündelung möglich, so Wenger, Managing Partner des Venture-Capital-Fonds Union Square (2017). [16]
 

Mathematische Wahrscheinlichkeiten sind keine Tatsachen – The machine has no brain, use your own!
Medienkompetenz beinhaltet viel mehr als die Fähigkeit, digitale Kommunikationsmittel kompetent zu nutzen. Gefordert wird beispielsweise im Ergebnispapier unter dem Stichwort Medienkompetenz „Inhalte kritisch zu bewerten und verstehen zu können“, „das Wissen um Datenschutz“ sowie „laufende Anpassung des eigenen Wissens“. Darüber hinaus wird auf die „Bedeutung von IT-Kompetenz“ hingewiesen, um u. a. „mit Datenanalytik, Datenmanagement, dem Umgang mit Daten allgemein und mit Big Data umgehen zu können“. (Download: Ergebnispapier „Qualifikation und Kompetenzen in der Industrie 4.0“, S. 23-24).

Eine breite öffentliche Diskussion darüber ist notwendig. Das ist ganz besonders der Fall, wo Algorithmen für Entscheidungssituationen genutzt werden. Kann man Aussagen trauen, wenn man nicht wissen kann, wie sie zustande kommen?
Gerd Gigerenzer, Direktor des Max-Planck-Instituts für Bildungsforschung und des Harding-Zentrums für Risikokompetenz hat bereits 2015 darauf aufmerksam gemacht, dass viele Menschen Algorithmen blind vertrauen:
„Viele Menschen misstrauen jedoch intuitiven Entscheidungen oder haben Angst, eine solche zuzulassen, und vertrauen oft blind Algorithmen oder Big Data, als ob diese die Lösung aller Probleme wären.“ [4]
Computerassistenzprogramme basieren häufig auf Zahlenvergleichen, Gewichtungen und Wahrscheinlichkeitsaussagen. Sind Assistenzprogramme nicht durchschaubar, kommt es zu Wissens- und Qualifikationsverlusten. Für Algorithmen ist alles alternativlos. Das schränkt das Entscheidungsspektrum immer mehr ein und widerspricht allen mathematischen Grundsätzen. Mathematische Wahrscheinlichkeiten sind keine Tatsachen. Die A&O-Psychologie hat das Wissen darüber, welche Komponenten an der Schnittstelle Mensch-Technik dem Menschen ohne Wissens- und Qualifikationsverlust abgenommen werden sollten und welche beim Menschen verbleiben sollten.
Der digitalen Kompetenz des Einzelnen kann nur mit Einschränkungen die Beurteilung der Qualität der Suchergebnisse überlassen werden, weil diese nicht überprüfbar ist. Um Manipulationseffekte zu entlarven, ist es notwendig, überprüfen zu können, ob die Suchergebnisse lediglich die Suchanfragen widerspiegeln oder ob es die Dynamik der Algorithmen ist, die dann auch Manipulationseffekte erzeugen. Wenn jedem/jeder genau jene Information geliefert wird, die er/sie gerne mag, steigert das die Manipulierbarkeit. Wie leicht sogar demokratische Wahlen über soziale Netzwerke zu beeinflussen wären bzw. sind, zeigt leider das Beispiel rund um die amerikanischen Wahlen und die Affäre um Cambridge Analytica (Download: https://derstandard.at/2000076355481/Cambridge-AnalyticaUS-Senatoren-fordern-Auflagen-fuer-Facebook) [17/18-20] Die Fähigkeit des Einzelnen, sich kritisch mit Inhalten auseinanderzusetzen, kann schnell überfordern, wenn man nicht wissen kann, wie Aussagen zustande kommen. In sozialen Medien ist es offensichtlich nicht immer einfach, Fakten und Fiktion auseinanderzuhalten oder zwischen wahr und falsch zu unterscheiden.

Zudem kommt: Was in sozialen Medien erlaubt und verboten ist, regelt der Betreiber selbst. Es gibt zwar die Möglichkeit einer rechtsstaatlichen Durchsetzung von Persönlichkeitsrechten, diese ist aber mit hohem finanziellem Risiko behaftet, aufwendig und intransparent. Algorithmen sind eine Blackbox. Selbst dann, wenn Googles Algorithmen kein streng gehütetes Betriebsgeheimnis mehr wären, würde sich eine neue Frage auftun – wer kann oder wer soll sie „lesen“ können?
Die Interpretation von Algorithmen, Analyseergebnissen und Statistiken erfordert nicht nur IT-Kompetenz, sondern auch methodisch-wissenschaftliche Kompetenzen, die im Rahmen der Berufsausbildung nicht immer vermittelt werden, wie die folgenden zwei Beispiele zeigen sollen.

Gerd Gigerenzers Studien zufolge „… ist ein Kernproblem, dass etwa 70 bis 80 Prozent der Ärzte die Gesundheitsstatistiken selbst nicht verstehen.“ [4] Das öffnet Manipulationen Tür und Tor (vgl. [18]).
Auch Viktor Mayer-Schönberger, Jurist und Professor am Internet Institute der Universität Oxford und Autor des Buches „Big Data“, beschreibt die Gefahr, „…dass wir Menschen in der Interpretation der Analyseergebnisse versagen. Wir brauchen eine Ethik im Umgang und in der Verwendung von Daten.“ [19] Im gleichen Artikel wird jedoch ein Beispiel zur Gesundheitsstatistik beschrieben, das die Vorteile von Big Data für die Medizin und Wissenschaft veranschaulichen sollte, aber eben nicht einem seriösen wissenschaftlich Vorgehen entspricht und überdies ethisch äußerst bedenklich ist.

Algorithmen allein helfen nicht weiter. Wie Hacker schon für den Arbeitsprozess angemerkt hat: „Information führt im Arbeitsprozess bislang nur mittels motivierter und intelligenter Menschen zu neuen marktfähigen Innovationen.“ [20/5] Wir brauchen überdies Studienergebnisse, auf die man sich verlassen kann. [21] Die nationale Umsetzung des Datenschutz-Anpassungsgesetzes hat auf eine wissenschaftliche und ethische Vorgehensweise wesentlichen Einfluss. Der „Gesetzesentwurf zum Datenschutz-Anpassungsgesetz – Wissenschaft und Forschung in Österreich“ enthält aber auch beunruhigende Passagen, wie die Stellungnahmen zeigen (z. B. Download: https://epicenter.works/document/969)
Inzwischen dürfte klar geworden sein: Wo Algorithmen Entscheidungen von wesentlicher Bedeutung für die Sicherheit und Gesundheit des Menschen beeinflussen, geht es längst nicht mehr „nur“ um ethische Probleme für unsere Gesellschaft. Big Data ist in jedem Fall eine enorme Herausforderung für die politische Bildung und kann der Verantwortlichkeit des Einzelnen nicht überlassen werden.

A&O-Psychologie fordert die rasche Umsetzung der „Charta der Digitalen Grundrechte der Europäischen Union“

Dass jeder das Recht haben soll, nicht Objekt von automatisierten Entscheidungen von erheblicher Bedeutung für die Lebensführung zu sein, das wird von Netzaktivisten, Politikern, Wissenschaftern, Schriftstellern, Journalisten und Bürgerrechtlern, kurz europäischen Bürgern und Bürgerinnen in der „Charta der Digitalen Grundrechte der Europäischen Union“ (Download: www.digitalcharta.eu) gefordert. Diese wurde am 5. Dezember 2016 dem Europäischen Parlament in Brüssel übergeben.

The machine has no brain, use your own!
Der tragische Unfall mit einem selbstfahrenden Auto zeigt mehr als deutlich, dass Algorithmen oder Big Data niemandem Entscheidungen abnehmen können und sollen (Download: https://derstandard.at/2000076442346/Erster-toedlicher-Unfall-Selbstfahrendes-Auto-rammt-Fussgaengerin).
Douglas Hofstadter, Autor des legendären Buches „Gödel, Escher, Bach“, formuliert das so:
Ich bin zum Beispiel gegen selbstfahrende Autos. Ich finde, das ist eine hässliche Idee. Man kann das Fahren nicht isoliert betrachten. Wenn ich fahre, muss ich viele Dinge berücksichtigen und es gibt so viele unvorhersagbare Phänomene, die bei meinen Entscheidungen eine Rolle spielen. Das Fahren ist nicht eine begrenzte Welt, das wird in diesem Konzept aber angenommen. Aber das Fahren ist nicht wie Schach oder Go.“ [22/60]
Der Experte für Künstliche Intelligenz Roland Siegwart von der Eidgenössischen Technischen Hochschule (ETH) in Zürich: „Wenn Sie eines von Googles selbstfahrenden Autos dort (in Indien) in den Berufsverkehr schicken, werden Sie sehr schnell sehen, was solchen Systemen noch fehlt.“ (Download: https://futurezone.at/science/singularitaet-die-angst-vor-der-klugen-maschine/239.088.120, 20.3.2018)

Trotz solcher Unzulänglichkeiten werden heute unzählige Systeme als ‚smart‘ angepriesen. Intelligent sind solche Systeme aber nicht, wie jeder Nutzer, der sich schon einmal mit einer Haussteuerungsanlage herumgeschlagen hat, schnell merkt.“ [13]

A&O-Psychologie fordert, dass Entscheidungen beim Menschen verbleiben

Nur weil sich etwas selbst steuert, denkt es nicht. Wie die deutsche Band Kraftwerk einst schon formulierte: Mensch Maschine/ Ein Wesen und ein Ding. Selbst den mittlerweile seit etlichen Jahren eingebauten Parkhilfen ist offenbar nur mäßiger Erfolg beschieden. So zeigt sich, dass Parkschäden nicht nur zunehmen, sondern auch teurer werden. (Download: http://orf.at/stories/2388994/2388997/)

Die A&O-Psychologie fordert einen sofortigen Stopp für autonomes Fahren im Straßenverkehr. Öffentliches Engagement von allen Personengruppen ist mehr als dringend erforderlich. Albert Wenger fordert überdies eine neue zukunftsgewandte und aktive Sozialgestaltung und Politik. [16]

Nicht nur A&O-Psychologinnen und -Psychologen müssen misstrauisch bleiben, wenn Sicherheit als Argument vorgeschoben wird, egal ob es um Datensicherheit, sichere Jobs oder sicheren Verkehr geht. Wer besitzt die Netzwerke, wem sollen die Internetstrukturen und Standleitungen gehören und wer kontrolliert sie, wer schützt sie? Kein Hoster ist sicher, wie die weltgrößte DDoS-Attacke gezeigt hat – nicht einmal Nationen können sich vor Cyberattacken schützen, wie die jüngste Cyberattacke auf Deutschland deutlich machte. Bevor wir auch demokratische Bürger-, Freiheits- und Menschenrechte von einem sicheren Internet abhängig machen, sollten wir uns erneut daran erinnern, dass einer von fünf den US-Wahlkampf betreffenden Tweets vom 16. September bis zum 21. Oktober 2016 von einer Computersoftware namens „Social bots“ generiert wurde. [23]

Literatur:

  • [1] Oesterreich, R. (2006): Psychologische Theorie ist wichtig, aber wenig erwünscht. In: P. Sachse & W.G. Weber (Hrsg.): Zur Psychologie der Tätigkeit. Bern: Verlag Hans Huber (Schriften zur Arbeitspsychologie), 64, 101–119.
  • [2] Hacker, W. (2016); Vernetzte künstliche Intelligenz/Internet der Dinge am deregulierten Arbeitsmarkt: Psychische Anforderungen. 2016 Vol. 9/No. 2; 4–21. In: Sachse, P. (Hrsg.): Journal Psychologie des Alltagshandelns. Innsbruck university press.
  • [3] Konzett, E. (2016): Eva Konzett im Interview mit Robert Trappl. Leiter des Österreichischen Forschungsinstituts für Artificial Intelligence (OFAI). Falter Uni-Serie: Falter 42/2016, Seite 40–42.
  • [4] Gläser, H. (2015): Interview mit Gerd Gigerenzer. In: Der Tagesspiegel GmbH vom 01.10.2015. Download 20.3.2018: https://www.tagesspiegel.de/themen/koepfe/interview-mit-gerd-gigerenzer-viele-menschen-vertrauen-blind-algorithmen/12396052.htmlhttps://futurezone.at/author/markus.kessler/date/10/5
  • [5] Thierau-Brunner, H., Wottowa, H. & Stangel-Meseke, M. (2006): Evaluation von Personalentwicklungsmaßnahmen. In K. Sonntag (Hrsg.): Personalentwicklung in Organisationen (3. Auflage). Göttingen: Hogrefe. Download 20.3.2018: http://www.aowpsychologie.com/.113_Intervention.1001,15-----------,,2.html
  • [6] Rosenstiel, L. v., Molt, W., Rüttinger, B. (2005): Organisationspsychologie. Grundriss der Psychologie. Band 22. 9. vollständig überarbeitete und erweiterte Auflage. Stuttgart: Kohlhammer.
  • [7] Rothmeier-Kubinecz, S. (2017): Computer says no. Wissensarbeit im digitalen Zeitalter (Teil 2). Sichere Arbeit, Heft 3, 34–44.
  • [8] Sommersguter, U. (2018): Silicon Austria: Weltweite Suche nach Hunderten Forschern. Kleine Zeitung GmbH & Co KG Wirtschaft vom 17. Februar 2018. Download 30.3.2018: http://www.kleinezeitung.at/wirtschaft/wirtschaftktnhp/5373618/112-Millionen-Euro-fuer-Villach_Silicon-Austria_Weltweite-Suche
  • [9] Semmer, N., Jacobshagen, N., Meier, L., Elfering, A., Kälin, W. & Taschan, F. (2013): Psychische Beanspruchung durch illegitime Aufgaben. In: G. Junghanns & M. Morschhäuser (Hrsg.): Immer schneller, immer mehr. Psychische Belastung bei Wissens- und Dienstleistungsarbeit, S. 97–112. Wiesbaden: Springer VS.
  • [10] Keßler, M. (2017): Teil 7: Singularität: Die Angst vor der klugen Maschine. In: Futurezone GmbH. Telekurier Online Medien GmbH & Co KG. Download: 30.3.2018: https://futurezone.at/science/singularitaet-die-angst-vor-der-klugen-maschine/239.088.120
  • [11] Sachse, P. (2006): Denken im Handeln und durch das Handeln. In: P. Sachse & W.G. Weber (Hrsg.): Zur Psychologie der Tätigkeit. Bern: Verlag Hans Huber (Schriften zur Arbeitspsychologie), 64, 29–43.
  • [12] Siebenhofer, Alexandra (2018): Internetverzicht kann teuer werden. help.ORF.at vom 24.02.2018. Download 30.3.2018: http://help.orf.at/stories/2897194/ Institut für angewandte Telekommunikation (OIAT) im Auftrag der Arbeiterkammer (AK) zu „Offliner“, 2017: https://media.arbeiterkammer.at/wien/PDF/studien/Benachteiligungen_von_OfflinerInnen_2017.pdf
  • [13] Reinhardt, J.; Schmidtler, J.; Körber, M.; Bengler, K.: Follow Me! Wie Roboter Menschen führen sollen. Zeitschrift für Arbeitswissenschaft 70 (4), 2016, 203–210 mehr…
  • [14] Thurnher, A. (2016): 2500 Jahre in 20.500 Zeichen. Eine kurze Geschichte der Medien. S. 12–16. In: Falter. 51-52a/2016: Die Zukunft der Kommunikation. Falter Zeitschriften Gesellschaft m.b.H.
  • [15] Sennett, R. (2016): Der Terror der Intimität. S. 9: In: Falter. 51-52a/2016: Die Zukunft der Kommunikation. Falter Zeitschriften Gesellschaft m.b.H.
  • [16] Wenger, A. (2017): Unbegrenzte Möglichkeiten. Wie uns der technologische Fortschritt zu neuen Fragen und Antworten führt. S. 27–39. In: Hornemann, B., Steuernagel, A. (Hrsg.): Sozialrevolution. Campus Verlag.
  • [17] Lobe, A. (2016): Auf dem Weg zum Google Staat. S. 18–20. In: Falter. 51-52a/2016: Die Zukunft der Kommunikation. Falter Zeitschriften Gesellschaft m.b.H.
  • [18] Rothmeier-Kubinecz S. (2011): „Zahlenspiele“ und deren Auswirkung auf das sicherheitsrelevante Verhalten von MitarbeiterInnen und deren Vorgesetzten. Sichere Arbeit. Heft 6. Wien,; S. 34–39.
  • [19] Mayer-Schönberger, Viktor: „Big Data ist die Aufklärung für das 21. Jahrhundert.“ Zehn Fragen an Viktor Mayer-Schönberger. In: tv diskurs JG 75, 2016 (1), S. 32–35. Download: 30.3.2018: https://www.bpb.de/lernen/digitale-bildung/medienpaedagogik/228941/big-data-und-politische-bildung
  • [20] Hacker, W. (2015): Wissenskooperation bei digitalisierter Arbeit. TU Dresden. Arbeitsgruppe Wissen-Denken-Handeln. Projektberichte. Heft 87, Juli 2015.
  • [21] Nosek, B. (2016): Gegen eine Wissenschaft der „schönen“ Ergebnisse, S. 16. In: Der Standard: Forschung spezial vom 28.9.2016.
  • [22] Schönberger, A. (2018): Was ist das Ich? S. 52–60. Protokoll eines außergewöhnlichen Treffens Douglas Hofstadter und Günther Paal. Profil Nr. 7. Jg. 12.2.2018.
  • [23] Ferrara, E. (2016): Wie Twitter-Bots den US Wahlkampf beeinflussten. S. 21. In: Falter. 51–52a/2016: Die Zukunft der Kommunikation. Falter Zeitschriften Gesellschaft m.b.H.

Links:

Wikipedia:

Mag. Sylvia Rothmeier-Kubinecz
AUVA-Hauptstelle
Abteilung für Unfallverhütung und Berufskrankheitenbekämpfung
sylvia.rothmeier@auva.at

Zusammenfassung

Die Autorin versucht eine Standortbestimmung der Arbeits- und Organisationspsychologie und zeigt auf, welche Richtung diese wissenschaftliche Disziplin auch unter den Gesichtspunkten kommender Herausforderungen nehmen sollte.

Artikel weiterempfehlen