Zum Hauptinhalt wechseln

Psychologie

Der Faktor Mensch – Grundlagen der Risikokompetenz

Wie fähig ist der Mensch, Risiken einzuschätzen, die richtigen Entscheidungen zu treffen, und wodurch wird Risikokompetenz beeinflusst? Welche Fehler sind „typisch menschlich“? Kann man Risikokompetenz lernen, und welche Rolle spielt soziales Lernen? In sicherheitsrelevanten Bereichen sind diese Fragen von großer Bedeutung und spielen im jeweiligen Arbeitskontext eine zentrale Rolle.

Ein Arbeiter mit Schutzkleidung bestehend aus Helm, Gehörschutz und Handschuhe  arbeitet mit einer Flex. Man sieht Funken sprühen.
Adobe Stock

Im Mensch-Maschine-System wird der Mensch häufig als Schwachpunkt, als unberechenbar und fehlerbehaftet angesehen. Der Begriff des „menschlichen Versagens“ wird in Unfallanalysen als scheinbar naheliegendste Ursache identifiziert, ganz im Gegensatz zur „rationalen“ Maschine, die ohne Zögern Entscheidungen nach einem festgelegten Algorithmus trifft. Doch auch diese wurde von Menschen programmiert und gebaut, trägt den menschlichen Faktor also in sich.

Was ist Risikokompetenz?

Unter Risikokompetenz (risk literacy, risk savvy) versteht man laut Dorsch (Lexikon der Psychologie) „die Fähigkeit, informiert, kritisch und reflektiert mit bekannten und unbekannten Risiken der modernen technologischen Welt umzugehen.“ Sie bezieht sich auf Risiken aus unterschiedlichen Bereichen wie z. B. Gesundheit, Finanzen oder digitale Risiken. Im Folgenden geht es vornehmlich um Sicherheits- und Gesundheitsrisiken aus dem Bereich der Arbeit und der Arbeitssicherheit. 

Grundsätzlich wird in dem Konstrukt Risikokompetenz zwischen statistischem und heuristischem Denken, Systemwissen und psychologischem Wissen unterschieden. 

Unter statistischem Denken versteht man die Fähigkeit, statistische Evidenz zu suchen, zu finden und kritisch zu bewerten. Entscheidend ist hierbei, dass statistisches Denken auf der Grundlage bekannter Risiken basiert. Daraus werden entsprechende Schlussfolgerungen gezogen, z. B. bei der Beurteilung von Unfallrisiken. Um es vorwegzunehmen – das Denken in Wahrscheinlichkeitsaussagen fällt den meisten Menschen ausgesprochen schwer. Der Unterschied zwischen relativen und absoluten Zahlen oder Aussagen auf der Basis der bedingten Wahrscheinlichkeit werden nur unzureichend verstanden.

Ein Beispiel einer statistischen Aussage: „Im Bereich der UV der gewerblichen Wirtschaft in Deutschland … ereigneten sich 2020 insgesamt 760.492 meldepflichtige Arbeitsunfälle, die eine Arbeitsunfähigkeit von mehr als drei Tagen oder den Tod zur Folge hatten, das sind 12,74 % weniger als im Vorjahr. Das Arbeitsunfallrisiko je 1.000 Vollarbeiter ist mit einem Wert von 18,45 um 12,02 % gesunken.“

Heuristisches Denken bzw. Entscheidungsheuristiken sind Strategien, mit unbekannten Risiken umzugehen, also mit Risiken, die man nicht berechnen kann. Sie sind notwendig beim Entscheiden unter Unsicherheit und ermöglichen, ressourcensparend zu Schlussfolgerungen zu gelangen, die in den meisten Lebenssituationen eine hinreichende Güte besitzen, ohne komplizierte und langwierige Algorithmen einsetzen zu müssen.

Eine Heuristik ist also eine Regel, die sich auf das Wesentliche konzentriert und den Rest ignoriert, z. B. soziale Regeln wie „Vertraue deinem Arzt“ oder „Imitiere den Erfolgreichen“. Heuristiken sind kontextabhängig, bezogen auf den Arbeitskontext könnte eine eher hinderliche Heuristik z. B. lauten „Das haben wir hier schon immer so gemacht – also ist es richtig.“

Weiß der Mensch, dass ein Risiko vorliegt?

Man muss sich immer fragen: Weiß der Mensch überhaupt, dass ein Risiko vorliegt? Oder handelt es sich eher um Ungewissheit? Bei bekannten Risiken sind die Wahrscheinlichkeiten bekannt, man hat also Gewissheit. Dann kann man gute Entscheidungen auf der Basis von logischem und statistischem Denken treffen. Wenn einige Risiken aber unbekannt sind, verlangen gute Entscheidungen auch Intuition und kluge Faustregeln (Gigerenzer 2013).

Durch Information, Kommunikation und Qualifizierung werden deshalb wichtige Grundlagen für adäquate Entscheidungen gelegt. Eine bedeutende Rolle spielen Denkfehler, auch Bias genannt, die dafür sorgen, dass Gefahren systematisch unter- oder überschätzt werden, wie die folgenden Beispiele verdeutlichen. Gerade in komplexen Situationen kommt es dadurch zu voreiligen und systematisch verzerrten Schlüssen, die besonders unerwünscht sind, wenn es um Entscheidungen von großer Tragweite geht.

Folgende Urteilsfehler sind besonders verbreitet:

  • Verfügbarkeitsheuristik: hiermit wird beschrieben, dass Ereignisse, die im Gedächtnis einer Person besonders leicht abrufbar (= verfügbar) sind, in der Häufigkeit überschätzt werden. So überschätzen beispielsweise Rettungssanitäter die Wahrscheinlichkeit von Unfällen.
  • Die Basisratenvernachlässigung: hier liegt eine fehlerhafte Wahrnehmung der Häufigkeit von Ereignissen zugrunde, sodass es zu einer Fehleinschätzung von Wahrscheinlichkeiten kommt.
  • Repräsentativitätsheuristik: der Repräsentativitätsheuristik liegt die implizite Annahme zugrunde, dass Ereignisse, die für einen Prozess typischer sind, auch wahrscheinlicher sind. 
  • Halo-Effekt: von bestimmten positiven Eigenschaften einer Person wird unzulässigerweise auf andere geschlossen, sie „überstrahlen“ (Halo = Heiligenschein) die Person: So wird angenommen, dass, wer gut aussieht, auch intelligenter und erfolgreicher ist.
  • Heuristik der Verankerung: auf der Basis eines einzelnen Reizes werden alle weiteren Reize eingeordnet. So werden einzelne Tote in einer Krisenregion als weniger schlimm wahrgenommen, wenn es dort vorher Anschläge mit vielen Toten gab.
  • Simulationsheuristik: wenn keine Informationen zur Verfügung stehen, so erfolgt die Urteilsbildung auf der Grundlage der eigenen Vorstellungskraft, geprägt von früheren Erlebnissen des Individuums. So stellen sich z. B. die meisten einen Außerirdischen als menschenähnliches Lebewesen mit aufrechtem Gang, Kopf und Armen vor, das Unbekannte wird also unter Rückgriff auf Bekanntes gebildet.

Systemwissen beschreibt die Kenntnis der Funktion bzw. Dysfunktion eines Systems, wie z. B. des Gesundheits- oder Bankenwesens, oder auch eines bestimmten Arbeitssystems. Dazu gehört das Wissen um strukturelle Eigendynamiken oder um Ziel- und Interessenkonflikte der verschiedenen Akteure und damit einhergehende Strategien, wie beispielsweise defensives Entscheiden, irreführende Informationen oder Suggestion. 

Das bedeutet, dass die Akteure nicht immer von aufklärerischen Motiven geleitet werden, sondern eventuell auch von der Erreichung eines anderen Ziels. Beim sogenannten „defensiven Entscheiden“ steht beispielsweise die eigene Absicherung stärker im Vordergrund als proaktives Handeln.

Im Arbeitskontext findet man dies z. B., wenn es um die Aufklärung von Fehlern geht. Eine defensive Haltung zeigt sich in Aussagen wie „Es war nicht mein Fehler – ich habe nur gemacht, was mein Chef mir gesagt hat.“ Ein weiteres Beispiel für Systemwissen im Arbeitskontext könnte z. B. die Erfahrung sein, dass Produktionsziele meist vor Sicherheitszielen stehen und deswegen von Führungsseite positiver verstärkt werden.

Psychologisches Wissen beschreibt das Wissen um menschliche Faktoren, die das Risikoverhalten beeinflussen. Dazu gehören z. B. individuelle Eigenschaften wie „risikosuchend“ versus „risikoscheu“, aber auch, dass bestimmte Auslöser wie z. B. Schockrisiken (dread risks) Angst und Vermeidungsverhalten auslösen. Beispielsweise werden Katastrophen wie Flugzeugabstürze, bei denen viele Menschen gleichzeitig ums Leben kommen, als bedrohlicher erlebt als Risiken, bei denen genauso viele oder mehr Menschen verteilt über die Zeit hinweg sterben (Motorradfahren, Rauchen). Viele Risiken werden auch systematisch unterschätzt („Mir ist noch nie etwas passiert“).

Ein weiterer psychologischer Mechanismus ist das soziale Lernen, d. h., man lernt Risikoeinschätzung nicht nur durch eigene Erfahrungen, sondern stellvertretend durch die Bezugsgruppe. Das hat zur Folge, dass Menschen nicht konsistent risikosuchend oder risikoscheu sind, sondern sich dies je nach Kontext ändern kann, je nachdem, was die Bezugsgruppe fürchtet oder akzeptiert. Soziales Lernen kann kulturelle Unterschiede bei der Einschätzung von Risiken verstärken. Im Kontext der Arbeit kann man dies z. B. beim Gruppenverhalten auf Baustellen beobachten. Wenn alle, inklusive des Chefs, ohne Helm und Sicherung arbeiten, wird diese soziale Norm mit hoher Wahrscheinlichkeit von Hinzukommenden übernommen.

Weitere Einflussfaktoren

Mentale Rahmenbedingungen, also die Wahrnehmung, Reizverarbeitung und das Gedächtnis spielen ebenfalls eine Rolle bei der Risikoeinschätzung. Sie setzen bei der Wahrnehmung und Bewertung von Risiken Grenzen. Unsere Aufmerksamkeitsleistung, z. B. bei gleichzeitiger Darbietung konkurrierender Reize oder auch bei Stress, limitiert die Aufnahme und Verarbeitung relevanter Informationen. Nicht alle gefährlichen Einflüsse sind wahrnehmbar – man denke an radioaktive Strahlung oder elektrischen Strom. 

Auch physiologische Voraussetzungen modellieren die Einschätzung von Reizen, limitieren die Aufnahme z. B. bei unterschwelligen oder überschwelligen Reizen, und erschaffen unter Umständen neue Inhalte, die gar nicht vorhanden sind. Deutlich wird dies z. B. in optischen Täuschungen, die man selbst dann „sieht“, wenn man weiß, dass es eine Täuschung ist. Durch Erfahrungen werden beispielsweise Muster ergänzt, wie in der kognitiven Psychologie, der Gestaltpsychologie und im Konstruktivismus dargestellt. 

Um im Arbeitskontext geeignete Rahmenbedingungen zu gestalten, die einen adäquaten Umgang mit Risiken und eine Weiterentwicklung ermöglichen, gibt es im TOP-Ansatz verschiedenste Hebel, an denen man ansetzen kann.

Andrea Weimar

Auch Emotionen steuern unsere Wahrnehmung und unser Verhalten. Die Furcht, die bestimmte Reize auslösen, steht nicht immer in einem direkten Zusammenhang mit der damit einhergehenden Gefährdung. Unsere evolutionäre Ausstattung lässt uns manche vermeintliche Gefährdung überschätzen – so werden z. B. Schlangen und Spinnen auch in Mitteleuropa als gefährlich eingeschätzt, obwohl es in diesen Regionen so gut wie keine giftigen Vertreter dieser Gattungen gibt. 

Dies gilt auch für Höhe. Dagegen gibt es praktisch niemanden, der Angst vor Steckdosen hat, auch wenn dies deutlich angebrachter wäre. Auch positive Emotionen, wie z. B. Anerkennung für riskantes Verhalten, kann Risikobereitschaft verstärken. Fast jeder kennt aus dem Arbeitskontext einen:eine „Improvisationskünstler:in“ oder ein „Multitalent“, dessen:deren Fertigkeiten in stressigen Situationen wider besseres Wissen gerne mal in Anspruch genommen werden. 

Um im Arbeitskontext geeignete Rahmenbedingungen zu gestalten, die auf der einen Seite einen adäquaten Umgang mit Risiken, andererseits eine Weiterentwicklung ermöglichen, gibt es im TOP-Ansatz verschiedenste Hebel, an denen man ansetzen kann. 

Den Maschinen überlegen

Die hier aufgeführten menschlichen Denkfehler können pessimistisch stimmen. Allerdings ist es gerade der Mensch, der mit seiner zerebralen Ausstattung und seinem sozialen Wesen besonders flexibel an komplexe, wechselnde Umwelten angepasst und somit Maschinen überlegen ist. Nur Menschen können ihre Strategien je nach Kontext wechseln und sind lernfähig. Jetzt könnte man einwenden, dass auch Maschinen lernen – dies macht man sich ja auch bei der künstlichen Intelligenz zunutze. Trotzdem sind hier nach wie vor enge Grenzen gesteckt, je nachdem, mit welchem Input Maschinen vorher „gefüttert“ wurden. Die Ergebnisse sind faszinierend, aber die Algorithmen entstammen letztendlich immer dem vom Menschen gesteckten Rahmen und sind somit nur so gut wie der Mensch, der sie programmiert hat. Auch sind diese Systeme deswegen nicht unbedingt fehlerfrei. Generell sollten Arbeitssysteme immer fehlerfreundlich gestaltet, und in sicherheitsrelevanten Bereichen Rückfallebenen vorhanden sein.

Information und Informiertheit ist wichtig

Ein wichtiges Element der Risikokompetenz ist die Information bzw. Informiertheit über Risiken. Informationen im Kontext der Arbeit sollten so vermittelt werden, dass sie gut verstanden werden können. Besonders beim Thema „Risiko“ sollte man es nicht dem Zufall überlassen, ob die Botschaft klar genug ankommt, sondern aktiv dafür sorgen.

Viele Studien zeigen leider eindrucksvoll, dass u. a. eine unzureichende statistische Aufbereitung ein Hauptmanko bei der Risiko-Kommunikation darstellt. Statistische Informationen werden meist nur sehr schlecht verstanden, auch von Expertinnen:Experten wie Medizinerinnen:Medizinern. So werden z. B. relative Zahlen im Vergleich zu absoluten Zahlen bei der Kommunikation von Vorsorgemaßnahmen weniger gut verstanden, wie dies ausführlich von Gigerenzer dargestellt wurde. Selbst Expertinnen:Experten kommen bei der Einschätzung von bestimmten statistischen Angaben zu höchst unterschiedlichen Ergebnissen.

Bittet man Menschen z. B. zu erklären, was Aussagen wie „Die Regenwahrscheinlichkeit liegt bei 40 %“ bedeuten, so sind die Interpretationen der Aussage ausgesprochen vielfältig. Kaum hinterfragt wird, dass bei einer solchen Aussage der Referenzwert, die Bezugsgröße fehlt, die notwendig ist, um die Aussage zu verstehen. Handelt es sich um 40 % der Zeit? Oder um 40 % der Regenmenge? 

Viel besser als relative Zahlen werden absolute Zahlen verstanden. Gigerenzer empfiehlt die Darstellung relevanter Informationen in sog. „Faktenboxen“, die mit absoluten Zahlen und einer verständlichen Visualisierung arbeiten. Anstatt zu bemängeln, dass Kolleginnen:Kollegen „nicht rechnen können“, kann Information für alle verständlicher und nachvollziehbarer dargeboten werden.

Diese Fertigkeiten werden Menschen natürlich nicht in die Wiege gelegt, sondern entwickeln sich durch Lernen und durch Erfahrung. Abhilfe könnte z. B. eine verstärkte Aufnahme in die Curricula der Schulen und der Studiengänge schaffen.

Die positive Botschaft: Risikokompetenz ist entwickelbar und beeinflussbar. Der Informationsaufbereitung und -vermittlung sowie dem sozialen Lernen sollten dabei große Aufmerksamkeit geschenkt werden. Dabei darf nicht außer Acht gelassen werden, dass insbesondere in sicherheitskritischen Bereichen Arbeitssysteme fehlerfreundlich gestaltet und Rückfallebenen vorhanden sein sollten, um der Tatsache mentaler Grenzen z. B. im Bereich der Wahrnehmung und Verarbeitung von Risiken angemessen zu begegnen.

„Das haben wir hier schon immer so gemacht – also ist es richtig.“ Menschliche Faktoren können das Risikoverhalten negativ beeinflussen.

LITERATUR:

  • Badke-Schaub, Hofinger, Lauche: Human Factors – Psychologie sicheren Handelns in Risikobranchen, 2. Auflage, Springer-Verlag 2012.
  • Dorsch: Lexikon der Psychologie, 20. Auflage, Hogrefe-Verlag 2021.
  • Gigerenzer Gerd: Risiko – Wie man die richtigen Entscheidungen trifft, 2. Auflage, Pantheon-Verlag 2013.
  • Kahnemann Daniel: Schnelles Denken, langsames Denken, Pantheon-Verlag 2014.

ORIGINALVERÖFFENTLICHUNG: 

Vortrag auf dem GfS-Symposion Innsbruck 2022
Quellenangabe: Weimar, A. (2021). Der Faktor Mensch – Grundlagen der Risikokompetenz. In Sebastian Festag (Hrsg.), Risikokompetenz und Technik: Risiken bestehender und neuartiger Systeme (S. 11–22). XXXVI. Sicherheitswissenschaftliches Symposion, 18. Mai 2022, AUVA (Innsbruck, hybrid), Köln: VdS-Verlag (ISBN 978-3-936050-35-6 )

Zusammenfassung

Die Autorin analysiert, welche Faktoren sich auf das Risikoverhalten des Menschen auswirken. Sie zeigt dann auf, wie die Risikokompetenz entwickelt und in Richtung größeren Sicherheitsbewusstseins beeinflusst werden kann. 


Aktuelle Ausgaben

Ausgabe 2/2024
Ausgabe 2/2024
Magazin Sichere Arbeit
Download (PDF, 5 MB)
Ausgabe 1/2024
Ausgabe 1/2024
Magazin Sichere Arbeit
Download (PDF, 5 MB)
Sonderausgabe 2/2023
Sonderausgabe 2/2023
Magazin Sichere Arbeit
Download (PDF, 8 MB)
Sichere Arbeit 6/2023
Sichere Arbeit 6/2023
Schutz bei verketteten Anlagen
Download (PDF, 5 MB)