Um Ihnen den bestmöglichen Service zu bieten, speichert diese Website Informationen über Ihren Besuch in sogenannten Cookies. Durch die Nutzung dieser Webseite erklären Sie sich mit der Verwendung von Cookies einverstanden. Weitere Informationen finden Sie unter Impressum. Impressum
Sichere Arbeit

Automatisierung am Beispiel autonomes Fahren

Teil 4: Fehler und Fehlhandlungen

Automatisiertes Fahren ist einer der mächtigsten Innovationstreiber in der Automobilindustrie. Aus diesem Grund wurde dem Thema eine Serie aus psychologischer Sicht gewidmet. Der vierte und letzte Teil soll zum Verständnis von Fehlern und Fehlhandlungen beitragen.
In Teil 1 wurden die Nachteile technozentrischer Automatisierungsstrategien behandelt und alternative Vorgehensweisen aufgezeigt. [1] In Teil 2 ging die Autorin der Frage nach, wie sich die Motive, ein Auto zu benützen, verändern, wenn es als Fahrgast bestiegen wird und nicht als Fahrerin oder Fahrer. Das „Fahren“, nicht aber den „Zweck des Autofahrens“ zu beachten, greift aus psychologischer Sicht zu kurz. [2] In Teil 3 [3] ging es darum, welche besonderen Anforderungen auf dem Weg zum autonomen Fahren an die Informationsverarbeitung beim Menschen gestellt werden. Die Betonung lag dabei auf dem Konzept der „Situation Awareness“ (SA), der Situationsbewusstheit, als einem relevanten Sicherheitsfaktor. Der 4. und letzte Teil soll zum Verständnis von Fehlern und Fehlhandlungen beitragen.
Die Mobilität wird sicherer!
Versprechungen dieser Art werden regelmäßig als gewichtiges Argument für eine rasche Umsetzung des autonomen Fahrens ins Treffen geführt. So merkte Oliver Schmerold, der  Direktor des Österreichischen Automobil-, Motorrad- und Touring-Clubs (ÖAMTC) in einem Interview mit Peter Rosenberger am 8. Mai diesen Jahres an: „Parallel dazu wirken sich die technologischen Entwicklungen beim autonomen und vernetzten Fahren schon jetzt positiv auf die Sicherheit im Fahrbetrieb aus, zum Beispiel durch Notbrems- oder Abstandsassistenten.“
Das ist eine erfreuliche Nachricht für alle Autofahrerinnen und Autofahrer. Moderne Technologien schalten jedoch nicht automatisch menschliche Fehlhandlungsquellen aus. Das wurde selbst von Oliver Schmerold eingeräumt, er setzt sich für klare Regeln zur Datenerfassung und Datenweitergabe ein: „Beim autonomen Fahren stehen für den ÖAMTC Komfort und Sicherheit des Konsumenten im Vordergrund. Das gilt auch für die hochkomplexe Datenwelt, die als Basis für alle Dienste, Fahrsysteme und vernetzten Fahrzeuge dient.“
Die Erfahrungen mit Katastrophen in den vergangenen Jahrzehnten zeigen auch, dass ein Sicherheitsrisiko nicht so sehr darin besteht, dass es zu Störungen und Abweichungen in den Computersystemen kommt, sondern in den schwerwiegenden, weitreichenden und oftmals unvorhersehbaren Folgen der Abweichung. Das Gefährdungspotenzial kann durch Automatisierung verringert werden, jedoch sind nicht selten die Folgen (der seltener zu erwartenden Fehlhandlungen) weitaus gravierender als in den herkömmlichen Technologien geworden. 
Der vierte und letzte Teil dieser Serie setzt sich nun mit dem fehlerhaften und zuverlässigen Menschen auseinander. Was weiß man aus psychologischer Sicht und was folgt daraus für das autonome Fahren als Beispiel für Automatisierung? Zunächst wird dargestellt, warum es auch beim Thema Fehler und Fehlhandlungen so wesentlich ist, das Psychische an der Tätigkeit zu beachten. Dann folgen unterschiedliche Klassifikationsmöglichkeiten von Fehlhandlungen je nach Modellannahme oder Zweck der Betrachtung.
Was ist die Leistung?
Betrachtet man die Arbeitstätigkeiten eines Berufs(kraft)fahrers oder Chauffeurs unter dem Blickwinkel der geforderten Leistung, könnte man sie beispielsweise folgendermaßen beschreiben:
  • das Steuern des Fahrzeuges
  • das Bedienen der Pedale 
  • das Drehen des Lenkrades
  • das Überwachen des Verkehrs
  • usw.
Betrachtet man die Arbeits-Tätigkeiten von Berufsgruppen, die jene „hochkomplexe Datenwelt“ zum autonomen Fahren entwickeln, programmieren und administrieren ebenfalls unter dem Blickwinkel der geforderten Leistungen, sind dies Tätigkeiten, die Wissensarbeit erforderlich machen (vgl. „design thinking“ oder „problem solving“), wie z. B.:
  • Entwicklung der Software
  • Softwareanpassungen vornehmen 
  • themen- und fallspezifisch Lösungen finden
  • usw. 
Diese Form der Leistungsbeschreibung berücksichtigt in beiden Fällen das Psychische an der Tätigkeit nicht. Das lässt sich anhand eines kleinen Beispiels unschwer erkennen: Das Fahren einer geübten Autofahrerin oder eines routinierten Autofahrers ist keineswegs der gleiche – nur häufiger oder mehr geübte – Vorgang wie das Fahren einer Anfängerin oder eines Anfängers. Es ist ein von Grund auf anderer Vorgang (vgl. [3]). Selbst Tätigkeiten, die auf den ersten Blick gleich erscheinen, können völlig unterschiedlich sein, weil die Informationsverarbeitung eben nicht bei jeder Tätigkeit und jedem Menschen in jeder Situation gleich funktioniert und immer die gleichen Bedingungen vorliegen. Heute wissen wir viel über psychische Vorgänge beim Wahrnehmen, Denken und Handeln. Diese zu kennen und zu berücksichtigen ist ein Erfolgs- und Sicherheitsfaktor, wenn Automatisierung gelingen soll. Was das Psychische ausmacht, das macht auch den Fehler aus, denn in einem Punkt sind sich viele Forscherinnen und Forscher mit Ernst Mach (1905) einig: „Wissen und Irrtum fließen aus derselben Quelle, nur der Erfolg unterscheidet das eine vom anderen.“ [4].
Was ist der Mensch? 
  • Der Mensch, ein denkender Informationsverarbeiter? 
  • Der Mensch, ein Gewohnheitstier?
  • Der Mensch, ein Nutzenmaximierer?
  • Der Mensch, ein Wesen mit begrenzter Denk-, Merk- und Urteilsfähigkeit? 
Der Mensch, ein denkender Informationsverarbeiter, hat „richtig oder falsch gedacht“?
Dem psychologischen Modell der sequenziellen Informationsverarbeitung zufolge „erzeugt“ jede Stufe der Informationsverarbeitung für sie typische Fehlermöglichkeiten. Fehler dieser Art sind z. B. „etwas unterlassen“, „nicht korrekt ausführen“, „in der falschen Reihenfolge“ oder eine nicht erforderliche, „nicht zulässige Handlung“.  Vereinfacht gesagt unterscheidet man nach Wahrnehmungsfehler, Entscheidungsfehler, falschen Rückruf, Auswahlfehler oder Fehler durch mangelnde Rückmeldung. Wobei der Übungsgrad eine Rolle spielt. Je nachdem, wie geübt man ist, kann man schneller etwas erkennen oder braucht weniger Zeit, um sich zu entscheiden, was man tut etc. [5]
 
Der Mensch, ein Gewohnheitstier, hat „richtig oder falsch reagiert“?
Nach Rasmussen unterscheidet man folgende Übungsniveaus:
Das auf Fertigkeiten basierende hohe Übungs- und Erfahrungsniveau. Dabei werden sensorische und motorische Informationen automatisiert verarbeitet. 
Die auf Regeln basierenden automatisierten Verhaltensweisen, die bei Bedarf durch Verwendung einer Regel zu einer neuen Verhaltensweise kombiniert werden können.
Das auf  Wissen basierende Niveau kommt in neuartigen Situationen, oder wenn man ungeübt ist, zum Einsatz, vgl. [3] [5].
 
Der Mensch, ein Nutzenmaximierer, hat „richtig oder falsch entschieden“?
Insbesondere wenn Entscheidungen zu treffen sind, spielen Problemlösungsstrategien eine Rolle. Der Mensch als Nutzenmaximierer wählt jene Handlung, die den größten Nutzen verspricht (vgl. [2] [5]).
 
Der Mensch, ein Wesen mit begrenzter Denk-, Merk- und Urteilsfähigkeit?
Wie sehr Denk-, Merk- und Urteilsfähigkeit beansprucht werden, hängt von der situativen Komplexität und der Aufmerksamkeitssteuerung (bewusst oder unbewusst) ab. 
Kennzeichen komplexer Handlungssituationen sind viele Merkmale, die miteinander vernetzt sind. Eben weil sie voneinander abhängig sind, macht das eine gleichzeitige Beachtung mehrerer Merkmale notwendig. Damit gibt es nach Dörner auch keine objektive Komplexität, weil erfahrene Akteure nicht Einzelmerkmale, sondern die Gestalt (die Gesamtheit) betrachten. Komplexität ist immer subjektiv. [6] 
Die Problemlösungskapazität ist auch davon abhängig, ob man alles sieht, was man sehen will. Bei einer dynamischen Situation wie beim Autofahren ist man zudem unter Zugzwang, weil sich das System während des Überlegens und Sammelns von Informationen weiterentwickelt. Deshalb muss man auch abschätzen können, worauf das Ganze hinausläuft, [6] vgl. [3]. 
Die situative Komplexität kann auch durch ein Defizit in der Informationsgestaltung entstehen. Menschen sind überfordert, wenn sie an ihre Grenzen beim Entdecken und Identifizieren von Informationsangeboten stoßen. Zu solchen Informationsgestaltungsdefiziten zählen verzögerte Rückmeldungen, unterschwellige Information unter der Wahrnehmungsgrenze oder Überschreiten der Grenze für kurzzeitiges Behalten. Wie sich Überforderung des Menschen durch Gestaltung vermeiden lässt, dazu finden sich zahlreiche Empfehlungen u. a. in der ÖNORM 10075-2 (Ausgabe: 2000-06-01).
Wie störanfällig Vorgänge sind, hängt auch von der Aufmerksamkeitszuwendung ab. Während von der Aufmerksamkeit kontrollierte Vorgänge störanfällig durch Ablenkung und anfällig für Ermüdung sind, sind das psychisch automatisierte Vorgänge, die keine Aufmerksamkeitszuwendung brauchen, in geringerem Ausmaß. Psychisch automatisierte Vorgänge sind jedoch störanfälliger durch Veränderungen in der Situation, weil sie nicht ausreichend bewusst erfasst werden und nicht genügend Handlungsalternativen in Betracht gezogen werden. Dieser Zustand verursacht charakteristische Fehler, wie Stereotypisierungs-, Beharrungs- oder Gewohnheitsfehler. Das sind grundlegende Erkenntnisse aus der Fehlerforschung, die am Weg zum automatisierten Fahren längst bekannt sein sollten, jedoch aus Sicht der Autorin nicht systematisch berücksichtigt werden.
Zusammengefasst ist die Antwort auf die Frage, was der Mensch ist, wohl: Der Mensch ist das alles, ein Informationsverarbeiter, ein Nutzenmaximierer, ein Gewohnheitstier und ein Wesen mit begrenzter Denk-, Merk- und Urteilsfähigkeit. Folgerichtig können beim Autofahren und allen Zwischenstufen bis zum autonomen Fahren alle Kombinationen samt ihren Wechselwirkungen vorkommen. 
Wie denkt der Mensch?
Die Bedingungen oder Ursachen von Fehlhandlungen können in der Aufnahme und Verarbeitung von Information im Menschen und/oder auch im Arbeitsauftrag und seinen Ausführungsbedingungen liegen. Dazu braucht es eine Sicht auf den menschlichen Fehler, aus der man nicht nur die Bestandteile der Informationsverarbeitung einzelner Handlungen betrachtet, sondern auch die übergeordnete Handlungsebene des Arbeitsprozesses, beispielsweise den Arbeitsablauf eines Berufsfahrers oder eines Programmierers einer Software zum autonomen Fahren. Mit dieser Form der Betrachtung verbunden sind Vorstellungen über Bestandteile und Vorgänge in der Handlungsregulation. Bestandteile und Vorgänge in der Handlungsregulation sind die Entwicklung von Aktionsprogrammen und operativen Abbildsystemen. 
Anders als im sequenziellen Modell der Informationsverarbeitung nimmt man an, dass die Handlungsstruktur nicht in unabhängig voneinander denkbare Komponenten zerlegt werden kann. [7] Dem psychologischen Modell der Handlungsregulation zufolge erzeugen Defizite in den unterschiedlichen Phasen der Handlungsregulation für sie typische Fehlermöglichkeiten. Beispiele dafür sind: Alltägliche Fehlhandlungen, die aus einer unzureichenden räumlichen Koordination entstehen können, sind z.B Stolpern, Fehlgreifen oder Verschütten. Eine unzureichende zeitliche Abstimmung (timing) kann zu sich Versprechen oder Verschreiben führen. Das Vergessen, Übersehen oder Auslassen haben ihre Ursache in fehlenden oder unzureichenden Orientierung(soperation)en in Umwelt oder Gedächtnis. Verwechseln, Verrechnen oder Verplanen hingegen sind der Theorie nach im Abruf unzutreffender Programme aus dem Gedächtnis zu suchen. [7; S. 422]
Fehlervermeidung macht Mobilität sicherer
Die Beantwortung der Frage: „Liegt ein menschlicher Fehler vor oder nicht?“ erfordert nicht nur die Identifikation der Art des Fehlers, sondern aus der Sicht der Prävention eine Klassifikation nach Ursachen. Ursachenforschung wird darum betrieben, um zukünftige Fehler weitgehend auszuschließen. Daraus ergeben sich zahlreiche Konsequenzen. Viele Fehlhandlungen lassen sich beispielsweise vermeiden, wenn man ihre Geschichte kennt. Verfolgt man einen Fehler rückwärts oder analysiert man einen Auftrag vorwärts, liegen zumeist mehrere Bedingungen vor, die zum Fehler geführt haben bzw. führen können. Eine Tatsache, die längstens bekannt ist, man erinnere sich an das „Swiss Cheese Model“ von Reason 1992. [8] Fehlhandlungen entstehen dort, wo mehrere „Abwehrscheiben“ an gleicher Stelle ein „Loch“ haben. Beispielsweise führt die Ablenkung des Autofahrers dann zur Kollision, wenn der Abstand zu gering gewählt wird und/oder die Bremsen für das Gewicht nicht ausreichend ausgelegt sind und/oder die Fahrbahnbeschaffenheit rutschig ist. 
Die Verkettung der Ereignisse ließe sich endlos fortsetzen. Fehlhandlungen können folgerichtig auch dann verhütet werden, wenn die eigentliche Ursache, die Ablenkung, nicht zu beseitigen ist. Abstandsassistenten sind solche fehlertoleranten Systeme. Sie sind jedoch nur dann ein Beitrag zur Sicherheit, wenn sie zuverlässig funktionieren, wenn es keine anderen „Löcher“ an gleicher Stelle gibt und sie auch tatsächlich als Warnfunktion und nicht als Bremsersatz benützt werden. Musahl hat zudem schon 2007 darauf aufmerksam gemacht, dass fehlertolerante Systeme die Gefahr der Begünstigung der „Kontroll-Illusion“ in sich bergen, weil sie das Gefühl der Fehlerfreiheit geben. Zudem hat man den Eindruck, dass es keinen Grund gibt, an der perfekten Funktion des Systems zu zweifeln. „Wenn diese Systeme Fehlhandlungen tolerieren, indem sie deren Wirkung kompensieren, ohne dass diese Tatsache dem Benutzer zurückgemeldet wird, dann wird er sich künftig nicht anders verhalten.“ [4]
Die Fehlerforschung in der Praxis hat zahlreiche mögliche Ursachen zutage gebracht. Gruppiert man die Fehlerursachen und verallgemeinert man sie, zeigt sich, dass Fehlhandlungen durch folgende Merkmale gekennzeichnet sind (vgl. [7; S. 429]):
  • Ungeeignete Ausführungsweise, das angestrebte Ziel wird damit nicht erreicht.
  • Dies ist dem Menschen zum Zeitpunkt der Ausführung nicht bewusst.
  • Die Beherrschung der richtigen Ausführungsweise wäre gegeben.
Dies bestätigt die generelle Feststellung, dass Fehler nicht gemacht, sondern im günstigen Fall im Nachhinein erkannt werden. Man kann Fehler daher nicht im Vorhinein erkennen. Dass die ungeeignete Ausführungsweise dem Menschen in der Regel nicht bewusst ist, lässt den Schluss zu, dass die Ursache für Fehlhandlungen in einem Mangel an Information liegt, die für ein wirksames Handeln nötig wäre. Informationen, die für das erforderliche zielgerichtete Handeln notwendig sind, handlungsrelevante Informationen: 
„Obgleich ein Mangel an entsprechenden Informationen im Handlungsprozess nicht immer zu einem Fehler führt, gibt es doch keinen Fehler ohne Mangel an bestimmten Informationen. Eben darum kann man den Fehlermechanismus nicht erklären, ohne die Ursachen des Informationsmangels im Handlungsprozess zu erforschen. [7; S. 429]
Informationsmangel ist dabei nur ein Kurzbegriff für unterschiedliche Mängelquellen. Es kann die erforderliche Information tatsächlich fehlen oder es kann die Information vorliegen, jedoch nicht oder falsch benützt werden, oder es kann ein Überangebot an Informationen vorliegen. Damit ist bei Automatisierung vor allem die Funktionsteilung und die Software-Ergonomie angesprochen. Die Praxis zeigt, dass die Ursachen für mangelhafte Nutzung vorhandener Informationen auch im Nichtbeachten von Lernerfordernissen liegen kann, in Ausbildungslücken oder in einer unzureichenden Aktivierung der Motivation. 
Fehler oder Irrtum?
Von sicherheitsrelevanter Bedeutung ist auch die Unterscheidung zwischen Fehler und Irrtum. Passieren Fehler trotz Wissens oder Könnens („man hätte es wissen können“), dann passieren sie entweder bewusst oder unbewusst. Passieren sie bewusst, dann handelt es sich meist um eine Regelübertretung. Passieren sie unbewusst, handelt es sich um einen Fehler wie z. B. einen Gedächtnisfehler oder einen Verwechslungsfehler. Passieren Fehler unbewusst, ist eine Nachschulung als Präventionsmaßnahme meist nicht wirkungsvoll, da sie trotz Wissens passieren. Wirkungsvollere Maßnahmen sind auf der technischen oder organisatorischen Ebene angesiedelt. Eine umfassende begleitende Forschung zu Assistenzsystemen ist daher sinnvoll, um Konstruktions- und Entwicklungsfehler zu vermeiden. Ein Irrtum hingegen passiert beabsichtigt „nach bestem Wissen und Gewissen“ aufgrund vorschneller Schlussfolgerungen, Voreingenommenheit oder subjektiver Ansichten. Ein Irrtum ist häufig das Ergebnis einer unvollständigen Kenntnis der Lage. Dafür kommen beispielsweise fehlende Informationen, fehlendes Wissen oder mangelndes Können infrage. [9]
Aus Erfahrung wird man klug!
Schon seit den frühen 1970er-Jahren gibt es zahlreiche Institute für Technikfolgen-Abschätzung, die wissenschaftliche Technikfolgenabschätzung (TA) betreiben. In Österreich ist es das Institut für Technikfolgen-Abschätzung der Österreichischen Akademie der Wissenschaften, in Deutschland ist beispielsweise das Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) zu nennen, eine Forschungseinrichtung des Karlsruher Instituts für Technologie (KIT). Das ITAS wurde an einem Beratungsgremium der Ethikkommission zu automatisiertem Fahren beteiligt, das 2016 zur Beantwortung ethischer Fragen computergesteuerter Fahrzeuge vom Verkehrsministerium in Deutschland ins Leben gerufen wurde. Nicht erst seit der Gründung der Institute sind zahlreiche Technikphilosophen mit der Beantwortung ethischer Fragen rund um Digitalisierung und Automatisierung befasst. Zu nennen wäre in diesem Zusammenhang Vitaly Gorokhov (verstorben 2016), der sich vor allem um die wissenschaftliche Zusammenarbeit zwischen Deutschland und Russland verdient gemacht hat. 
Auch Hans Lenk, einer der bedeutendsten Philosophen unserer Zeit, der überdies 2005 als erster Deutscher zum Präsidenten des Institut International de Philosophie (der „Weltakademie“ des Faches) gewählt wurde, widmet sich seit Jahrzehnten der Frage der Organisation von Sicherheit und Sicherheitsverantwortung, ohne den Verzicht auf Großtechnik zu vertreten. Als Großtechnik ist jedenfalls auch die Digitalisierung zu betrachten, vor allem, wenn man an ihre Vernetzung denkt. Aus Sicht Lenks können die absehbaren Öko-, Energie- und Bevölkerungsprobleme durch Technik alleine nicht gelöst werden:
„Das heißt, man achtet tendenziell nicht genügend auf die soziale Komponente der Organisation von Sicherheit und Sicherheitsverantwortung, nicht auf die soziale Sicherheit. Man glaubt(e), im Wesentlichen alles durch Technik allein lösen zu können. Natürlich ist die Technik (nach dem besten realisierbaren „Stand der Technik“) zur Sicherheitsoptimierung notwendig, und ohne Technik ist gar nichts zu machen; das ist klar, aber das reicht offenbar nicht aus.“ [10]
 
In Österreich gibt der Leiter des Centers für Sicherheitsforschung im Austrian Institut of Technology GmbH, Dr. Helmut Leopold zu bedenken:
„… Benutzer, Designer, Forscher, Entwickler, aber auch Betreiber von Technik müssen sich fragen: Beherrschen wir diese Technik? Das gilt vor allem für die autonomen Systeme, wo künstliche Intelligenz für uns denkt und selbst entscheidet. Das funktioniert sicher nicht, indem wir nur Technik implementieren und verwenden, sondern es braucht einen kritischen Diskurs über ethische, moralische, technische, gesellschaftliche, kulturelle Werte und einen Austausch über technische Errungenschaften, deren Effekte und Anwendbarkeit für den Nutzer …“
An dieser Stelle möchte die Autorin an die Digitalcharta, insbesondere an den Artikel 5 (Automatisierte Systeme und Entscheidungen) erinnern: Art. 5 (5) Entscheidungen über Leben, körperliche Unversehrtheit und Freiheitsentzug dürfen nur von Menschen getroffen werden.
Wer benutzt wen?
Um in jenen von Dr. Helmut Leopold geforderten Austausch über technische Errungenschaften, deren Effekte und Anwendbarkeit für den Nutzer einzusteigen, zunächst ein kleines Beispiel:
Meint man im Wesentlichen alles – und damit ist in diesem Fall der Betriebsgewinn gemeint – durch Technik allein lösen zu können, so liest sich das auf der Homepage z. B. der „NetMediaEurope Deutschland GmbH – silicon.de“ so: „Die digitale Transformation kann durchaus als Reise gesehen werden, die damit beginnt, dass Unternehmen eine IT-basierte Vision entwickeln. Diese führt dann zu einer datenorientierten Strategie, bei der Analysen im Mittelpunkt stehen. Das Ergebnis solcher Initiativen hängt von der Fähigkeit des Unternehmens ab, Menschen, Prozesse, Plattformen und den Aspekt Governance effizient zu nutzen, um die Geschäftsziele des Unternehmens zu erreichen.“Achtet man auf die soziale Komponente der Organisation von Sicherheit und Sicherheitsverantwortung und fühlt sich den Humankriterien verpflichtet, könnte sich der gleiche Text in „freier Übersetzung der Autorin“ so lesen: Die digitale Transformation kann durchaus als Reise gesehen werden, die damit beginnt, dass Unternehmen eine humanzentrierte Vision entwickeln. Diese führt dann zu einer aufgabenorientierten Strategie, bei der der Mensch und seine Umwelt im Mittelpunkt stehen.  Das Ergebnis solcher Initiativen hängt von der Fähigkeit des Unternehmens ab, Automatisierung und Digitalisierung effektiv zu nutzen, um Denken, Kreativität, Motivation und Zufriedenheit optimal zu fördern, um die Geschäftsziele des Unternehmens zu erreichen.
Aus gegebenem Anlass möchte die Autorin wieder einmal appellieren, auf die andere Hälfte der Bevölkerung, die Frauen, und auf die Berufsgruppe der Psychologinnen und Psychologen, speziell in den ExpertInnen-Gremien, nicht zu vergessen sowie die betroffenen Autofahrerinnen und Autofahrer einzubeziehen.
Fazit
Eine berufliche Aufgabe wird nicht automatisch weniger fehlbeanspruchend und die Straßen nicht automatisch sicherer, wenn ein Teil davon, die Teilaufgabe des Autofahrens, automatisiert erfolgt. Automatisierung ist ein psychologischer Gestaltungsgegenstand. Das Psychische an der Tätigkeit Fahren und der Zweck des Fahrens dürfen nicht vernachlässigt werden. Nur die beobachtbaren Ausführungsschritte beim Fahren als Grundlage für die Systementwicklung zu betrachten, stellt ein Versäumnis dar. Aus ganzheitlicher Sicht ist es auch hier notwendig, nicht nur die Bestandteile des Autofahrens, sondern auch das Ziel einer Autofahrt und deren Strukturierung und Planung zum Ausgangspunkt einer angemessenen Analyse zu machen. Neben wirtschaftlichen und technischen Zielen sind bedienerbezogene Gestaltungsziele nicht nebenher, sondern klar als eigenes Gestaltungsziel zu definieren. Internationale Standards zu menschengerechter Arbeits- und Technikgestaltung gibt es zahlreiche, die fundiert und wissenschaftlich abgesichert sind. 
Es bleibt zu wünschen, dass es in Zukunft den beteiligten Disziplinen Psychologie, Philosophie, Soziologie, Ingenieurswissenschaften und Informatik gelingen möge, ein gemeinsames Verständnis zu entwickeln.
LINKS
  • Oliver Schmerold, Direktor des Österreichischen Automobil-, Motorrad- und Touring Clubs (ÖAMTC); im Interview mit Peter Rosenberger, Journalist in Bodman-Ludwigshafen, 8.5.2019: https://new.siemens.com/global/de/unternehmen/stories/mobilitaet/mobility-is-going-to-be-safer-and-more-mixed.html  (Download: 30.3.2018).
  • Institut für Technikfolgen-Abschätzung der Österreichischen Akademie der Wissenschaften: https://www.oeaw.ac.at/ita (Download: 30.3.2018).
  • Gründung der Ethikkommission des Verkehrsministeriums zu automatisiertem Fahren in Deutschland, 2016: https://www.itas.kit.edu/2016_048.php (Download: 30.3.2018).
  • Wissenschaftliche Würdigung Gorokhovs in der Ausgabe (3/2016) der Zeitschrift für Technikfolgenabschätzung in Theorie und Praxis: http://www.tatup-journal.de/tatup163_grun16a.php (Download: 30.3.2018).
  • NetMediaEurope Deutschland GmbH: silicon.de: https://whitepaper.silicon.de/resource/idc-mittelstaendische-unternehmen-beschleunigen-die-digitale-transformation-mithilfe-von-analysen (Download: 30.3.2018).
  • Charta der Digitalen Grundrechte der Europäischen Union: https://digitalcharta.eu (Download: 30.3.2018).
LITERATUR
  • [1] Rothmeier-Kubinecz, S. (2019). „Automatisierung am Beispiel autonomes Fahren“. Teil 1: Automatisierungsstrategien. Sichere Arbeit, Heft 2. Wien: S. 27–33. Wien: Medieninhaber AUVA
  • [2] Rothmeier-Kubinecz, S. (2019). „Automatisierung am Beispiel autonomes Fahren“. Teil 2: Motivation. Sichere Arbeit, Heft 3. Wien: S 42–46. Wien: Medieninhaber AUVA
  • [3] Rothmeier-Kubinecz, S. (2019). „Automatisierung am Beispiel automatisiertes Fahren“. Teil 3: Situation Awareness (SA) – Situationsbewusstheit. Sichere Arbeit, Heft 4: S. 39–45. Wien: Medieninhaber AUVA
  • [4] Musahl, H.-P. (2007). Fehlerfreundlichkeit. Kognitionspsychologische Herausforderungen eines komplexen Störungsmanagements in Mensch-Maschine-Systemen. In: VDI Wissensforum (Hrsg.), Instandhaltung auf dem Prüfstand. Tagung, Stuttgart, 19.–20.6.2007 (S. 1–19), VDI-Berichte Nr. 1991. Düsseldorf: VDI-Verlag.
  • [5] Sträter, O. (2010). Unfallanalyse, Sicherheit, mentale Belastung. Seminarunterlagen AK Wien. September 2010.
  • [6] Dörner, D. (2003). Die Logik des Misslingens. Hamburg: Rowohlt Taschenbuch Verlag GmbH.
  • [7] Hacker, W. & Sachse, P. (2014). Fehlhandlungen und Handlungsfehler. S. 421–458. In: Allgemeine Arbeitspsychologie (3. vollständig überarbeitete und ergänzte Auflage). Bern: Verlag Hans Huber.
  • [8] Reason, J. (1992). Human Error (3rd ed.). Cambridge University Press.
  • [9] Badke-Schaub P., Hofinger G., Lauche K. (2012). Human Factors. Psychologie sicheren Handelns in Risikobranchen. 2., überarbeitete Auflage. Heidelberg: Springer Medizin.
  • [10] Lenk, H. (2009). Sicherheitsprobleme bei wirtschaftlich-technischen Großprojekten und Operationalisierbarkeit von Verantwortung, S. 9–36. In: Maring, M. (Hrsg.) (2009). Verantwortung in Technik und Ökonomie. Karlsruhe: KIT Scientific Publishing. https://books.openedition.org/ksp/2503

Zusammenfassung

Der vierte und letzte Teil dieser Serie setzt sich mit dem fehlerhaften und zuverlässigen Menschen auseinander. Was weiß man aus psychologischer Sicht und was folgt daraus für das autonome Fahren als Beispiel für Automatisierung?

Artikel weiterempfehlen