Generic Error Modeling System

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Beim Generic Error Modeling System (GEMS) handelt es sich um ein Modell zur Beschreibung und Erklärung menschlicher Fehler, das drei Ebenen der kognitiven Handlungssteuerung unterscheidet: eine fertigkeitsbasierte, eine regelbasierte und eine wissensbasierte Ebene. Das Modell beruht auf der Annahme, dass menschliche Fehler ihre Ursache in der Steuerung von Handlungen und der Verarbeitung von Informationen haben.[1] Das Modell wurde ursprünglich im Jahr 1990 vom britischen Psychologen James T. Reason (Universität Manchester) entwickelt und fand seither große Akzeptanz.[2]

Entstehung des Generic-Error-Modeling-Systems[Bearbeiten | Quelltext bearbeiten]

Das GEMS findet seinen Ursprung in einer Kombination des Swiss-Cheese-Models und des SRK-Modells (SRK steht hierbei für Skill, Rule & Knowledge und entspricht den drei Ebenen der kognitiven Handlungssteuerung im GEMS[2]).[3] Das Swiss-Cheese-Model wurde im Jahr 1987 von James T. Reason und John Wreathall (einem Ingenieur aus dem Nuklearen Arbeitssektor) begründet und regelmäßig weiterentwickelt. Das SRK-Model wurde im Jahr 1983 vom dänischen Psychologen Jens Rasmussen entwickelt.[4]

Die Entwicklung des GEMS stellt den Wechsel von Reason´s vorwiegend theoretischer Forschungsarbeit zu menschlichen Fehlern (dem Swiss-Cheese-Model) hin zu einer angewandten Forschung (in Form des GEMS) dar. Dieser Wechsel wurde durch Reason´s Arbeit im Bereich des Nuklearen Sektors begünstigt.[4]

Beginn der Forschungsarbeit zu menschlichen Fehlern[Bearbeiten | Quelltext bearbeiten]

Den Ursprung für Reason´s Forschung zu menschlichen Fehlern bildete ein im Jahr 1977 von Reason selbst erlebter Verwechslungsfehler beim Füttern dessen Katze (er soll den Futternapf der Katze mit seiner Teetasse verwechselt haben). Dies verblüffte ihn derart, dass er begann ein Tagebuch über seine eigenen täglichen Fehler zu führen. Nachdem er sich auch in seiner Tätigkeit als Professor der Kognitionspsychologie zehn Jahre lang mit dem Forschungsthema der alltäglichen Fehler befasst hatte, veröffentlichte er 1987 schließlich eine Taxonomie unsicherer Handlungen. Als Experte auf dem Fachgebiet menschlicher Fehler, referierte Reason auf diversen internationalen Kongressen zu diesem Thema, wo er im Jahr 1981 den Ingenieur John Wreathall kennenlernte. Die beiden wurden Kollegen und gute Freunde.[4]

Die Bedeutung des Nuklearen Sektors für die Entstehung des GEMS[Bearbeiten | Quelltext bearbeiten]

Reason und Wreathall forschten gemeinsam an Modellen zur Unfallprävention, wobei sie ihren Schwerpunkt auf die Erforschung von Unfällen im Nuklearen Arbeitssektor legten. Gründe hierfür waren unter anderem, dass Wreathall bereits in diesem Sektor beruflich tätig war, dass sich in den 1980er Jahren mehrere Unfälle in Atomkraftwerken ereignet hatten (z. B. Tschernobyl) und Reason die Chance ergriff, seine Forschungsarbeit anhand realer Daten aus dem Alltag in Atomkraftwerken noch weiter zu intensivieren. In Zusammenarbeit entwickelte das Forscherduo das Swiss-Cheese-Model, das die Ursache von Unfällen, an denen Menschen beteiligt sind, beschreiben soll.[4]

Kurz nach der Entwicklung des Swiss-Cheese-Models präsentierte Reason ein neues, erweitertes Fehlermodell, das Generic-Error-Modeling-System. Dieses soll über die theoretischen Annahmen des Swiss-Cheese-Models hinaus die Prozesse hinter dem Verhalten von Menschen beim Lösen von Problemen abbilden, indem es auf konkrete Arbeitstätigen eingeht.[4]

Definition menschlicher Fehler[Bearbeiten | Quelltext bearbeiten]

Reason definiert den menschlichen Fehler als einen Oberbegriff, der alle Ereignisse umfassen soll, in denen eine geplante kognitive oder körperliche Tätigkeit nicht zu dem vorgesehenen Ergebnis führt und wenn gleichzeitig anzunehmen ist, dass dieses Versagen nicht durch einen Zufall verschuldet wurde. Reason unterscheidet die fehlerhafte Anwendung einer gut geplanten Maßnahme, die er als Ausrutscher oder Versehen definiert (englisch: slips and lapses) auf der einen Seite und die korrekte Anwendung einer jedoch falsch geplanten Maßnahme, die er als Fehler definiert (englisch: mistakes) auf der anderen Seite.[2][3]

Modellbeschreibung[Bearbeiten | Quelltext bearbeiten]

Entstehung von Fehlern: Drei Ebenen der kognitiven Handlungssteuerung[Bearbeiten | Quelltext bearbeiten]

Im GEMS werden drei charakteristische Fehlertypen beschrieben, wobei jeder Fehlertyp einer Handlungssteuerungsebene zuzuordnen ist. Auf der fertigkeitsbasierten Ebene sind Ausrutscher und Versehen zu finden, auf der regelbasierten Ebene werden Verwechslungsfehler und Erkennungsfehler unterschieden und auf der wissensbasierten Ebene finden sich Denkfehler und Urteilsfehler.[5][6]

Fertigkeitsbasierte Fehler[Bearbeiten | Quelltext bearbeiten]

Einleitend kann gesagt werden, dass fertigkeitsbasierte Fehler dort auftreten, wo starke Routinen vorliegen, also immer wiederkehrende ähnliche Situationen, in denen ohne großem kognitiven Aufwand gehandelt wird.[7] Fertigkeitsbasierte Fehler zeichnen sich dadurch aus, dass zwar ein korrekter Handlungsplan vorliegt, die Ausführung dieses Plans jedoch fehlerhaft ist.[6]

Ausrutscher entstehen aufgrund eines Mangels an Aufmerksamkeit.[8] Daher können z. B. Gewohnheiten zu einem Ausrutscher führen, also wenn eine gewohnte Handlung weiterhin ausgeführt wird, obwohl eine neue Vorgehensweise korrekt wäre. Beispiele hierfür können der Umstieg auf ein neues Computerprogramm oder eine neue Fertigungsanlage sein.[6]

Versehen entstehen durch Erinnerungsfehler.[8] Bei einem Versehen wird während einer Handlung das ursprüngliche Ziel der Tätigkeit vergessen, z. B. wenn bei der Abarbeitung einer umfangreichen Liste an Erledigungen Teilbereiche vergessen werden, deren Fehlen nicht unmittelbar bemerkbar ist. Konkreter könnte dies der Fall sein, wenn bei Wartungsarbeiten einzelne Teilschritte oder gar eine ganze Maschine vergessen werden.[6]

Es kann gefolgert werden, dass es sich bei Versehen um sicherheitstechnisch schwerwiegendere Fehler handelt, als bei Ausrutschern. Grund hierfür ist, dass Versehen schwieriger zu identifizieren sind und sich deshalb auch weniger einfach berichtigen lassen.[6]

Regelbasierte Fehler[Bearbeiten | Quelltext bearbeiten]

Für die regelbasierten Fehler spielen Gewohnheiten ebenfalls eine große Rolle[7]. Hier liegt der umgekehrte Fall zu den fertigkeitsbasierten Fehlern vor, da ein grundsätzlich falscher Handlungsplan aufgestellt, dieser jedoch korrekt ausgeführt wird. Ursache für die Wahl eines falschen Plans ist in den meisten Fällen eine Fehleinschätzung der vorliegenden Situation. Ursache wiederum für eine solche Fehleinschätzung ist typischerweise eine zu stark vereinfachte Wahrnehmung der Situation, aufgrund von Voreingenommenheiten, oder das Fehlen eines passenden Handlungsschemas.[6]

Bei Verwechslungsfehlern wird eine Situation falsch klassifiziert, also einer falschen, aber in der Regel sehr ähnlichen Kategorie zugeordnet, wodurch eine für die vorliegende Situation unangemessene Aktion ausgeführt wird. Die Aktion wäre für die zugeordnete Kategorie zwar angemessen, die Kategorie ist jedoch in der Situation falsch gewählt. Ein Beispiel für einen typischen Verwechslungsfehler wäre, wenn für das Löschen eines Öl-Brandes Wasser verwendet wird.[6]

Bei Erkennungsfehlern werden Rückmeldungen aus der Umgebung übersehen oder verwechselt, obwohl diese gut erkennbar sind. Ein Beispiel hierfür wäre, wenn ein Warnsignal an einer Maschine übersehen wird – z. B. wenn die Maschine Gefahr läuft zu überhitzen, eine Kontrollleuchte dies anzeigt, jedoch nicht darauf reagiert wird und die Maschine weiter verwendet wird.[6]

Wissensbasierte Fehler[Bearbeiten | Quelltext bearbeiten]

Wissensbasierte Fehler treten in Situationen auf, in denen keine routinierten Vorgehensweisen für das Bewältigen einer Aufgabe vorliegen, sondern selbstständig Lösungswege entwickelt werden müssen. Hierbei können unter anderem Fehler auftreten, wenn die Situation nicht korrekt eingeschätzt wird, ungeeignete Ziele aufgestellt werden oder im Zuge der Planung wichtige Teilhandlungen vergessen werden. Wissensbasierte Fehler entstehen vor allem durch die „begrenzte Rationalität“ des Menschen beim Versuch Probleme zu lösen. Menschen neigen wegen ihrer eingeschränkten Informationsverarbeitungskapazität dazu komplexe Probleme zu vereinfachen. Dadurch entsteht jedoch die Gefahr, dass etwas übersehen, ausgelassen oder nicht berücksichtigt wird, oder dass unvollständige bzw. suboptimale Regeln als Entscheidungsgrundlage herangezogen werden.[6]

Wenn ein wissensbasierter Fehler innerhalb der Planungsphase passiert, spricht man von Denkfehlern. In der Regel wird hierbei Wissen, das eigentlich verfügbar wäre, nicht korrekt angewendet. Ein Beispiel wäre, wenn beim Reinigen einer Anlage nicht berücksichtigt wird, dass vor dem Durchspülvorgang bestimmte Ventile geschlossen werden müssen und in weiterer Folge die Spülflüssigkeit austritt.[6]

Tritt der Fehler in der Rückmeldungsphase einer Handlung auf, also wenn die Reaktion bzw. Rückmeldung eines Systems an die anwendende Person von dieser falsch interpretiert wird, spricht man von Urteilsfehlern. Ein Beispiel könnte sein, dass bei der Herstellung eines neuartigen Flüssigkeit-Gas-Gemisches das einen veränderten Siedepunkt aufweist als ein zuvor verwendetes, die Anzeige der Anlage die dies anzeigen würde falsch interpretiert wird und in weiterer Folge Explosionsgefahr besteht.[6]

Beschreibung des Prozesses bei der Lösung von Problemen[Bearbeiten | Quelltext bearbeiten]

Schematische Darstellung des Generic-Error-Modeling-System in Anlehnung an U.S. Department of Energy (2009)[9]

Die einzelnen Schritte zur Aufgabenbewältigung im Sinne des GEMS durchlaufen eine komplexe Abfolge, die zum besseren Verständnis üblicherweise schematisch dargestellt und im Folgenden kurz beschrieben wird.[6][9]

Fertigkeitsbasierte Ebene

Wenn Menschen ihrer Arbeit nachgehen besteht in der Regel ein bedeutsamer Teil der Arbeitstätigkeiten aus routinierten Aufgaben, die wenig bewusste Aufmerksamkeit erfordern. Dennoch wird von der arbeitenden Person regelmäßig überprüft, ob der Arbeitsvorgang korrekt abläuft und sofern dies der Fall ist, wird die Aufgabe wie gehabt weitergeführt und auf der fertigkeitsbasierten Ebene fertiggestellt.[6][9]

Regelbasierten Ebene

Wenn sich jedoch herausstellt, dass ein Problem aufgetreten ist – z. B. durch eine blinkende Kontrollleuchte ersichtlich – geht die arbeitende Person zur regelbasierten Ebene über. Dort wird die vorliegende Problemsituation dahingehend analysiert, ob es sich um ein bekanntes Problem handelt dem eine Regel nach dem Schema "Wenn Situation X gegeben ist, dann ist Aktion Y zu wählen" zugrunde liegt. Ist eine Lösung des Problems mit einer solchen "Wenn-Dann-Regel" erfolgreich möglich, geht die arbeitende Person zurück zur fertigkeitsbasierten Ebene über, um den Arbeitsvorgang weiterzuführen und fertigzustellen.[6][9]

Wissensbasierten Ebene

Liegt keine Regel zur erfolgreichen Problembewältigung vor, wechselt die arbeitende Person zur wissensbasierten Ebene. Es wird versucht Analogien oder Teilmerkmale der Problemsituation mithilfe vorliegender Mentaler Modelle zu identifizieren und im nächsten Schritt werden neue Lösungsansätze ausprobiert und deren Ergebnisse überwacht. Dieser Vorgang wiederholt sich, bis entweder eine passende Lösung gefunden wurde (woraufhin die arbeitende Person die Aufgabe auf fertigkeitsbasierter Ebene zu Ende führt), oder aber es wird auch nach mehreren Versuchen keine passende Lösung gefunden, woraufhin die arbeitende Person in der Regel alleine nicht mehr weiter weiß und sich an jemanden wenden sollte.[6][9]

12 Prinzipien menschlicher Fehler[Bearbeiten | Quelltext bearbeiten]

Um menschliche Fehler noch besser zu verstehen, entwickelte James T. Reason zwölf theoriebasierte Grundsätze. Das Wissen über diese, soll bei der Umsetzung eines effektiven Fehlermanagements unterstützen. Die Prinzipien sollen präventiv und systematisch eingesetzt werden. Die zwölf Prinzipien werden nachfolgend aufgelistet.[3][10]

1. Menschliche Fehler sind universell und unvermeidbar
Menschliche Fehler sind keine Frage des Gewissens. Menschliche Fehlbarkeit kann zwar gemäßigt, aber niemals eliminiert werden und das sollte sie auch nicht, da sie zum Mensch sein dazugehört.
2. Fehler sind an sich nicht schlecht
Erfolge und Fehler haben denselben psychologischen Ursprung. Ohne Erfolge und Fehler wäre der Mensch nicht in der Lage die Fähigkeiten zu lernen bzw. zu erwerben, die für sicheres und effizientes Arbeiten nötig sind. Fehler können als Begrenzungen verstanden werden, die helfen den richtigen Weg zu finden.
3. Man kann zwar die Bedingung des Menschseins an sich nicht ändern, aber man kann die Arbeitsbedingungen unter denen Menschen arbeiten verändern
Bei der Entstehung eines Fehlers spielen zwei Aspekte eine Rolle: der Geisteszustand eines Menschen und die Situation in der sich dieser Mensch befindet. Der Geisteszustand (z. B. Unaufmerksamkeit oder gelegentliche Vergesslichkeit) kann nicht geändert werden, die Situation jedoch schon. Situationen unterscheiden sich stark darin, in welchem Ausmaß sie ungewollte Handlungen provozieren. Die Identifikation von besonders Fehler provozierenden Situationen, sowie das Erkennen deren Kennzeichen sind essentielle vorbereitende Maßnahmen im Zuge eines wirksamen Fehlermanagements.
4. Die fähigsten Personen sind in der Lage die schlimmsten Fehler zu begehen
Niemand ist vor Fehlern gefeit. Es ist ein Irrglaube, dass bestimmte Personen anfälliger für Fehler sind und die Entlassung dieser alle Probleme löst. Auch jemandem mit jahrzehntelanger Erfahrung kann irgendwann ein Fehler unterlaufen. Da die fähigsten Personen oft die verantwortungsvollsten Positionen innehaben, können deren Fehler folglich die größten Auswirkungen haben.
5. Es fällt Personen schwer, Handlungen zu vermeiden, die sie nicht mit Absicht ausführen
Personen für ihre Fehler die Schuld zuzuschreiben erscheint auf den ersten Blick zwar zufriedenstellend, ist jedoch nutzlos. Strafen sind nur dann sinnvoll, wenn eine schädliche Handlung mit böser Absicht begangen wurde, nicht aber wenn ein unbeabsichtigter Fehler eintritt. Schuldzuweisung und Verantwortlichkeit sollten nicht verwechselt werden. Jeder sollte für seine Fehler zur Verantwortung gezogen werden, sowie diese Fehler zugeben und sich bemühen eine Wiederholung zu vermeiden.
6. Fehler sind Folgen und keine Ursachen
Fehler haben eine Geschichte. In der Regel entstehen sie als Folge des Zusammenspiels komplexer Faktoren (z. B. Aufgabenstellungen, Menschen, Arbeitsplätze und organisationale Faktoren). Die Aufdeckung eines Fehlers leitet den Beginn der Suche nach Ursachen ein, nicht das Ende. Nur wenn wir die Umstände verstehen, können wir hoffen die Wahrscheinlichkeit für ein Wiederauftreten zu begrenzen.
7. Viele Fehler fallen auf wiederkehrende Verhaltensweisen zurück
Es wird zwischen Fehlern unterschieden, die einmalig auftreten und solchen die immer wieder auftreten, weil sich beispielsweise falsche Gewohnheiten eingeschlichen haben oder eine unzureichende Kommunikation innerhalb einer Organisation vorliegt. Zu den Gewohnheitsfehlern zählt z. B. das Übersehen von einzelnen Aspekten bei komplexen Handlungsabfolgen. Da wiederkehrende Fehler deutlich häufiger vorkommen als einmalige, sind Maßnahmen im Zuge des Fehlermanagement am effektivsten die auf diese Art von Fehlern abzielen.
8. Sicherheitsrelevante Fehler können in allen Bereichen eines Systems auftreten
Fehler können innerhalb aller Ebenen einer Organisation auftreten – sowohl bei sogenannten Facharbeitskräften, als auch in der Führungsebene. Methoden des Fehlermanagements müssen daher im gesamten System Anwendung finden.
9. Beim Fehlermanagement geht es darum, das zu regeln was auch regelbar ist
Situationen und sogar Systeme können kontrolliert werden, die menschliche Natur – im weitesten Sinne – jedoch nicht. Menschen haben eine natürliche Neigung manchmal ablenkbar oder unaufmerksam zu sein, gedanklich auf etwas so fokussiert zu sein, dass anderes nicht mehr wahrgenommen wird oder gelegentlich Dinge zu vergessen. Leider versuchen viele Organisationen (erfolglos), wenn Fehler auftreten diese menschlichen Eigenschaften zu beseitigen, statt am System oder der Situation etwas zu ändern. Der Großteil der vorliegenden effektiven Lösungsansätze bezieht sich jedoch in erster Linie auf technische, prozessbezogene und organisatorische Faktoren, statt auf rein psychologische Maßnahmen.
10. Beim Fehlermanagement geht es darum gute Leute hervorragend werden zu lassen
Beim Fehlermanagement geht es nicht darum zu Fehlern neigende Personen etwas besser zu machen, sondern gut ausgebildete und hoch motivierte Personen noch weiter zu verbessern. Dafür braucht es Schulungen und Übung, um sowohl fachliche als auch mentale Kompetenz zu erlangen. Mentale Kompetenz zeigt sich vor allem darin, dass hervorragend handelnde Personen sich für gewöhnlich routinemäßig auf potenziell herausfordernde Tätigkeiten vorbereiten, indem sie verschiedene Situationen und mögliche Verhaltensweisen im Geiste durchgehen. Dadurch entwickeln sie eine mentale Bereitschaft, die schnelles zielgerichtetes Handeln im Ernstfall ermöglicht. Methoden die die Fähigkeit zur Fehlererkennung verbessern sind genauso wichtig, wie die Erzeugung eines Bewusstseins dafür, wie Fehler überhaupt entstehen.
11. Es gibt nicht „den einen“ richtigen Weg
Es gibt kein Universalkonzept, dass für jede Organisation und jeden Fehler anwendbar ist. Fehlern liegen verschiedene Ursachen zugrunde, daher bedürfen verschiedene Probleme unterschiedlicher Lösungsmethoden. Organisationen sollten auf Basis dieser zwölf Prinzipien individuelle Konzepte entwickeln, die zu ihrem Unternehmen passen – so wird auch die Bereitschaft der Belegschaft erhöht die Maßnahmen zu befolgen.
12. Wirkungsvolles Fehlermanagement braucht kontinuierliche Verbesserungen und nicht nur lokale Fehlerkorrekturen
Gerade weil die Versuchung oft groß ist sich lediglich auf die zuletzt in einem System aufgetretenen Fehler zu fokussieren, ist es wichtig zu wissen, dass dies nicht zielführend ist. Vielmehr ist ein kontinuierlicher Prozess zur Verbesserung eines Systems nötig. Hierfür braucht es sowohl verbesserte Arbeitsbedingungen für die Mitarbeiterschaft, als auch eine Verstärkung bzw. Ausweitung von Sicherheitsmaßnahmen innerhalb des Systems. Ziel sollten zudem immer Maßnahmen sein, die ganze Gruppen von Fehlertypen eindämmen und nicht nur einzelne Fehler.

Rezeption[Bearbeiten | Quelltext bearbeiten]

Beim GEMS handelt es sich um ein sehr bekanntes Modell im Bereich von menschlichen Fehlern. Daher findet das Modell in verschiedenen Bereichen Anwendung und wird vielfach diskutiert und zum Teil auch kritisiert.

Anwendung in der Praxis[Bearbeiten | Quelltext bearbeiten]

Das GEMS wurde und wird nach wie vor immer wieder von diversen Fachbereichen aufgegriffen und auf die jeweiligen vorliegenden potenziellen Fehlerquellen übertragen. So wurde das GEMS beispielsweise dafür herangezogen eine Taxonomie von Fehlern, die im Zusammenhang des Lenkens von Fahrzeugen (PKW und LKW), entstehen können zu entwickeln. Durch das mithilfe des GEMS erlangte bessere Verständnis zur Entstehung menschlicher Fehler gelang es sogar, aufbauend auf dieser Taxonomie, intelligente Lösungen zur Prävention häufig auftretender Fehler beim Lenken von Fahrzeugen zu entwickeln.[11] Eine weitere Anwendung des GEMS findet sich z. B. im Bereich der Informationssicherheit. Hier wird das GEMS sogar als das am besten passende Modell (weil inhaltlich umfangreich und leicht verständlich) für die Entwicklung eines soziotechnischen Ansatzes zur Identifikation und Prävention von Fehlern im technischen Arbeitssektor, bezeichnet. Denn auch der Faktor Mensch muss als zentraler Akteur bei technischen Problemen berücksichtigt werden.[12] Auch im medizinischen Kontext findet das GEMS Anwendung. So wurden unter Zuhilfenahme des Modells Fehler im Bereich der Geburtshilfe identifiziert und in weiterer Folge Strategien entwickelt, um diese Fehler in Zukunft zu minimieren und somit die Sicherheit für werdende Mütter noch weiter zu erhöhen.[13] Als weitere Fachbereiche die das GEMS bisher bereits verwendet haben seien folgende zu nennen: Luftfahrt, Marine, Gesundheitswesen, Eisenbahn, Verteidigungssektor, Nuklearer Sektor, Öl- und Gas-Branche sowie der Verkehrssektor.[4]

Kritik am Modell[Bearbeiten | Quelltext bearbeiten]

Dem GEMS wird immer wieder vorgeworfen, dass es ein zu stark theoretisches Modell darstellt, das nur selten vollständig auf real existierende Situationen umzulegen ist. Dem Modell wird vorgeworfen, dass eine umfangreiche Datenerhebung, welche in der Regel nur im Rahmen wissenschaftlicher Forschung erfolgt, Voraussetzung ist, um sinnvoll mit dem Modell arbeiten zu können. Vielmehr sei es jedoch wichtig, das Modell direkt auf bereits vorliegende Situationen im beruflichen Alltag anwenden zu können.[14]

Ein weiterer kritisierter Aspekt am Modell ist, dass eine eindeutige Differenzierung der verschiedenen Ebenen (fertigkeitsbasiert, regelbasiert und wissensbasiert) im Praxisalltag nicht immer möglich ist. Es werden Überschneidungen z. B. zwischen der regelbasierten und der wissensbasierten Ebene diskutiert, da in der Praxis beobachtet wurde, dass auch neue, weniger komplexe Probleme in kleine Einheiten zerteilt werden, um mithilfe bekannter Regeln Lösungen zu finden. Auch Reason selbst scheint sich diesem Problem der Zweideutigkeit bewusst zu sein, da er selbst in einer früheren Modelanpassung Änderungen in der Zuordnung von Fehlern auf der regelbasierten bzw. wissensbasierten Ebene vornahm.[15]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. Friedemann W. Nerdinger, Gerhard Blickle, Niclas Schaper: Arbeits- und Organisationspsychologie. 4. Auflage. Springer-Verlag GmbH, Berlin 2019, ISBN 978-3-662-56665-7, S. 554–558.
  2. a b c James T. Reason: Human error. 1. Auflage. Cambridge University Press, Cambridge 1990, ISBN 978-0-521-31419-0.
  3. a b c Alan Hobbs, James T. Reason: Managing Maintenance Error: A Practical Guide. 1. Auflage. CRC Press, Boca Raton 2003, ISBN 978-0-7546-1591-0, S. 96–101.
  4. a b c d e f Justin Larouzee, Franck Guarnieri: From Theory to Practice: Itinerary of Reasons' Swiss Cheese Model. CRC Press, Zürich 2015, ISBN 978-1-138-02879-1, S. 817–824.
  5. Bernd Markus: Einführung in die Arbeits- und Organisationspsychologie. In: Jürgen Kriz (Hrsg.): Basiswissen Psychologie. 1. Auflage. VS Verlag für Sozialwissenschaften, Wiesbaden 2011, ISBN 978-3-531-16724-4, S. 67.
  6. a b c d e f g h i j k l m n o Friedemann W. Nerdinger, Gerhard Blickle, Niclas Schaper: Arbeits- und Organisationspsychologie. 4. Auflage. Springer-Verlag GmbH, Berlin 2019, ISBN 978-3-662-56665-7, S. 555–556.
  7. a b Debra Bingham: Applying the Generic Errors Modeling System to Obstetric Hemorrhage Quality Improvement Efforts. In: Journal of Obstetric, Gynecologic & Neonatal Nursing. Band 41, Nr. 4, 2012, S. 540–550, doi:10.1111/j.1552-6909.2012.01373.x.
  8. a b Alan Hobbs, James T. Reason: Managing Maintenance Error: A Practical Guide. CRC Press: Taylor & Francis Group, Boca Raton 2003, ISBN 978-0-7546-1590-3, S. 39–62.
  9. a b c d e U.S. Department of Energy: Human Performance Improvement. Handbook Volume 1: Concepts and Principles. Area HFAC, Washington D.C. Juni 2009, Kap. 2, S. 20–21.
  10. Aerossurance: James Reason’s 12 Principles of Error Management. In: Aerossurance Limited. Aerossurance Limited, 2. Dezember 2014, abgerufen am 10. April 2021.
  11. Neville A. Stanton, Paul M. Salmon: Human error taxonomies applied to driving: A generic driver error taxonomy and its implications for intelligent transport systems. In: Safety Science. Band 47, Nr. 2, Februar 2009, S. 227–237, doi:10.1016/j.ssci.2008.03.006 (elsevier.com [abgerufen am 30. Juli 2021]).
  12. Sacha Brostoff, M. Angela Sasse: Safe and Sound: A Safety-Critical Approach to Security. Association for Computing Machinery, Cloudcroft, New Mexico 10. September 2001, S. 41–50, doi:10.1145/508171.508178.
  13. Debra Bingham: Applying the Generic Errors Modeling System to Obstetric Hemorrhage Quality Improvement Efforts. In: Journal of Obstetric, Gynecologic & Neonatal Nursing. Band 41, Nr. 4, Juli 2012, S. 540–550, doi:10.1111/j.1552-6909.2012.01373.x (elsevier.com [abgerufen am 30. Juli 2021]).
  14. Using system simulation to model the impact of human error in a maritime system. In: Safety Science. Band 30, Nr. 1-2, 1. Oktober 1998, ISSN 0925-7535, S. 235–247, doi:10.1016/S0925-7535(98)00048-4 (sciencedirect.com [abgerufen am 30. Juli 2021]).
  15. Douglas M. Stewart: Revising the Generic Error Modeling System. Hrsg.: University of New Mexico. New Mexico.