Technical ReportPDF Available

Fonds bibliographique Sir James Reason - Une vie dans l’erreur

Authors:
  • MINES ParisTech - PSL Research University

Abstract and Figures

Ce papier de recherche présente la création d’un fonds bibliographique "Sir James Reason". Psychologue anglais, James Reason est mondialement célèbre pour sa taxonomie de l’erreur humaine et son modèle étiologique de l’accident connu sous le nom de Swiss Cheese Model (SCM). Ce Papier de Recherche propose une courte biographie et une explication des principaux fondements des modèles de Reason avant de présenter la liste exhaustive des travaux publiés par Reason
Content may be subject to copyright.
Fonds bibliographique Sir James Reason - Une vie dans
l’erreur
Justin Larouz´ee, Franck Guarnieri
To cite this version:
Justin Larouz´ee, Franck Guarnieri. Fonds bibliographique Sir James Reason - Une vie dans
l’erreur. [Research Report] CRC WP 2015 25, MINES ParisTech. 2015, 16 p. <hal-01114474>
HAL Id: hal-01114474
https://hal-mines-paristech.archives-ouvertes.fr/hal-01114474
Submitted on 17 Feb 2015
HAL is a multi-disciplinary open access
archive for the deposit and dissemination of sci-
entific research documents, whether they are pub-
lished or not. The documents may come from
teaching and research institutions in France or
abroad, or from public or private research centers.
L’archive ouverte pluridisciplinaire HAL, est
destin´ee au d´epˆot et `a la diffusion de documents
scientifiques de niveau recherche, publi´es ou non,
´emanant des ´etablissements d’enseignement et de
recherche fran¸cais ou ´etrangers, des laboratoires
publics ou priv´es.
PAPIERS DE RECHERCHE WORKING PAPERS SERIES
CRC_WP_2015_25
(Janvier 2015)
FONDS BIBLIOGRAPHIQUE SIR JAMES REASON
UNE VIE DANS L’ERREUR
Justin Larouzée et Franck Guarnieri
CENTRE DE RECHERCHE SUR LES RISQUES ET LES CRISES
MINES ParisTech
PSL - Research University
Rue Claude Daunesse CS10207
06904 Sophia Antipolis Cedex, France
www.crc.mines-paristech.fr
CRC
PAPIERS DE RECHERCHE DU CRC
Cette collection a pour but de rendre aisément disponible
un ensemble de documents de travail et autres matériaux
de discussion issus des recherches menées au CRC
(CENTRE DE RECHERCHE SUR LES RISQUES ET LES CRISES).
Tous les droits afférant aux textes diffusés dans cette
collection appartiennent aux auteurs.
Des versions ultérieures des papiers diffusés dans cette
collection sont susceptibles de faire l’objet d’une
publication. Veuillez consulter la base bibliographique des
travaux du CRC pour obtenir la référence exacte d’une
éventuelle version publiée.
http://hal-ensmp.archives-ouvertes.fr
CRC WORKING PAPERS SERIES
The aim of this collection is to make easily available a set
of working papers and other materials for discussion
produced at the CRC
(CENTRE FOR RESEARCH ON RISKS AND CRISES).
The copyright of the work made available within this
series remains with the authors.
Further versions of these working papers may have been
submitted for publication. Please check the bibliographic
database of the CRC to obtain exact references of possible
published versions.
http://hal-ensmp.archives-ouvertes.fr
CENTRE DE RECHERCHE SUR LES RISQUES ET LES CRISES
MINES ParisTech
PSL - Research University
Rue Claude Daunesse CS 10207
06904 SOPHIA ANTIPOLIS Cedex, France
www.crc.mines-paristech.fr
1
Fonds bibliographique Sir James Reason
Une vie dans l’erreur
1
Justin Larouzée et Franck Guarnieri
Centre de recherche sur les Risques et les Crises
MINES ParisTech – PSL Research University
(Janvier 2015)
Résumé :
Ce papier de recherche présente la création d’un fonds bibliographique « Sir James
Reason ». Psychologue anglais, James Reason est mondialement célèbre pour sa taxonomie
de l’erreur humaine et son modèle étiologique de l’accident connu sous le nom de Swiss
Cheese Model (SCM). Ce Papier de Recherche propose une courte biographie et une
explication des principaux fondements des modèles de Reason avant de présenter la liste
exhaustive des travaux publiés par Reason.
Mots clefs : James Reason, Erreur Humaine, Modèle, Accident organisationnel, Fonds bibliographique.
1. Biographie de James Reason
Si les auteurs scientifiques sont faits pour être lus et cités, quelques repères sur leur itinéraire
académique et professionnel nous rapprochent d‘eux, nous éclairant ainsi sur leurs objets de
recherche voire sur les processus même de leur analyse. La biographie qui suit permet de
livrer quelques informations sur l‘auteur afin de replacer ses différents travaux dans son
itinéraire de chercheur et dans le contexte d‘une époque.
James Reason est né en Angleterre, près de Londres, le 1er mai 1938. Il débute des études en
médecine, mais réoriente sa carrière académique vers la psychologie. La petite histoire
raconte qu‘il aurait pris sa décision, assis dans une cafétéria située à proximité d‘un grand
hôpital psychiatrique de Londres, foudroyé par le charme d‘un groupe d‘étudiantes en
psychologie appliquée. Quelques années plus tard, il épousera l‘une d‘entre elles.
Diplômé de l‘Université de Manchester en 1962, le jeune psychologue travaille sur
l‘ergonomie des cockpits pour l‘Institut de médecine aéronautique de la Royal Air Force à
Farnborough (de 1962 à 1964) puis de l‘Institut de médecine U.S. Naval Aerospace en
Floride. En 1967, il soutient une thèse de psychologie consacrée au mal des transports à
l‘Université de Leicester.
De 1967 à 1976, Reason conduit de nombreuses recherches sur la désorientation sensorielle
et le mal des transports à l‘Université de Leicester avant de rejoindre, en 1977, l‘Université
de Manchester en tant que professeur de psychologie.
1
Ce sous-titre, « Une vie dans l‘erreur » est un clin d‘œil à l‘ouvrage de James Reason, A Life in Error: From Little
Slips to Big Disasters: Ashgate Publishing, Ltd. 2013.
2
De 1977 à 1987, Reason étudie les erreurs du quotidien. Contemporain de Don Norman ou
Jens Rasmussen, il voit dans l‘étude de ces dysfonctionnements cognitifs (de l‘attention, de
la mémoire) des clefs d‘étude du fonctionnement nominal du cerveau. Ces travaux
l‘amènent à participer à un cycle de conférences internationales relatives à l‘erreur humaine,
financées par l‘OTAN. Reason y noue des liens avec des professionnels issus de l‘industrie
et de l‘ingénierie, notamment avec l‘ingénieur nucléaire américain John Wreathall.
La collaboration de Reason et Wreathall fera naître, en 1990, un modèle d‘accident
organisationnel. Ce modèle évoluera jusqu‘en 2000 où il sera publié dans la revue médicale
anglaise BMJ sous la forme du Swiss Cheese Model. Ce modèle « du fromage Suisse » est
l‘un des plus utilisés par les préventeurs et dans les enquêtes accidents.
Reason poursuit d‘une part ses travaux de recherche appliqués à la sécurité industrielle et
l‘enseignement de la psychologie. En 2001, il devient professeur émérite de l‘Université de
Manchester. Sa longue carrière scientifique (1967-2013) lui a valu de nombreuses
reconnaissances, il est notamment membre de la Bristish Psychological Society, de la Royal
Aeronautical Society, de la Bristish Academy, du Royal College of General Practitioners. En
2003, il est nommé Commandeur de l‘ordre de l‘Empire Britannique, prestigieuse
distinction reconnaissant l‘apport de ses travaux dans la réduction des risques dans le milieu
hospitalier (Guarnieri & Besnard, 2013 ; Larouzée et al., 2014).
Le(s) modèle(s) de James Reason
Si il est coutume de parler « du » modèle de Reason en évoquant implicitement le Swiss
Cheese Model (figure 2), il conviendrait de parler « des » modèles de Reason (Larouzee &
Guarnieri, 2014). Le Swiss Cheese Model étant le fruit d‘itérations successives depuis la
publication, en 1990 (Reason, 1900), d‘un premier modèle d‘accident organisationnels.
Reason a progressivement évolué de l‘étude du mal des transports à celle des erreurs
quotidiennes (avec un spectre universitaire) pour « basculer » à la fin des années 1980, dans
le champ de la sécurité industrielle.
Ayant collaboré avec un ingénieur nucléaire américain John Wreathall, il publie dans son
livre L’Erreur Humaine une théorie explicative des accidents basée sur un modèle en cinq
éléments de tout système productif. Pour Reason et Wreathall, qu‘une organisation
appartienne aux secteurs primaire, secondaire ou tertiaire, elle repose sur :
1) Des décideurs de niveau politique, concepteurs et haut management du
système. Ils définissent les objectifs du système, allouent les moyens (finances,
équipement, ressources humaines) en fonction de ces objectifs et cherchent à
maximiser la production et la sécurité.
2) Une chaîne managériale, spécialisée par départements (maintenance,
opérations, transverse) qui décline la stratégie du niveau supérieur.
3) Des pré-conditions, à savoir des opérateurs qualifiés, une technologie et des
équipements adéquats. Elles sont garantes de l‘équilibre entre productivité et sécurité.
4) Des activités productives synchronisant les opérateurs et les machines dans le
temps.
5) Des défenses, constituées d‘un ensemble de mesures de protections visant à
maintenir le système opérationnel dans un environnement « à risques » (industriels,
naturels, etc.).
3
L‘accident peut se comprendre comme la combinaison complexe (et indésirable) de
défaillances de ces cinq niveaux. L‘apport majeur est la distinction de ces défaillances
(techniques, humaines et organisationnelles) entre des conditions dites latentes (éloignées
dans le temps et l‘espace de l‘accident) et des erreurs dites actives (commises par l‘opérateur
de première ligne).
Si le modèle met en exergue des liens causaux et chronologiques, il intègre une dimension
systémique (souvent négligée ou incomprise) dans la complexité, non linéaire, des effets des
conditions latentes. En 1993, une première évolution du modèle introduit un lien entre l‘état
des défenses (barrières) du système et des contingences organisationnelles (figure 1).
Figure 1 : Modèle d’accident organisationnel. Si les barrières d’un système peuvent être
affectées directement par les décisions managériales (chemin du bas), ces décisions
peuvent diffuser dans l’organisation (chemins du haut), créant dans les espaces de travail
les précurseurs aux erreurs ou violations (erreurs actives) des opérateurs. (D‘après
Reason, 1993).
Cette vision de l‘accident porte la thèse de Reason qui deviendra le paradigme dit de
l‘accident organisationnel, elle peut se résumer ainsi :
- Certains processus organisationnels (décisions concernant le planning, la
conception, les budgets, la maintenance) ont des conséquences indésirables et créer
des défaillances,
- Ces défaillances dites latentes se diffusent dans les diverses structures
organisationnelles jusqu‘aux espaces de travail où elles créent des conditions locales
(sous-effectif, incidents techniques, objectifs contradictoires, etc.) qui augmentent les
probabilités d‘erreurs.
- Ces actes non-sûrs sont liés à la combinaison des dispositions du système
(conditions locales) et de son environnement (monde extérieur). Bien que de
nombreux actes non-sûrs soient susceptibles d‘être commis (erreur humaines), ils
restent souvent sans conséquences, le système étant doté de barrières de défenses
(techniques, humaines et organisationnelles).
- Toutefois, les barrières, les audits sécurité, les normes et les procédures
peuvent également être affaiblies par les défaillances latentes ou les erreurs actives
(erreur, violations).
- L‘accident organisationnel survient lorsqu‘une erreur active se combine avec
un ensemble de conditions latentes et que les barrières n‘assurent pas (ou plus) la
protection du système.
En 1997, Reason publie dans un livre intitulé Managing the Risks of Organizational
Accidents (Reason, 1997) une évolution simplifiée de son modèle. Celle-ci ne conserve les
4
trois composantes de base d‘un accident (un danger, un enjeu, des défenses altérées) pour
mettre l‘accent sur les deux usages principaux que sont les enquêtes accidents (a posteriori)
et les démarche de prévention (a priori). Cette période correspond à une quête de
pragmatisme pour le psychologue dont les travaux sont résolument orientés vers le monde
industriel. Ce livre sera d‘ailleurs chaleureusement accueilli par la communauté des
préventeurs pour sa visée pratique.
En 2000, Reason publie une ultime version du modèle (Reason, 2000). Simplifiée à
l‘extrême et mnémotechnique, cette évolution symbolise les barrières par des tranches de
gruyère dont les trous représentent les défaillances. Il faut considérer ces trous comme
dynamiques (leurs tailles et leurs positions évoluent dans le temps au grès des audits,
maintenances, erreurs, etc.). L‘accident, symbolisé par une flèche, n‘est alors possible qu‘en
cas d‘alignement de ces trous (figure 2).
Figure 2 : Le modèle dans sa version populaire dite Swiss Cheese Model. (Reason, 2000)
Si la simplicité de cette représentation a soulevé depuis le milieu des années 2000 de
nombreuses critiques (e.g. Young et al., 2004 ; Dekker, 2006), celle-ci a surtout permis la
diffusion du modèle à de nombreux milieux industriels et le passage du paradigme de
l‘erreur humaine (l‘opérateur responsable de l‘accident) à celui de l‘accident
organisationnel.
Références
Dekker S. (2006). Past the edge of chaos. Technical Report 2006-03. Lund
University, School of Aviation ; Sweden.
Guarnieri F., Besnard D. (2013). Redécouvrir l’erreur humaine de James T. Reason.
(Préface à la deuxième Edition). In James Reason, L’erreur humaine. Paris, Presses
des Mines, Collection Economie et Gestion, 2013.
Larouzee J., Guarnieri F., Besnard D. (2014). Le modèle de l'erreur humaine de
James Reason. Papiers de Recherche du CRC, MINES ParisTech. 2014, 44 p.
Larouzee J., Guarnieri F. (2014). Huit idées reçues sur le(s) modèle(s) de l’erreur
humaine de James Reason. REE Revue Electricité et Electronique, 5, 83-90.
Reason J. (1990, éd. franç. 2013). L'erreur humaine. Presses des Mines, Economie et
Gestion, 404 p.
Reason J. (1993). The identification of latent organizational failures in complex
systems. In: Verification and Validation of Complex Systems – Human Factors
Issues. Edited by J.A. Wise, V.D. Hopkin & P. Stager. Computer and Systems
Sciences Vol. 110. 223-237.
5
Reason J. (1997). Managing the Risks of Organizational Accidents. Aldershot, UK:
Ashgate Publishing Limited.
Reason J. (2000 b.). Human Error: models and management. BMJ 2000, 320:768-
70.
Young M., Shorrock J., Faulkner J., Braithwaite G. (2004). Who moved my (Swiss)
cheese? The (r)evolution of human factors in transport safety investigation. ISASI,
Gold coast 2004, Australia.
6
Les références du fonds bibliographique James Reason
Le CRC de MINES ParisTech, en grande partie avec les travaux de thèse de Justin Larouzée, a
constitué un fonds bibliographique des publications de James Reason (figure 3). Cette base était, à
notre connaissance, inédite à ce jour. Elle rassemble à ce jour 135 références2. Les références en gras
correspondent aux ouvrages dont Reason est auteur principal.
Figure 3 : Histogramme des publications de James Reason. Sur la base de ces travaux d’étude bibliographique, un
découpage de ses publications en cinq phases articulées a été proposé (Larouzée et al., 2014).
James Reason, auteur principal
Reason, J. (1967). Relationships Between Motion After-effects Motion Sickness
Susceptibility and" receptivity": University of Leicester.
Reason, J. (1968a). An investigation of some factors contributing to individual
variation in motion sickness susceptibility. Ministry of Defence, Air Force
Department.
Reason, J. (1968b). Relations Between Motion Sickness Susceptibility, The Spiral
AfterEffect And Loudness Estimation. British Journal of Psychology, 59(4), 385-
393.
Reason, J. (1968c). Individual Differences In Auditory reaction time and loudness
estimation. Perceptual and Motor Skills, 26: 1089-1090.
Reason, J., & Benson, A. (1968d). Individual Differences In The Reported
Persistence Of Visual And Labyrinthine AfterSensations, And Of Exponentially
2
Elle n’inclut pas les références des traductions du livre Human Error (française, italienne, japonaise, allemande).
7
Decaying Visual And Auditory Signals. British Journal of Psychology, 59(2), 167-
172.
Reason, J. (1969a). Individual Differences In Motion Sickness Susceptibility: A
Further Test Of The ‗Receptivity‘hypothesis. British Journal of Psychology, 60(3),
321-328.
Reason, J. (1969b). Sickness in space. New Scientist. 2 october, 28-31.
Reason, J. (1969c). Motion sickness—some theoretical considerations. International
Journal of Man-Machine Studies, 1(1), 21-38.
Reason, J., & Graybiel, A. (1969a). Adaptation to Coriolis accelerations: its transfer
to the opposite direction of rotation as a function of intervening activity at zero
velocity: DTIC Document.
Reason, J., & Graybiel, A. (1969b). An Attempt To Measure The Degree Of
Adaptation Produced By Differing Amounts Of Coriolis Vestibular Stimulation In
The Slow Rotation Room: DTIC Document.
Reason, J. (1970). How stongly do you feel? New Society, 23 april. 678-682.
Reason, J. (1970b). Motion sickness: a special case of sensory rearrangement.
Advancement of science, 26(130), 386.
Reason, J., & Graybiel, A. (1971). The effect of varying the time interval between
equal and opposite Coriolis accelerations. British Journal of Psychology, 62(2), 165-
173.
Reason, J. (1972). Some correlates of the loudness function. Journal of Sound and
Vibration, 20(3), 305-309.
Reason, J., & Graybiel, A. (1973). Factors contributing to motion sickness
susceptibility: Adaptability and receptivity (Adaptability and receptivity factors
affecting motion sickness susceptibility in pilots). AGARD Predictability of Motion
Sickness in the Selection of Pilots 15 p.
Reason, J. (1974). Man in motion: The psychology of travel. London: Weidenfeld.
Reason, J. (1974). Motion Sickness And Mechanism Of Protective Adaptation. Paper
Presented At The Bulletin Of The British Psychological Society.
Reason, J., & Brand, J. J. (1975). Motion sickness. London: Academic Press.
Reason, J. (1976). Motion sickness and associated phenomena. Infrasound and Low
Frequency Vibration, 299-348.
Reason, J. (1977). Skill and error in everyday life. Adult learning. London: Wiley.
Reason, J. (1978a). Motion sickness adaptation: a neural mismatch model. Journal of
the Royal Society of Medicine, 71(11), 819.
Reason, J. (1978). Motion sickness: Some theoretical and practical considerations.
Applied ergonomics, 9(3), 163-167.
Reason, J. (1978b). The Passenger The analysis of practical skills (pp. 151-168):
Springer.
Reason, J., Wagner, H., & Dewhurst, D. (1981). A visually-driven postural after-
effect. Acta psychologica, 48(1), 241-251.
Reason, J., & Mycielska, K. (1982). Absent-minded?: The psychology of mental
lapses and everyday errors: Prentice-Hall Englewood Cliffs, NJ.
Reason, J. (1983). What Goes Absent In Absent-Mindedness. Paper Presented At The
Bulletin Of The British Psychological Society.
Reason, J., & MyCielska, M. (1983). Absent-mindedness. J. Nicholson & H. Belloff.
Psychology Survey(5).
Reason, J. (1984a). Lapses of attention in everyday life. Varieties of attention, 515-
549.
8
Reason, J. (1984b). Little Slips and, Big Disasters. Interdisciplinary Science
Reviews, 9(2), 179-189.
Reason, J. (1984c). Naturalistic Corpus-Gathering. Psychology Survey, 3.
Reason, J. (1984d). The psychopathology of everyday slips: Accidents happen when
habit goes haywire. The Sciences, 24(5), 45-49.
Reason, J. (1984e). Absent-mindedness and cognitive control. Everyday memory,
actions and absentmindedness, 113-132.
Reason, J., & Lucas, D. (1984a). Absentmindedness in shops: Its incidence,
correlates and consequences. British Journal of Clinical Psychology, 23(2), 121-131.
Reason, J., & Lucas, D. (1984b). Using cognitive diaries to investigate naturally
occurring memory blocks. Everyday memory, actions, and absent mindedness, 53-
70.
Reason, J. (1985). Slips and mistakes: two distinct classes of human error.
Contemporary ergonomics.
Reason, J. (1986). Recurrent errors in process environments: some implications for
the design of intelligent decision support systems Intelligent decision support in
process environments (pp. 255-270): Springer.
Reason, J. (1987a). A framework for classifying errors. New technology and human
error, 5-14.
Reason, J. (1987b). A preliminary classification of mistakes. J. Rasmussen, K.
Duncan & J. Leplat.(eds). New technology and human error. John Wiley & Sons Ltd,
Chichester.
Reason, J. (1987c). An interactionist‘s view of system pathology Information
systems: Failure analysis (pp. 211-220): Springer.
Reason, J. (1987d). Chernobyl errors. Bulletin of the British psychological society,
40, 201-206.
Reason, J. (1987e). Cognitive aids in process environments: prostheses or tools?
International Journal of Man-Machine Studies, 27(5), 463-470.
Reason, J. (1987f). Collective planning and its failures. New Technology and Human
Error. Wiley, New York.
Reason, J. (1987g). Generic error-modelling system (GEMS): A cognitive
framework for locating common human error forms. New technology and human
error, 63, 86.
Reason, J. (1987h). The psychology of mistakes: a brief review of planning failures.
New Technology and Human Error. Chichester: Wiley.
Reason, J. (1988a). Errors and evaluations: the lessons of Chernobyl. Paper
presented at the Human Factors and Power Plants, 1988., Conference Record for
1988 IEEE Fourth Conference on.
Reason, J. (1988b). Framework models of human performance and error: a
consumer guide. Paper presented at the Tasks, errors, and mental models.
Reason, J. (1988c). Modelling the basic error tendencies of human operators.
Reliability Engineering & System Safety, 22(1), 137-153.
Reason, J. (1988d). Stress and cognitive failure. In S. Fisher & J Reason (Eds)
Handbook of life stress, cognition and health. Chichester: Wiley.
Reason, J. (1990a). Human error. Cambridge university press.
Reason, J. (1990b). The age of the organizational accident.
Reason, J. (1990c). The contribution of latent human failures to the breakdown of
complex systems. Philosophical Transactions of the Royal Society of London. B,
Biological Sciences, 327(1241), 475-484.
9
Reason, J. (1990d). Types, tokens and indicators. Proceedings of the Human Factors
and Ergonomics Society Annual Meeting, 34(12), 885-889.
Reason, J., Manstead, A., Stradling, S., Baxter, J., & Campbell, K. (1990). Errors
and violations on the roads: a real distinction? Ergonomics, 33(10-11), 1315-1332.
Reason, J., Manstead, A., Stradling, S., Parker, D., & Baxter, J. (1991). The Social
and Cognitive Determinants of Aberrant Driving Behaviour, Contractors Report 253.
Transport Research Laboratory, Crowthorne.
Reason, J. (1992). Cognitive Underspecification Experimental Slips and human
error (pp. 71-91): Springer.
Reason, J. (1993a). Managing the Management Risk: New approaches to
organizational safety. Reliability and Safety in Hazardous Work Systems. Hove, UK:
Lawrence Erlbaum Associates, 7-22.
Reason, J. (1993b). Self-report questionnaires in cognitive psychology: Have they
delivered the goods?
Reason, J. (1993c). The identification of latent organizational failures in complex
systems Verification and validation of complex systems: Human factors issues (pp.
223-237): Springer.
Reason, J. (1994). Choice in action. Decision making in action: Models and methods.
Gary A. Klein, Judith Orasanu, Roberta Calderwood and Caroline E. Zsambok (Eds).
Ablex Publishing Corporation, Norwood, New Jersey, 1993. No. of pages: 480.
ISBN 0893919438 (paper). Price£ 41.40. Applied Cognitive Psychology, 8(6),
615-616.
Reason, J. (1994a). Errors, outcomes and circumventions: a reply to dougherty.
Reliability Engineering & System Safety, 46(3), 297-298.
Reason, J. (1994b). Latent errors and systems disasters. Paper presented at the
Social issues in computing.
Reason, J., & Zapf, D. (1994). Errors, error detection, and error recovery: Lawrence
Erlbaum Associates.
Reason, J. (1995a). A systems approach to organizational error. Ergonomics, 38(8),
1708-1721.
Reason, J. (1995b). Safety in the operating theatre—Part 2: Human error and
organizational failure. Current Anaesthesia & Critical Care, 6(2), 121-126.
Reason, J. (1995c). Understanding adverse events: human factors. Quality in Health
Care, 4(2), 80-89.
Reason, J., Parker, D., Lawton, R., & Pollock, C. (1995). Organizational controls and
the varieties of rule related behaviour. ESRC Conference on Risk in Organizational
Settings, London, 16-17.
Reason, J. (1997a). Maintenance-related errors: the biggest threat to aviation safety
after gravity? Aviation Safety, 465-470.
Reason, J. (1997b). Managing The Risks Of Organizational Accidents. Ashgate
Pub Ltd Pages: 252.
Reason, J. (1998a). Achieving a safe culture: theory and practice. Work & Stress,
12(3), 293-306.
Reason, J. (1998b). Commentary Broadening the cognitive engineering horizons:
more engineering, less cognition and no philosophy of science, please. Ergonomics,
41(2), 150-152.
Reason, J., & Parker, D. (1998). Organizational control and safety: the varieties of
rule-based behavior. journal of Occupational and Organizational Psychology, 71(1),
28-34.
10
Reason, J., Parker, D., & Lawton, R. (1998). Organizational controls and safety: The
varieties of rulerelated behaviour. Journal of occupational and organizational
psychology, 71(4), 289-304.
Reason, J. (1999a). Are we casting the net too widely in our search for the factors
contributing to errors and accidents. Nuclear safety: an ergonomics perspective.
CRC Press, Boca Raton, 199-205.
Reason, J. (1999b). Organisational Accidents and Safety Culture. Manchester M13
9PL, UK. Department of Psychology, University of Manchester.
Reason, J. (2000). A cognitive engineering perspective on maintenance errors.
Cognitive Engineering in the Aviation Domain, 309-325.
Reason, J. (2000a). Human error: models and management. Bmj, 320(7237), 768-
770.
Reason, J. (2000b). Human factor analysis of jco criticality accident: A comment on
the analytical models. Cognition, Technology & Work, 2(4), 230-231.
Reason, J. (2000c). Safety paradoxes and safety culture. Injury Control and Safety
Promotion, 7(1), 3-14.
Reason, J. (2000d). The Freudian slip revisited. Psychologist-Leicester-, 13(12), 610-
611.
Reason, J. (2001a). Appendix 1: Key Note Presentations Assessing the Resilience of
Health Care Institutions. Special Medical Seminar Lessons for Health Care: Applied
Human Factors Research 22 November 2000, 28.
Reason, J. (2001). Heroic Compensations: the benign face of the human factor.
Flight Safety Australia, 5(1), 29-31.
Reason, J. (2001b). Human Factors Aspects of Safety Management Systems.
Proceedings of the 15th Annual FAA/TC/CAA Maintenance Human Factors
Symposium, London.
Reason, J. (2001c). The dimensions of organisational resilience to operational
hazards. British Airways Human Factors Conference: Enhancing Operational
Integrity.
Reason, J., Carthey, J., & De Leval, M. (2001). Diagnosing ―vulnerable system
syndrome: an essential prerequisite to effective risk management. Quality in health
care, 10(suppl 2), ii21-ii25.
Reason, J. (2002a). Analysis of Human Factors Related Accidents and Near Misses.
Reason, J. (2002b). Combating omission errors through task analysis and good
reminders. Quality and Safety in Health Care, 11(1), 40-44.
Reason, J. (2003). Are we casting the net too widely in our search for the factors
contributing to errors and accidents? Nuclear Safety: A Human Factors Perspective,
212.
Reason, J., & Hobbs, A. (2003). Managing maintenance error: a practical guide.
Reason, J. (2004). Beyond the organisational accident: the need for ―error wisdom
on the frontline. Quality and Safety in Health Care, 13(suppl 2), ii28-ii33.
Reason, J. (2005). Safety in the operating theatre–Part 2: Human error and
organisational failure. Quality and safety in health care, 14(1), 56-60.
Reason, J. (2008). El error humano: Modus Laborandi.
Reason, J. (2008). The human contribution: Ashgate Chichester.
Reason, J. (2009). From little slips to big disasters: an error quest. Inside
Psychology: A Science Over 50 Years, 233.
Reason, J. (2010). Safer Surgery: Analysing Behaviour in the Operating Theatre:
British Psychological Soc, Leicester Le1 7dr, Leics, England.
11
Reason, J. (2011). Absent-mindedness–Risk Management-Radio National
Summer19 December 2005.
Reason, J. (2013a). A Life in Error: From Little Slips to Big Disasters: Ashgate
Publishing, Ltd.
Reason, J. (2013b). L'erreur humaine: Presses des MINES.
James Reason, co-auteur
Benson, A., Goorney, A., & Reason, J. (1966). The effect of instructions upon
post-rotational sensations and nystagmus. Acta oto-laryngologica, 62(1-6), 442-
452.
Benson, A., Reason, J., & Diaz, E. (1971). Testing Predictions Derived from a
Model of Progressive Adaptation to Coriolis Accelerations: DTIC Document.
Broadbent, D. E., Reason, J., & Baddeley, A. D. (1990). Human factors in
hazardous situations. Paper presented at the Royal Society on Jun 28-29, 1989.
Carthey, J., De Leval, M., & Reason, J. (2001). Institutional resilience in
healthcare systems. Quality in health care, 10(1), 29-32.
Carthey, J., de Leval, M. R., & Reason, J. (2000). Understanding excellence in
complex, dynamic medical systems. Proceedings of the Human Factors and
Ergonomics Society Annual Meeting, 44(26), 136-139.
Carthey, J., de Leval, M. R., & Reason, J. (2001). The human factor in cardiac
surgery: errors and near misses in a high technology medical domain. The Annals
of thoracic surgery, 72(1), 300-305.
Carthey, J., De Leval, M. R., Reason, J., Farewell, V. T., & Wright, D. J. (2001).
Human factors research in cardiac surgery: Opportunities and pitfalls. AVMA
Medical & Legal Journal, 7(3), 85-90.
Carthey, J., de Leval, M. R., Wright, D. J., Farewell, V. T., & Reason, J. (2003).
Behavioural markers of surgical excellence. Safety Science, 41(5), 409-425.
Cook, R. I., Wreathall, J., Smith, A., Cronin, D. C., Rivero, O., Harland, R. C.,
Reason, J. (2007). Probabilistic risk assessment of accidental ABO-incompatible
thoracic organ transplantation before and after 2003. Transplantation, 84(12),
1602-1609.
de Leval, M. R., Carthey, J., Wright, D. J., Farewell, V. T., & Reason, J. (2000).
Human factors and cardiac surgery: a multicenter study. The Journal of Thoracic
and Cardiovascular Surgery, 119(4), 661-672.
Emanuel, L., Berwick, D., Conway, J., Combes, J., Hatlie, M., Leape, L.,
Walton, M. (2008). What exactly is patient safety. Advances in patient safety:
new directions and alternative approaches, 1, 1-17.
Fisher, S., Reason, J. (1988). Handbook of life stress, cognition and health.
Chichester: Wiley
Graybiel, A., & Reason, J. (1969a). Adaptation to coriolis accelerations- Its
transfer to the opposite direction of rotation as a function of intervening activity
at zero velocity(Adaptation to coriolis acceleration by controlled head
movements, and transfer as direction and stimulus mode change).
Graybiel, A., & Reason, J. (1969b). An attempt to measure the degree of
adaptation produced by differing amounts of coriolis vestibular stimulation in the
slow rotation room(Degrees of adaptation acquired from coriolis stimulation and
head movements in rotating rooms).
12
Graybiel, A., & Reason, J. (1969c). Magnitude estimations of coriolis
sensations(Physiological magnitude estimation in coriolis vestibular reaction to
rotation).
Graybiel, A., & Reason, J. (1969d). Progressive adaptation to coriolis
accelerations associated with 1-rpm increments in the velocity of the slow
rotation room(Human reactions to coriolis effect in rotating environments).
Graybiel, A., & Reason, J. (1969e). The effect of varying the time interval
between equal and opposite Coriolis accelerations(Varying time interval between
two equal and opposite coriolis accelerations).
Graybiel, A., & Reason, J. (1970). Progressive adaptation to Coriolis
accelerations associated with 1-rpm increments in the velocity of the slow
rotation room. Aerospace Medicine, 41: 73-79.
Hudson, P., Groeneweg, J., Reason, J., Wagenaar, W., Van der Meeren, R., &
Visser, J. (1991). Application of TRIPOD to measure latent errors in North Sea
gas platforms: Validity of Failure State Profiles. SPE Health Safety and
Environment in Oil and Gas Exploration and Production Conference.
Hudson, P., Reason, J., Wagenaar, W., Bentley, P., Primrose, M., & Visser, J.
(1994a). Tripod Delta: Proactive approach to enhanced safety. JPT. Journal of
petroleum technology, 46(1), 58-62.
Hudson, P., Reason, J., Wagenaar, W., Bentley, P., Primrose, M., & Visser, J.
(1994b). Tripod Delta: Proactive approach to enhanced safety.[Safety
engineering methods for the oil and gas industry]. JPT, Journal of Petroleum
Technology;(United States), 46(1).
Hudson, P., Wagenaar, W., Groeneweg, J., van der Meeren, R., Reason, J., &
Visser, J. (1991). Enhancing safety in drilling Proceedings of the first
international conference on health, safety and environment in oil and gas
exploration and production.
Hudson, P., Wagenaar, W., Reason, J., Groeneweg, J., Van der Meeren, R., &
Visser, J. (1991). Enhancing safety in drilling: Implementing TRIPOD in a desert
drilling operation. SPE Health Safety and Environment in Oil and Gas
Exploration and Production Conference.
Manstead, A., Parker, D., Stradling, S., Reason, J., Baxter, J., & Kelemen, D.
(1991). False Consensus In Estimating The Prevalence Of Driving Errors And
Violations. Paper presented at the Behavioural Research In Road Safety.
Proceedings Of A Seminar Held At Nottingham University, 26-27 September
1990.
Manstead, A. S., Parker, D., Stradling, S. G., Reason, J., & Baxter, J. S. (1992).
Perceived consensus in estimates of the prevalence of driving errors and
violations. Journal of Applied Social Psychology, 22(7), 509-530.
Maurino, D., Reason, J., Johnston, N., Lee, R. (1995). Beyond Aviation
Human Factors. Aldershot: Ashgate Publishing Ltd.
Parker, D., Manstead, A. S., Stradling, S. G., & Reason, J. (1992). Determinants
of intention to commit driving violations. Accident Analysis & Prevention, 24(2),
117-131.
Parker, D., Manstead, A. S., Stradling, S. G., Reason, J., & Baxter, J. S. (1992).
Intention to commit driving violations: an application of the theory of planned
behavior. Journal of Applied Psychology, 77(1), 94.
Parker, D., Reason, J., Manstead, A. S., & Stradling, S. G. (1995). Driving errors,
driving violations and accident involvement. Ergonomics, 38(5), 1036-1048.
13
Sasou, K., & Reason, J. (1999). Team errors: definition and taxonomy.
Reliability Engineering & System Safety, 65(1), 1-9.
Schurman, D. L., & Reason, J. (1991). Systemic influences on management and
organizations on safety. Advances in industrial ergonomics and safety, Vol.
IIITaylor & Francis, London, 693-700.
Takano, K., & Reason, J. (1999). Psychological biases affecting human cognitive
performance in dynamic operational environments. Journal of Nuclear Science
and Technology, 36(11), 1041-1051.
Takano, K.-i., & Reason, J. (1997). Modelling of human errors in cognitive
processes observed in dynamic environments. Engineering Psychology and
Cognitive Ergonomics: Job Design and Product Design, 2, 63.
Wagenaar, W., Groeneweg, J., Hudson, P., & Reason, J. (1994). Promoting
safety in the oil industry. The ergonomics society lecture presented at the
ergonomics society annual conference, Edinburgh, 13-16 April 1993.
Ergonomics, 37(12), 1999-2013.
Wagenaar, W. A., Hudson, P. T., & Reason, J. (1990). Cognitive failures and
accidents. Applied Cognitive Psychology, 4(4), 273-294.
Wagenaar, W. A., & Reason, J. (1990). Types and tokens in road accident
causation. Ergonomics, 33(10-11), 1365-1375.
Wreathall, J., & Reason, J. (1992). Human errors and disasters. Paper presented
at the Human Factors and Power Plants, 1992., Conference Record for 1992
IEEE Fifth Conference on.
Zapf, D., & Reason, J. (1994). Introduction: Human errors and error handling.
Applied Psychology, 43(4), 427-432.
FONDS BIBLIOGRAPHIQUE SIR JAMES REASON
UNE VIE DANS L’ERREUR
Mots-clés : James Reason, Erreur Humaine, Modèle, Accident organisationnel,
Fonds bibliographique
Résumé
Ce papier de recherche présente la création d’un fonds bibliographique « Sir James Reason ». Psychologue
anglais, James Reason est mondialement célèbre pour sa taxonomie de l’erreur humaine et son modèle
étiologique de l’accident connu sous le nom de Swiss Cheese Model (SCM). Ce Papier de Recherche pro-
pose une courte biographie et une explication des principaux fondements des modèles de Reason avant
de présenter la liste exhaustive des travaux publiés par Reason.
Justin LAROUZÉE
MINES ParisTech
PSL - Research University
CRC - Centre de recherche sur les Risques et les Crises
rue Claude Daunesse, CS 10207
06904 Sophia Antipolis Cedex, France
Franck GUARNIERI
MINES ParisTech
PSL - Research University
CRC - Centre de recherche sur les Risques et les Crises
rue Claude Daunesse, CS 10207
06904 Sophia Antipolis Cedex, France
www.crc.mines-paristech.fr
... Un graphique élaboré initialement par Reason (1993Reason ( /2013, traduit en français et reproduit dans la nouvelle édition 35 de « L'erreur humaine » reprend et synthétise les types d'erreurs en lien avec leur intentionnalité et les causes de défaillances psychologiques qui les ont provoquées ( Figure 5). 34 Sur ce point Larouzée et al., 2015, propose de voir Reason, 1994 pour préciser le sujet. Reason J. (1994). ...
... Elles concernent toutes les situations pour lesquelles nous avons introduit des complications spécifiques, qui s'écartent de la pratique ordinaire. Il nous semble utile de repréciser succinctement le cadre théorique de l'erreur détaillé dans le préambule du manuscrit afin d'éclairer les types d'erreurs commises par les infirmières lors de la simulation ou pendant l'entretien d'autoconfrontation.Reason (1993Reason ( , 2013 a élaboré le modèle GEMS pour caractériser les erreurs selon les niveaux cognitifs auxquels elles surviennent :-les erreurs liées aux actions routinières dans des activités automatiques (environ 80% des erreurs distinguées en ratés et lapsus) ;-des erreurs d'activation de connaissances qui mobilisent la résolution de problèmes habituel avec facilité, les règles stockées (environ 15 % des erreurs d'activation de la mauvaise règle, soit de la bonne règle mais pas au bon moment) ; -les erreurs de possession de connaissances qui sollicitent la résolution de problèmes consciente (environ 5% des erreurs par manque de connaissances).Ce modèle organise une lecture et une compréhension à deux niveaux des erreurs queLarouzée (2015) présente ainsi :Les erreurs qui précèdent la détection d'un problème (les ratés et les lapsus qui surviennent au niveau des automatismes) de celles qui suivent la détection du problème (les méprises basées sur les règles ou sur les connaissances). Se dessine dès lors une distinction fondamentale entre les erreurs d'exécution d'une action et les erreurs de planification de cette action (niveau de contrôle plus élevé) (p. 6). ...
Thesis
Full-text available
L'administration de traitements injectables à des patients hospitalisés repose sur des calculs de doses médicamenteuses, elle est effectuée par les infirmier·ères. Des erreurs surviennent parfois, avec des conséquences potentiellement dramatiques pour les patients et une mise en cause systématique des personnels infirmiers. Des enquêtes et des statistiques ont été effectuées, mais les données scientifiques sur l'activité de calcul de doses sont insuffisantes. Avec une approche issue de la psychologie ergonomique, notre recherche complète ces données en documentant la dimension cognitive du travail des infirmier·ères par une mise au jour des connaissances et procédures qu'il·elles mobilisent lors des préparations médicamenteuses injectables, avec une prise en compte de la variabilité de cette activité en fonction des produits injectés, des protocoles établis dans les services hospitaliers, des conditions matérielles, et aussi des personnes. Le travail effectué se fonde également sur la didactique professionnelle car la formation en constitue une visée majeure, une formation fondée par la connaissance profonde des activités des infirmier·ères, y compris des éventuelles tensions entre activités et contextes professionnels. Nous avons enfin convoqué des outils d'analyse produits en didactique des mathématiques pour mettre en lumière les logiques sous-jacentes aux calculs de doses médicamenteuses effectués lors de la préparation des médicaments injectables. Une enquête par questionnaire a été réalisée pour mettre au jour la variabilité des activités de calcul de doses et en identifier une première catégorisation. Une enquête par simulation avec enregistrement des traces de l'activité et entretiens d'auto-confrontation simple a complété ces premiers résultats pour aboutir à une modélisation de l'activité de calcul de doses engagée dans la préparation de médicaments injectables à risques perfusés par pousse-seringues électriques en service de réanimation où ils sont quotidiennement utilisés. La conjugaison des approches convoquées dans la recherche a également conduit à interroger la complémentarité des logiques calculatoires et professionnelles, leurs éventuelles contradictions, et à identifier ainsi des processus potentiellement générateurs d'erreur.
... Simplicity comes from the abundance of sources. This model has been widely quoted and Reason is a prolific author (149 publications;[10]). Complexity arises from the nature of the model's origin: a collaborative and poorly documented work between distinct but interactive worlds, research and industry. ...
Chapter
Full-text available
After the Fukushima accident, a new concept of nuclear safety arouse: engineering thinking facing extreme situations. One of the specificity of emergency situations being a rise of social demand on engineering process, safety scientist have to make an anti-dualist move in order to improve collaboration between social scientists and engineers. In this aim, this article studies a case of efficient collaboration: the Swiss Cheese Model (SCM) of accidents. Since the early 1990s, SCM of the psychologist James Reason has established itself as a reference in the etiology, investigation or prevention of accidents. This model happened to be the product of the collaboration between the psychologist and a nuclear engineer (John Wreathall). This article comes back on the journey of the SCM and its fathers. It is based on an exhaustive literature review of Reason’s work and interviews of Reason and Wreathall carried out in 2014. The study suggests that the success of the model is not so much due to appropriation of the work of the psychologist by the industrial community but to a complex process of co-production of knowledge and theories. To conclude, we try to highlight ways that should encourage, in the future, such collaborative ways of working.
... If there are differences in graphical complexity between theoretical and empirical models that are to be noted the epistemological posture of a theory cannot be determinate only on its graphic representation. 2 Early 1960, the military defense in depth concept is introduced into the US nuclear safety policies. It concerns the hardware and construction design (fuel and reactor independent physical barriers containment). ...
Thesis
Résumé : Comment appréhender, par le droit, le facteur humain et organisationnel de manière à préserver au mieux la santé et la sécurité des travailleurs ? Cette interrogation s’inscrit dans le prolongement des bouleversements sociétaux survenus ces dernières décennies relatifs aux transformations industrielles et numériques, à la métamorphose du monde du travail qui s’en est suivie et à l’apparition du capitalisme et de la mondialisation. Ces changements ont contribué à faire évoluer la perception sociétale de l’individu et se sont accompagnés de déclarations consacrant un socle de droits de l’Homme. Emerge ainsi la question de l’humain au travail et les enjeux que cela implique au regard de l’évolution des risques professionnels et de la souffrance mentale, de la diversité des régimes juridiques de travail, des conséquences de la mondialisation sur les travailleurs français et européens et de la dimension sociale du travail. Dans ce contexte, il convient de se demander quelle place souhaitons-nous, aujourd’hui, donner à l’humain dans le travail. Comment le travailleur est-il défini, pensé, perçu ? Comment est-il protégé, sanctionné, contraint ? Quelles sont ses droits, leur étendue et leurs limites ? Par ces travaux nous nous attacherons à envisager ces problématiques au moyen de la discipline juridique et sous l’angle du facteur humain et organisationnel, afin de considérer, plus spécifiquement, leurs conséquences en matière de risques professionnels sur la santé et la sécurité des travailleurs. En effet, compte tenu de la dimension sociale et politique de ces questionnements, le droit constitue un outil pertinent et adapté, apte à appréhender non seulement ce qui est mais, également, ce qui devrait être. Dès lors, nous nous attacherons à apporter des éléments de réponse juridique à ces questionnements en les envisageant à l’aune du concept de facteur humain et organisationnel. Cette approche nécessite de penser le travail et les risques professionnels en se fondant sur l’ensemble des éléments qui influencent la performance humaine. A cette fin, nous rechercherons, dans un premier temps, comment le droit positif appréhende déjà, plus ou moins subtilement, le facteur humain et organisationnel. De manière à pouvoir proposer, dans un second temps, une approche juridique de ce concept fondée sur une appropriation des outils existants et la mise en œuvre d’un cadre systémique et humain.
Thesis
La fiabilité organisationnelle concerne l’étude des conditions organisationnelles permettant à un système organisé complexe de maintenir des niveaux de fiabilité compatibles à la fois avec les exigences de sécurité et les exigences économiques. Les études effectuées sur le fonctionnement des organisations à haute fiabilité mettent en avant un ensemble de pratiques et de dispositifs mis en place au sein de ces organisations, tant au niveau de l’individu et du groupe qu’au niveau de l’organisation, qui permettent à celles-ci de gérer et d’exploiter efficacement des systèmes techniques complexes à risques. Dans la lignée des différents apports sur ce qui fait la fiabilité au sein de telles entreprises, ce travail vise à démontrer la prise en compte du désordre, comme une des logiques organisationnelles, participant à la fiabilité de l’entreprise. En ce sens, une conceptualisation du désordre en tant qu’organisateur (désordre organisationnel) est proposée. À la suite de cette conceptualisation, la thèse démontre dans quelle mesure le désordre, par le biais de lamise en place d’organisations informelles stratifiées sur l’organisation formelle existante, permet de résorber et de restreindre les effets des perturbations. Le désordre est analysé comme catalyseur intrinsèque de la création de sens, participant à la fiabilité. En discutant la considération du désordre comme étant essence même de l’organisation, ce travail analyse l’approche normative sous-jacente dans la conception même de l’organisation et la fiabilité de celle-ci.
Article
Full-text available
A survey of over 1600 drivers is reported, the results of which art: consistent with those reported in an earlier study, which identified a three-fold typology of aberrant driving behaviours. The first type, lapses, are absent-minded behaviours with consequences mainly for the perpetrator, posing no threat to other road users. The second type, errors, are typically misjudgements and failures of observation that may be hazardous to others. The third type, violations, involve deliberate contraventions of safe driving practice. In the present study the survey instrument used, the Driver Behaviour Questionnaire, was also shown to be reliable over time. Each type of behaviour was found to have different demographic correlates. Most importantly, accident liability was predicted by self-reported tendency to commit violations, but not by tendency to make errors or to have lapses. The implications for road safety are discussed.
Article
This succinct but absorbing book covers the main way stations on James Reason's 40-year journey in pursuit of the nature and varieties of human error. He presents an engrossing and very personal perspective, offering the reader exceptional insights, wisdom and wit as only James Reason can. A Life in Error charts the development of his seminal and hugely influential work from its original focus on individual cognitive psychology through the broadening of scope to embrace social, organizational and systemic issues. Published: December 2013.
This paper discusses the role of latent human failures in the breakdown of complex, well-defended systems. It distinguishes between failure types and failure tokens, and argues that remedial measures must be directed at identifying failure types through the use of various proactive indicators. The paper concludes by considering the implications of this approach for the management of organizational safety.
Article
This paper applies the concept of behavioural markers of performance, previously used to understand the characteristics of the most successful aviation crews (Connelly, E.P., 1997. A Resource Package for CRM Developers: Behavioural Markers of CRM Skill From Real World Case Studies and Accidents. University of Texas Crew Research Project Technical Report, pp. 97–103; Helmreich, R.L., Merritt, A.C., 1998. Culture at Work in Aviation and Medicine: National, Cultural and Professional Influences. Ashgate Publishers, Aldershot, UK), to a surgical domain. A framework of ‘behavioural markers’ of surgical excellence was developed based on existing research. This framework was used to explain differences in ‘procedural excellence scores’ amongst a group of sixteen UK paediatric cardiac surgeons who had participated in a multi-centre UK study on the influence of human factors on surgical outcomes. Procedural exellence scores were derived from multivariable logistic regression models of the number of major and minor events (i.e. errors) per case, adjusted for known patient risk factors. Two binary outcomes were predicted; death and death and/or near miss. Results showed that those surgeons with the best scores (surgeons 3, 5, 8 and 14) were characterised by more of the behavioural markers than surgeons with lower scores. It is concluded that although behavioural markers have proven a useful method to explain performance differences between surgeons, further research is needed to validate and quantify the markers developed in this study and to test their applicability in other medical domains.
Article
This paper deals with four safety paradoxes: (1) Safety is defined and measured more by its absence than its presence. (2) Defences, barriers and safeguards not only protect a system, they can also cause its catastrophic breakdown. (3) Many organisations seek to limit the variability of human action, primarily to minimise error, but it is this same variability – in the form of timely adjustments to unexpected events – that maintains safety in a dynamic and changing world. (4) An unquestioning belief in the attainability of absolute safety can seriously impede the achievement of realisable safety goals, while a preoccupation with failure can lead to high reliability. Drawing extensively upon the study of high reliability organisations (HROs), the paper argues that a collective understanding of these paradoxes is essential for those organisations seeking to achieve an optimal safety culture. It concludes with a consideration of some practical implications.