Content uploaded by Franck Guarnieri
Author content
All content in this area was uploaded by Franck Guarnieri on Apr 22, 2015
Content may be subject to copyright.
Fonds bibliographique Sir James Reason - Une vie dans
l’erreur
Justin Larouz´ee, Franck Guarnieri
To cite this version:
Justin Larouz´ee, Franck Guarnieri. Fonds bibliographique Sir James Reason - Une vie dans
l’erreur. [Research Report] CRC WP 2015 25, MINES ParisTech. 2015, 16 p. <hal-01114474>
HAL Id: hal-01114474
https://hal-mines-paristech.archives-ouvertes.fr/hal-01114474
Submitted on 17 Feb 2015
HAL is a multi-disciplinary open access
archive for the deposit and dissemination of sci-
entific research documents, whether they are pub-
lished or not. The documents may come from
teaching and research institutions in France or
abroad, or from public or private research centers.
L’archive ouverte pluridisciplinaire HAL, est
destin´ee au d´epˆot et `a la diffusion de documents
scientifiques de niveau recherche, publi´es ou non,
´emanant des ´etablissements d’enseignement et de
recherche fran¸cais ou ´etrangers, des laboratoires
publics ou priv´es.
PAPIERS DE RECHERCHE WORKING PAPERS SERIES
CRC_WP_2015_25
(Janvier 2015)
FONDS BIBLIOGRAPHIQUE SIR JAMES REASON
UNE VIE DANS L’ERREUR
Justin Larouzée et Franck Guarnieri
CENTRE DE RECHERCHE SUR LES RISQUES ET LES CRISES
MINES ParisTech
PSL - Research University
Rue Claude Daunesse CS10207
06904 Sophia Antipolis Cedex, France
www.crc.mines-paristech.fr
CRC
PAPIERS DE RECHERCHE DU CRC
Cette collection a pour but de rendre aisément disponible
un ensemble de documents de travail et autres matériaux
de discussion issus des recherches menées au CRC
(CENTRE DE RECHERCHE SUR LES RISQUES ET LES CRISES).
Tous les droits afférant aux textes diffusés dans cette
collection appartiennent aux auteurs.
Des versions ultérieures des papiers diffusés dans cette
collection sont susceptibles de faire l’objet d’une
publication. Veuillez consulter la base bibliographique des
travaux du CRC pour obtenir la référence exacte d’une
éventuelle version publiée.
http://hal-ensmp.archives-ouvertes.fr
CRC WORKING PAPERS SERIES
The aim of this collection is to make easily available a set
of working papers and other materials for discussion
produced at the CRC
(CENTRE FOR RESEARCH ON RISKS AND CRISES).
The copyright of the work made available within this
series remains with the authors.
Further versions of these working papers may have been
submitted for publication. Please check the bibliographic
database of the CRC to obtain exact references of possible
published versions.
http://hal-ensmp.archives-ouvertes.fr
CENTRE DE RECHERCHE SUR LES RISQUES ET LES CRISES
MINES ParisTech
PSL - Research University
Rue Claude Daunesse CS 10207
06904 SOPHIA ANTIPOLIS Cedex, France
www.crc.mines-paristech.fr
1
Fonds bibliographique Sir James Reason
Une vie dans l’erreur
1
Justin Larouzée et Franck Guarnieri
Centre de recherche sur les Risques et les Crises
MINES ParisTech – PSL Research University
(Janvier 2015)
Résumé :
Ce papier de recherche présente la création d’un fonds bibliographique « Sir James
Reason ». Psychologue anglais, James Reason est mondialement célèbre pour sa taxonomie
de l’erreur humaine et son modèle étiologique de l’accident connu sous le nom de Swiss
Cheese Model (SCM). Ce Papier de Recherche propose une courte biographie et une
explication des principaux fondements des modèles de Reason avant de présenter la liste
exhaustive des travaux publiés par Reason.
Mots clefs : James Reason, Erreur Humaine, Modèle, Accident organisationnel, Fonds bibliographique.
1. Biographie de James Reason
Si les auteurs scientifiques sont faits pour être lus et cités, quelques repères sur leur itinéraire
académique et professionnel nous rapprochent d‘eux, nous éclairant ainsi sur leurs objets de
recherche voire sur les processus même de leur analyse. La biographie qui suit permet de
livrer quelques informations sur l‘auteur afin de replacer ses différents travaux dans son
itinéraire de chercheur et dans le contexte d‘une époque.
James Reason est né en Angleterre, près de Londres, le 1er mai 1938. Il débute des études en
médecine, mais réoriente sa carrière académique vers la psychologie. La petite histoire
raconte qu‘il aurait pris sa décision, assis dans une cafétéria située à proximité d‘un grand
hôpital psychiatrique de Londres, foudroyé par le charme d‘un groupe d‘étudiantes en
psychologie appliquée. Quelques années plus tard, il épousera l‘une d‘entre elles.
Diplômé de l‘Université de Manchester en 1962, le jeune psychologue travaille sur
l‘ergonomie des cockpits pour l‘Institut de médecine aéronautique de la Royal Air Force à
Farnborough (de 1962 à 1964) puis de l‘Institut de médecine U.S. Naval Aerospace en
Floride. En 1967, il soutient une thèse de psychologie consacrée au mal des transports à
l‘Université de Leicester.
De 1967 à 1976, Reason conduit de nombreuses recherches sur la désorientation sensorielle
et le mal des transports à l‘Université de Leicester avant de rejoindre, en 1977, l‘Université
de Manchester en tant que professeur de psychologie.
1
Ce sous-titre, « Une vie dans l‘erreur » est un clin d‘œil à l‘ouvrage de James Reason, A Life in Error: From Little
Slips to Big Disasters: Ashgate Publishing, Ltd. 2013.
2
De 1977 à 1987, Reason étudie les erreurs du quotidien. Contemporain de Don Norman ou
Jens Rasmussen, il voit dans l‘étude de ces dysfonctionnements cognitifs (de l‘attention, de
la mémoire) des clefs d‘étude du fonctionnement nominal du cerveau. Ces travaux
l‘amènent à participer à un cycle de conférences internationales relatives à l‘erreur humaine,
financées par l‘OTAN. Reason y noue des liens avec des professionnels issus de l‘industrie
et de l‘ingénierie, notamment avec l‘ingénieur nucléaire américain John Wreathall.
La collaboration de Reason et Wreathall fera naître, en 1990, un modèle d‘accident
organisationnel. Ce modèle évoluera jusqu‘en 2000 où il sera publié dans la revue médicale
anglaise BMJ sous la forme du Swiss Cheese Model. Ce modèle « du fromage Suisse » est
l‘un des plus utilisés par les préventeurs et dans les enquêtes accidents.
Reason poursuit d‘une part ses travaux de recherche appliqués à la sécurité industrielle et
l‘enseignement de la psychologie. En 2001, il devient professeur émérite de l‘Université de
Manchester. Sa longue carrière scientifique (1967-2013) lui a valu de nombreuses
reconnaissances, il est notamment membre de la Bristish Psychological Society, de la Royal
Aeronautical Society, de la Bristish Academy, du Royal College of General Practitioners. En
2003, il est nommé Commandeur de l‘ordre de l‘Empire Britannique, prestigieuse
distinction reconnaissant l‘apport de ses travaux dans la réduction des risques dans le milieu
hospitalier (Guarnieri & Besnard, 2013 ; Larouzée et al., 2014).
Le(s) modèle(s) de James Reason
Si il est coutume de parler « du » modèle de Reason en évoquant implicitement le Swiss
Cheese Model (figure 2), il conviendrait de parler « des » modèles de Reason (Larouzee &
Guarnieri, 2014). Le Swiss Cheese Model étant le fruit d‘itérations successives depuis la
publication, en 1990 (Reason, 1900), d‘un premier modèle d‘accident organisationnels.
Reason a progressivement évolué de l‘étude du mal des transports à celle des erreurs
quotidiennes (avec un spectre universitaire) pour « basculer » à la fin des années 1980, dans
le champ de la sécurité industrielle.
Ayant collaboré avec un ingénieur nucléaire américain John Wreathall, il publie dans son
livre L’Erreur Humaine une théorie explicative des accidents basée sur un modèle en cinq
éléments de tout système productif. Pour Reason et Wreathall, qu‘une organisation
appartienne aux secteurs primaire, secondaire ou tertiaire, elle repose sur :
1) Des décideurs de niveau politique, concepteurs et haut management du
système. Ils définissent les objectifs du système, allouent les moyens (finances,
équipement, ressources humaines) en fonction de ces objectifs et cherchent à
maximiser la production et la sécurité.
2) Une chaîne managériale, spécialisée par départements (maintenance,
opérations, transverse) qui décline la stratégie du niveau supérieur.
3) Des pré-conditions, à savoir des opérateurs qualifiés, une technologie et des
équipements adéquats. Elles sont garantes de l‘équilibre entre productivité et sécurité.
4) Des activités productives synchronisant les opérateurs et les machines dans le
temps.
5) Des défenses, constituées d‘un ensemble de mesures de protections visant à
maintenir le système opérationnel dans un environnement « à risques » (industriels,
naturels, etc.).
3
L‘accident peut se comprendre comme la combinaison complexe (et indésirable) de
défaillances de ces cinq niveaux. L‘apport majeur est la distinction de ces défaillances
(techniques, humaines et organisationnelles) entre des conditions dites latentes (éloignées
dans le temps et l‘espace de l‘accident) et des erreurs dites actives (commises par l‘opérateur
de première ligne).
Si le modèle met en exergue des liens causaux et chronologiques, il intègre une dimension
systémique (souvent négligée ou incomprise) dans la complexité, non linéaire, des effets des
conditions latentes. En 1993, une première évolution du modèle introduit un lien entre l‘état
des défenses (barrières) du système et des contingences organisationnelles (figure 1).
Figure 1 : Modèle d’accident organisationnel. Si les barrières d’un système peuvent être
affectées directement par les décisions managériales (chemin du bas), ces décisions
peuvent diffuser dans l’organisation (chemins du haut), créant dans les espaces de travail
les précurseurs aux erreurs ou violations (erreurs actives) des opérateurs. (D‘après
Reason, 1993).
Cette vision de l‘accident porte la thèse de Reason qui deviendra le paradigme dit de
l‘accident organisationnel, elle peut se résumer ainsi :
- Certains processus organisationnels (décisions concernant le planning, la
conception, les budgets, la maintenance) ont des conséquences indésirables et créer
des défaillances,
- Ces défaillances dites latentes se diffusent dans les diverses structures
organisationnelles jusqu‘aux espaces de travail où elles créent des conditions locales
(sous-effectif, incidents techniques, objectifs contradictoires, etc.) qui augmentent les
probabilités d‘erreurs.
- Ces actes non-sûrs sont liés à la combinaison des dispositions du système
(conditions locales) et de son environnement (monde extérieur). Bien que de
nombreux actes non-sûrs soient susceptibles d‘être commis (erreur humaines), ils
restent souvent sans conséquences, le système étant doté de barrières de défenses
(techniques, humaines et organisationnelles).
- Toutefois, les barrières, les audits sécurité, les normes et les procédures
peuvent également être affaiblies par les défaillances latentes ou les erreurs actives
(erreur, violations).
- L‘accident organisationnel survient lorsqu‘une erreur active se combine avec
un ensemble de conditions latentes et que les barrières n‘assurent pas (ou plus) la
protection du système.
En 1997, Reason publie dans un livre intitulé Managing the Risks of Organizational
Accidents (Reason, 1997) une évolution simplifiée de son modèle. Celle-ci ne conserve les
4
trois composantes de base d‘un accident (un danger, un enjeu, des défenses altérées) pour
mettre l‘accent sur les deux usages principaux que sont les enquêtes accidents (a posteriori)
et les démarche de prévention (a priori). Cette période correspond à une quête de
pragmatisme pour le psychologue dont les travaux sont résolument orientés vers le monde
industriel. Ce livre sera d‘ailleurs chaleureusement accueilli par la communauté des
préventeurs pour sa visée pratique.
En 2000, Reason publie une ultime version du modèle (Reason, 2000). Simplifiée à
l‘extrême et mnémotechnique, cette évolution symbolise les barrières par des tranches de
gruyère dont les trous représentent les défaillances. Il faut considérer ces trous comme
dynamiques (leurs tailles et leurs positions évoluent dans le temps au grès des audits,
maintenances, erreurs, etc.). L‘accident, symbolisé par une flèche, n‘est alors possible qu‘en
cas d‘alignement de ces trous (figure 2).
Figure 2 : Le modèle dans sa version populaire dite Swiss Cheese Model. (Reason, 2000)
Si la simplicité de cette représentation a soulevé depuis le milieu des années 2000 de
nombreuses critiques (e.g. Young et al., 2004 ; Dekker, 2006), celle-ci a surtout permis la
diffusion du modèle à de nombreux milieux industriels et le passage du paradigme de
l‘erreur humaine (l‘opérateur responsable de l‘accident) à celui de l‘accident
organisationnel.
Références
Dekker S. (2006). Past the edge of chaos. Technical Report 2006-03. Lund
University, School of Aviation ; Sweden.
Guarnieri F., Besnard D. (2013). Redécouvrir l’erreur humaine de James T. Reason.
(Préface à la deuxième Edition). In James Reason, L’erreur humaine. Paris, Presses
des Mines, Collection Economie et Gestion, 2013.
Larouzee J., Guarnieri F., Besnard D. (2014). Le modèle de l'erreur humaine de
James Reason. Papiers de Recherche du CRC, MINES ParisTech. 2014, 44 p.
Larouzee J., Guarnieri F. (2014). Huit idées reçues sur le(s) modèle(s) de l’erreur
humaine de James Reason. REE Revue Electricité et Electronique, 5, 83-90.
Reason J. (1990, éd. franç. 2013). L'erreur humaine. Presses des Mines, Economie et
Gestion, 404 p.
Reason J. (1993). The identification of latent organizational failures in complex
systems. In: Verification and Validation of Complex Systems – Human Factors
Issues. Edited by J.A. Wise, V.D. Hopkin & P. Stager. Computer and Systems
Sciences Vol. 110. 223-237.
5
Reason J. (1997). Managing the Risks of Organizational Accidents. Aldershot, UK:
Ashgate Publishing Limited.
Reason J. (2000 b.). Human Error: models and management. BMJ 2000, 320:768-
70.
Young M., Shorrock J., Faulkner J., Braithwaite G. (2004). Who moved my (Swiss)
cheese? The (r)evolution of human factors in transport safety investigation. ISASI,
Gold coast 2004, Australia.
6
Les références du fonds bibliographique James Reason
Le CRC de MINES ParisTech, en grande partie avec les travaux de thèse de Justin Larouzée, a
constitué un fonds bibliographique des publications de James Reason (figure 3). Cette base était, à
notre connaissance, inédite à ce jour. Elle rassemble à ce jour 135 références2. Les références en gras
correspondent aux ouvrages dont Reason est auteur principal.
Figure 3 : Histogramme des publications de James Reason. Sur la base de ces travaux d’étude bibliographique, un
découpage de ses publications en cinq phases articulées a été proposé (Larouzée et al., 2014).
James Reason, auteur principal
Reason, J. (1967). Relationships Between Motion After-effects Motion Sickness
Susceptibility and" receptivity": University of Leicester.
Reason, J. (1968a). An investigation of some factors contributing to individual
variation in motion sickness susceptibility. Ministry of Defence, Air Force
Department.
Reason, J. (1968b). Relations Between Motion Sickness Susceptibility, The Spiral
After‐Effect And Loudness Estimation. British Journal of Psychology, 59(4), 385-
393.
Reason, J. (1968c). Individual Differences In Auditory reaction time and loudness
estimation. Perceptual and Motor Skills, 26: 1089-1090.
Reason, J., & Benson, A. (1968d). Individual Differences In The Reported
Persistence Of Visual And Labyrinthine After‐Sensations, And Of Exponentially
2
Elle n’inclut pas les références des traductions du livre Human Error (française, italienne, japonaise, allemande).
7
Decaying Visual And Auditory Signals. British Journal of Psychology, 59(2), 167-
172.
Reason, J. (1969a). Individual Differences In Motion Sickness Susceptibility: A
Further Test Of The ‗Receptivity‘hypothesis. British Journal of Psychology, 60(3),
321-328.
Reason, J. (1969b). Sickness in space. New Scientist. 2 october, 28-31.
Reason, J. (1969c). Motion sickness—some theoretical considerations. International
Journal of Man-Machine Studies, 1(1), 21-38.
Reason, J., & Graybiel, A. (1969a). Adaptation to Coriolis accelerations: its transfer
to the opposite direction of rotation as a function of intervening activity at zero
velocity: DTIC Document.
Reason, J., & Graybiel, A. (1969b). An Attempt To Measure The Degree Of
Adaptation Produced By Differing Amounts Of Coriolis Vestibular Stimulation In
The Slow Rotation Room: DTIC Document.
Reason, J. (1970). How stongly do you feel? New Society, 23 april. 678-682.
Reason, J. (1970b). Motion sickness: a special case of sensory rearrangement.
Advancement of science, 26(130), 386.
Reason, J., & Graybiel, A. (1971). The effect of varying the time interval between
equal and opposite Coriolis accelerations. British Journal of Psychology, 62(2), 165-
173.
Reason, J. (1972). Some correlates of the loudness function. Journal of Sound and
Vibration, 20(3), 305-309.
Reason, J., & Graybiel, A. (1973). Factors contributing to motion sickness
susceptibility: Adaptability and receptivity (Adaptability and receptivity factors
affecting motion sickness susceptibility in pilots). AGARD Predictability of Motion
Sickness in the Selection of Pilots 15 p.
Reason, J. (1974). Man in motion: The psychology of travel. London: Weidenfeld.
Reason, J. (1974). Motion Sickness And Mechanism Of Protective Adaptation. Paper
Presented At The Bulletin Of The British Psychological Society.
Reason, J., & Brand, J. J. (1975). Motion sickness. London: Academic Press.
Reason, J. (1976). Motion sickness and associated phenomena. Infrasound and Low
Frequency Vibration, 299-348.
Reason, J. (1977). Skill and error in everyday life. Adult learning. London: Wiley.
Reason, J. (1978a). Motion sickness adaptation: a neural mismatch model. Journal of
the Royal Society of Medicine, 71(11), 819.
Reason, J. (1978). Motion sickness: Some theoretical and practical considerations.
Applied ergonomics, 9(3), 163-167.
Reason, J. (1978b). The Passenger The analysis of practical skills (pp. 151-168):
Springer.
Reason, J., Wagner, H., & Dewhurst, D. (1981). A visually-driven postural after-
effect. Acta psychologica, 48(1), 241-251.
Reason, J., & Mycielska, K. (1982). Absent-minded?: The psychology of mental
lapses and everyday errors: Prentice-Hall Englewood Cliffs, NJ.
Reason, J. (1983). What Goes Absent In Absent-Mindedness. Paper Presented At The
Bulletin Of The British Psychological Society.
Reason, J., & MyCielska, M. (1983). Absent-mindedness. J. Nicholson & H. Belloff.
Psychology Survey(5).
Reason, J. (1984a). Lapses of attention in everyday life. Varieties of attention, 515-
549.
8
Reason, J. (1984b). Little Slips and, Big Disasters. Interdisciplinary Science
Reviews, 9(2), 179-189.
Reason, J. (1984c). Naturalistic Corpus-Gathering. Psychology Survey, 3.
Reason, J. (1984d). The psychopathology of everyday slips: Accidents happen when
habit goes haywire. The Sciences, 24(5), 45-49.
Reason, J. (1984e). Absent-mindedness and cognitive control. Everyday memory,
actions and absentmindedness, 113-132.
Reason, J., & Lucas, D. (1984a). Absent‐mindedness in shops: Its incidence,
correlates and consequences. British Journal of Clinical Psychology, 23(2), 121-131.
Reason, J., & Lucas, D. (1984b). Using cognitive diaries to investigate naturally
occurring memory blocks. Everyday memory, actions, and absent mindedness, 53-
70.
Reason, J. (1985). Slips and mistakes: two distinct classes of human error.
Contemporary ergonomics.
Reason, J. (1986). Recurrent errors in process environments: some implications for
the design of intelligent decision support systems Intelligent decision support in
process environments (pp. 255-270): Springer.
Reason, J. (1987a). A framework for classifying errors. New technology and human
error, 5-14.
Reason, J. (1987b). A preliminary classification of mistakes. J. Rasmussen, K.
Duncan & J. Leplat.(eds). New technology and human error. John Wiley & Sons Ltd,
Chichester.
Reason, J. (1987c). An interactionist‘s view of system pathology Information
systems: Failure analysis (pp. 211-220): Springer.
Reason, J. (1987d). Chernobyl errors. Bulletin of the British psychological society,
40, 201-206.
Reason, J. (1987e). Cognitive aids in process environments: prostheses or tools?
International Journal of Man-Machine Studies, 27(5), 463-470.
Reason, J. (1987f). Collective planning and its failures. New Technology and Human
Error. Wiley, New York.
Reason, J. (1987g). Generic error-modelling system (GEMS): A cognitive
framework for locating common human error forms. New technology and human
error, 63, 86.
Reason, J. (1987h). The psychology of mistakes: a brief review of planning failures.
New Technology and Human Error. Chichester: Wiley.
Reason, J. (1988a). Errors and evaluations: the lessons of Chernobyl. Paper
presented at the Human Factors and Power Plants, 1988., Conference Record for
1988 IEEE Fourth Conference on.
Reason, J. (1988b). Framework models of human performance and error: a
consumer guide. Paper presented at the Tasks, errors, and mental models.
Reason, J. (1988c). Modelling the basic error tendencies of human operators.
Reliability Engineering & System Safety, 22(1), 137-153.
Reason, J. (1988d). Stress and cognitive failure. In S. Fisher & J Reason (Eds)
Handbook of life stress, cognition and health. Chichester: Wiley.
Reason, J. (1990a). Human error. Cambridge university press.
Reason, J. (1990b). The age of the organizational accident.
Reason, J. (1990c). The contribution of latent human failures to the breakdown of
complex systems. Philosophical Transactions of the Royal Society of London. B,
Biological Sciences, 327(1241), 475-484.
9
Reason, J. (1990d). Types, tokens and indicators. Proceedings of the Human Factors
and Ergonomics Society Annual Meeting, 34(12), 885-889.
Reason, J., Manstead, A., Stradling, S., Baxter, J., & Campbell, K. (1990). Errors
and violations on the roads: a real distinction? Ergonomics, 33(10-11), 1315-1332.
Reason, J., Manstead, A., Stradling, S., Parker, D., & Baxter, J. (1991). The Social
and Cognitive Determinants of Aberrant Driving Behaviour, Contractors Report 253.
Transport Research Laboratory, Crowthorne.
Reason, J. (1992). Cognitive Underspecification Experimental Slips and human
error (pp. 71-91): Springer.
Reason, J. (1993a). Managing the Management Risk: New approaches to
organizational safety. Reliability and Safety in Hazardous Work Systems. Hove, UK:
Lawrence Erlbaum Associates, 7-22.
Reason, J. (1993b). Self-report questionnaires in cognitive psychology: Have they
delivered the goods?
Reason, J. (1993c). The identification of latent organizational failures in complex
systems Verification and validation of complex systems: Human factors issues (pp.
223-237): Springer.
Reason, J. (1994). Choice in action. Decision making in action: Models and methods.
Gary A. Klein, Judith Orasanu, Roberta Calderwood and Caroline E. Zsambok (Eds).
Ablex Publishing Corporation, Norwood, New Jersey, 1993. No. of pages: 480.
ISBN 0‐89391‐943‐8 (paper). Price£ 41.40. Applied Cognitive Psychology, 8(6),
615-616.
Reason, J. (1994a). Errors, outcomes and circumventions: a reply to dougherty.
Reliability Engineering & System Safety, 46(3), 297-298.
Reason, J. (1994b). Latent errors and systems disasters. Paper presented at the
Social issues in computing.
Reason, J., & Zapf, D. (1994). Errors, error detection, and error recovery: Lawrence
Erlbaum Associates.
Reason, J. (1995a). A systems approach to organizational error. Ergonomics, 38(8),
1708-1721.
Reason, J. (1995b). Safety in the operating theatre—Part 2: Human error and
organizational failure. Current Anaesthesia & Critical Care, 6(2), 121-126.
Reason, J. (1995c). Understanding adverse events: human factors. Quality in Health
Care, 4(2), 80-89.
Reason, J., Parker, D., Lawton, R., & Pollock, C. (1995). Organizational controls and
the varieties of rule related behaviour. ESRC Conference on Risk in Organizational
Settings, London, 16-17.
Reason, J. (1997a). Maintenance-related errors: the biggest threat to aviation safety
after gravity? Aviation Safety, 465-470.
Reason, J. (1997b). Managing The Risks Of Organizational Accidents. Ashgate
Pub Ltd Pages: 252.
Reason, J. (1998a). Achieving a safe culture: theory and practice. Work & Stress,
12(3), 293-306.
Reason, J. (1998b). Commentary Broadening the cognitive engineering horizons:
more engineering, less cognition and no philosophy of science, please. Ergonomics,
41(2), 150-152.
Reason, J., & Parker, D. (1998). Organizational control and safety: the varieties of
rule-based behavior. journal of Occupational and Organizational Psychology, 71(1),
28-34.
10
Reason, J., Parker, D., & Lawton, R. (1998). Organizational controls and safety: The
varieties of rule‐related behaviour. Journal of occupational and organizational
psychology, 71(4), 289-304.
Reason, J. (1999a). Are we casting the net too widely in our search for the factors
contributing to errors and accidents. Nuclear safety: an ergonomics perspective.
CRC Press, Boca Raton, 199-205.
Reason, J. (1999b). Organisational Accidents and Safety Culture. Manchester M13
9PL, UK. Department of Psychology, University of Manchester.
Reason, J. (2000). A cognitive engineering perspective on maintenance errors.
Cognitive Engineering in the Aviation Domain, 309-325.
Reason, J. (2000a). Human error: models and management. Bmj, 320(7237), 768-
770.
Reason, J. (2000b). Human factor analysis of jco criticality accident: A comment on
the analytical models. Cognition, Technology & Work, 2(4), 230-231.
Reason, J. (2000c). Safety paradoxes and safety culture. Injury Control and Safety
Promotion, 7(1), 3-14.
Reason, J. (2000d). The Freudian slip revisited. Psychologist-Leicester-, 13(12), 610-
611.
Reason, J. (2001a). Appendix 1: Key Note Presentations Assessing the Resilience of
Health Care Institutions. Special Medical Seminar Lessons for Health Care: Applied
Human Factors Research 22 November 2000, 28.
Reason, J. (2001). Heroic Compensations: the benign face of the human factor.
Flight Safety Australia, 5(1), 29-31.
Reason, J. (2001b). Human Factors Aspects of Safety Management Systems.
Proceedings of the 15th Annual FAA/TC/CAA Maintenance Human Factors
Symposium, London.
Reason, J. (2001c). The dimensions of organisational resilience to operational
hazards. British Airways Human Factors Conference: Enhancing Operational
Integrity.
Reason, J., Carthey, J., & De Leval, M. (2001). Diagnosing ―vulnerable system
syndrome‖: an essential prerequisite to effective risk management. Quality in health
care, 10(suppl 2), ii21-ii25.
Reason, J. (2002a). Analysis of Human Factors Related Accidents and Near Misses.
Reason, J. (2002b). Combating omission errors through task analysis and good
reminders. Quality and Safety in Health Care, 11(1), 40-44.
Reason, J. (2003). Are we casting the net too widely in our search for the factors
contributing to errors and accidents? Nuclear Safety: A Human Factors Perspective,
212.
Reason, J., & Hobbs, A. (2003). Managing maintenance error: a practical guide.
Reason, J. (2004). Beyond the organisational accident: the need for ―error wisdom‖
on the frontline. Quality and Safety in Health Care, 13(suppl 2), ii28-ii33.
Reason, J. (2005). Safety in the operating theatre–Part 2: Human error and
organisational failure. Quality and safety in health care, 14(1), 56-60.
Reason, J. (2008). El error humano: Modus Laborandi.
Reason, J. (2008). The human contribution: Ashgate Chichester.
Reason, J. (2009). From little slips to big disasters: an error quest. Inside
Psychology: A Science Over 50 Years, 233.
Reason, J. (2010). Safer Surgery: Analysing Behaviour in the Operating Theatre:
British Psychological Soc, Leicester Le1 7dr, Leics, England.
11
Reason, J. (2011). Absent-mindedness–Risk Management-Radio National
Summer19 December 2005.
Reason, J. (2013a). A Life in Error: From Little Slips to Big Disasters: Ashgate
Publishing, Ltd.
Reason, J. (2013b). L'erreur humaine: Presses des MINES.
James Reason, co-auteur
Benson, A., Goorney, A., & Reason, J. (1966). The effect of instructions upon
post-rotational sensations and nystagmus. Acta oto-laryngologica, 62(1-6), 442-
452.
Benson, A., Reason, J., & Diaz, E. (1971). Testing Predictions Derived from a
Model of Progressive Adaptation to Coriolis Accelerations: DTIC Document.
Broadbent, D. E., Reason, J., & Baddeley, A. D. (1990). Human factors in
hazardous situations. Paper presented at the Royal Society on Jun 28-29, 1989.
Carthey, J., De Leval, M., & Reason, J. (2001). Institutional resilience in
healthcare systems. Quality in health care, 10(1), 29-32.
Carthey, J., de Leval, M. R., & Reason, J. (2000). Understanding excellence in
complex, dynamic medical systems. Proceedings of the Human Factors and
Ergonomics Society Annual Meeting, 44(26), 136-139.
Carthey, J., de Leval, M. R., & Reason, J. (2001). The human factor in cardiac
surgery: errors and near misses in a high technology medical domain. The Annals
of thoracic surgery, 72(1), 300-305.
Carthey, J., De Leval, M. R., Reason, J., Farewell, V. T., & Wright, D. J. (2001).
Human factors research in cardiac surgery: Opportunities and pitfalls. AVMA
Medical & Legal Journal, 7(3), 85-90.
Carthey, J., de Leval, M. R., Wright, D. J., Farewell, V. T., & Reason, J. (2003).
Behavioural markers of surgical excellence. Safety Science, 41(5), 409-425.
Cook, R. I., Wreathall, J., Smith, A., Cronin, D. C., Rivero, O., Harland, R. C.,
Reason, J. (2007). Probabilistic risk assessment of accidental ABO-incompatible
thoracic organ transplantation before and after 2003. Transplantation, 84(12),
1602-1609.
de Leval, M. R., Carthey, J., Wright, D. J., Farewell, V. T., & Reason, J. (2000).
Human factors and cardiac surgery: a multicenter study. The Journal of Thoracic
and Cardiovascular Surgery, 119(4), 661-672.
Emanuel, L., Berwick, D., Conway, J., Combes, J., Hatlie, M., Leape, L.,
Walton, M. (2008). What exactly is patient safety. Advances in patient safety:
new directions and alternative approaches, 1, 1-17.
Fisher, S., Reason, J. (1988). Handbook of life stress, cognition and health.
Chichester: Wiley
Graybiel, A., & Reason, J. (1969a). Adaptation to coriolis accelerations- Its
transfer to the opposite direction of rotation as a function of intervening activity
at zero velocity(Adaptation to coriolis acceleration by controlled head
movements, and transfer as direction and stimulus mode change).
Graybiel, A., & Reason, J. (1969b). An attempt to measure the degree of
adaptation produced by differing amounts of coriolis vestibular stimulation in the
slow rotation room(Degrees of adaptation acquired from coriolis stimulation and
head movements in rotating rooms).
12
Graybiel, A., & Reason, J. (1969c). Magnitude estimations of coriolis
sensations(Physiological magnitude estimation in coriolis vestibular reaction to
rotation).
Graybiel, A., & Reason, J. (1969d). Progressive adaptation to coriolis
accelerations associated with 1-rpm increments in the velocity of the slow
rotation room(Human reactions to coriolis effect in rotating environments).
Graybiel, A., & Reason, J. (1969e). The effect of varying the time interval
between equal and opposite Coriolis accelerations(Varying time interval between
two equal and opposite coriolis accelerations).
Graybiel, A., & Reason, J. (1970). Progressive adaptation to Coriolis
accelerations associated with 1-rpm increments in the velocity of the slow
rotation room. Aerospace Medicine, 41: 73-79.
Hudson, P., Groeneweg, J., Reason, J., Wagenaar, W., Van der Meeren, R., &
Visser, J. (1991). Application of TRIPOD to measure latent errors in North Sea
gas platforms: Validity of Failure State Profiles. SPE Health Safety and
Environment in Oil and Gas Exploration and Production Conference.
Hudson, P., Reason, J., Wagenaar, W., Bentley, P., Primrose, M., & Visser, J.
(1994a). Tripod Delta: Proactive approach to enhanced safety. JPT. Journal of
petroleum technology, 46(1), 58-62.
Hudson, P., Reason, J., Wagenaar, W., Bentley, P., Primrose, M., & Visser, J.
(1994b). Tripod Delta: Proactive approach to enhanced safety.[Safety
engineering methods for the oil and gas industry]. JPT, Journal of Petroleum
Technology;(United States), 46(1).
Hudson, P., Wagenaar, W., Groeneweg, J., van der Meeren, R., Reason, J., &
Visser, J. (1991). Enhancing safety in drilling Proceedings of the first
international conference on health, safety and environment in oil and gas
exploration and production.
Hudson, P., Wagenaar, W., Reason, J., Groeneweg, J., Van der Meeren, R., &
Visser, J. (1991). Enhancing safety in drilling: Implementing TRIPOD in a desert
drilling operation. SPE Health Safety and Environment in Oil and Gas
Exploration and Production Conference.
Manstead, A., Parker, D., Stradling, S., Reason, J., Baxter, J., & Kelemen, D.
(1991). False Consensus In Estimating The Prevalence Of Driving Errors And
Violations. Paper presented at the Behavioural Research In Road Safety.
Proceedings Of A Seminar Held At Nottingham University, 26-27 September
1990.
Manstead, A. S., Parker, D., Stradling, S. G., Reason, J., & Baxter, J. S. (1992).
Perceived consensus in estimates of the prevalence of driving errors and
violations. Journal of Applied Social Psychology, 22(7), 509-530.
Maurino, D., Reason, J., Johnston, N., Lee, R. (1995). Beyond Aviation
Human Factors. Aldershot: Ashgate Publishing Ltd.
Parker, D., Manstead, A. S., Stradling, S. G., & Reason, J. (1992). Determinants
of intention to commit driving violations. Accident Analysis & Prevention, 24(2),
117-131.
Parker, D., Manstead, A. S., Stradling, S. G., Reason, J., & Baxter, J. S. (1992).
Intention to commit driving violations: an application of the theory of planned
behavior. Journal of Applied Psychology, 77(1), 94.
Parker, D., Reason, J., Manstead, A. S., & Stradling, S. G. (1995). Driving errors,
driving violations and accident involvement. Ergonomics, 38(5), 1036-1048.
13
Sasou, K., & Reason, J. (1999). Team errors: definition and taxonomy.
Reliability Engineering & System Safety, 65(1), 1-9.
Schurman, D. L., & Reason, J. (1991). Systemic influences on management and
organizations on safety. Advances in industrial ergonomics and safety, Vol.
IIITaylor & Francis, London, 693-700.
Takano, K., & Reason, J. (1999). Psychological biases affecting human cognitive
performance in dynamic operational environments. Journal of Nuclear Science
and Technology, 36(11), 1041-1051.
Takano, K.-i., & Reason, J. (1997). Modelling of human errors in cognitive
processes observed in dynamic environments. Engineering Psychology and
Cognitive Ergonomics: Job Design and Product Design, 2, 63.
Wagenaar, W., Groeneweg, J., Hudson, P., & Reason, J. (1994). Promoting
safety in the oil industry. The ergonomics society lecture presented at the
ergonomics society annual conference, Edinburgh, 13-16 April 1993.
Ergonomics, 37(12), 1999-2013.
Wagenaar, W. A., Hudson, P. T., & Reason, J. (1990). Cognitive failures and
accidents. Applied Cognitive Psychology, 4(4), 273-294.
Wagenaar, W. A., & Reason, J. (1990). Types and tokens in road accident
causation. Ergonomics, 33(10-11), 1365-1375.
Wreathall, J., & Reason, J. (1992). Human errors and disasters. Paper presented
at the Human Factors and Power Plants, 1992., Conference Record for 1992
IEEE Fifth Conference on.
Zapf, D., & Reason, J. (1994). Introduction: Human errors and error handling.
Applied Psychology, 43(4), 427-432.
FONDS BIBLIOGRAPHIQUE SIR JAMES REASON
UNE VIE DANS L’ERREUR
Mots-clés : James Reason, Erreur Humaine, Modèle, Accident organisationnel,
Fonds bibliographique
Résumé
Ce papier de recherche présente la création d’un fonds bibliographique « Sir James Reason ». Psychologue
anglais, James Reason est mondialement célèbre pour sa taxonomie de l’erreur humaine et son modèle
étiologique de l’accident connu sous le nom de Swiss Cheese Model (SCM). Ce Papier de Recherche pro-
pose une courte biographie et une explication des principaux fondements des modèles de Reason avant
de présenter la liste exhaustive des travaux publiés par Reason.
Justin LAROUZÉE
MINES ParisTech
PSL - Research University
CRC - Centre de recherche sur les Risques et les Crises
rue Claude Daunesse, CS 10207
06904 Sophia Antipolis Cedex, France
Franck GUARNIERI
MINES ParisTech
PSL - Research University
CRC - Centre de recherche sur les Risques et les Crises
rue Claude Daunesse, CS 10207
06904 Sophia Antipolis Cedex, France
www.crc.mines-paristech.fr