Full-text resources of CEJSH and other databases are now available in the new Library of Science.
Visit https://bibliotekanauki.pl

PL EN


2010 | 3(13) | 67-84

Article title

Zarządzanie bezpieczeństwem

Authors

Content

Title variants

EN
Irreducibility Endogenised

Languages of publication

PL

Abstracts

PL
Autor niniejszej pracy, stanowiącej fragment książki pt. Deep Complexity and the Social Sciences. Experience, Modelling and Operationally, poddaje szczegółowej analizie kwestię niemożności zredukowania do zera ryzyka występowania wypadków w systemach złożonych. Odwołując się do prac autorów takich jak Charles Perrow, stawia tezę, że zasadniczą przyczynę tego rodzaju wypadków stanowi nieprzewidywalność interakcji między poszczególnymi częściami składowymi tych systemów. Następnie prezentuje koncepcję zabezpieczeń wielowarstwowych i poddaje ją krytyce ze względu na coraz większy dystans dzielący operatorów od systemów, które mają oni nadzorować, oraz nawarstwianie się tzw. problemów utajonych. Wybrany fragment pracy kończy się prezentacją różnych punktów widzenia na temat sposobów określania społecznie akceptowalnego poziomu ryzyka i jego optymalizacji w odniesieniu do zaproponowanego przez Jamesa Reasona teoretycznego modelu kompromisu między ryzykiem a wydajnością oraz omawia zastosowanie zasady ostrożności w praktyce.
EN
The author of the present work, which constitutes an excerpt from his book Deep Complexity and the Social Sciences. Experience, Modelling and Operationally, offers a detailed analysis of an intrinsic irreducibility of risk of accidents in complex systems. Drawing on the works of authors such as Charles Perrow, he argues that the fundamental reason behind such events is the unpredictability of interactions between individual components of these systems. He goes on to outline the concept of defences-in-depth and criticises it on the grounds of the ever-growing distance between operators and the systems that they are supposed to supervise, and the occurrence of the so-called latent problems. The selected fragment of the book concludes with a presentation of different points of view on the subject of defining socially acceptable levels of risk and its optimisation with reference to the theoretical model of compromise between risk and performance proposed by James Reason, along with a discussion of the practical application of the precautionary principle.

Contributors

  • Université de Versailles-Saint-Quentin-en-Yvelines, France

References

  • Amalberti R. (1996). La conduite de systèmes à risques. Paris: Presses Universitaires de France.
  • Amalberti R. (1997). Notions de sécurité'écologique: le contrôle du risque par l'individu et l'analyse des menaces qui pèsent sur ce contrôle. Approche psycho-ergonomique. Monographie du Séminaire du Programme Risques Collectifs et Situations de Crise. Paris: CNRS, listopad.
  • Amalberti R. (1999). ,,Les effets pervers de l'ultra-sécurité", La Recherche, nr 319, s. 66-70.
  • Amalberti R. (2001). ,,The paradoxes of almost totally safe transportation systems", Safety Science, nr 37, 2-3, s. 109-126.
  • Bainbridge L. (1987). «Ironies of automation", w: J. Rasmussen, K. Duncan, J. Leplat (red.), New Technology and Human Error. Chichester: Wiley, s. 271-283.
  • Billings C. (1997). Human Centred Aviation Automation. Hillsdale, NJ: Lawrence Erlbaum Associates.
  • Commission of the European Communities (CEC) (2000). Communication on the Precautionary Principle. Brussels: COM l, luty.
  • Durand N., Alliot J.-M. (1999). ,,Peut-on sup-primer le contrôle au sol?", La Recherche, s. 319, kwiecień s. 57-61.
  • Fischhoff B. (1975). "Hindsight ≠ foresight: The effect of outcome knowledge on judgment under uncertainty", Journal of Experimental Psychology: Human Cognition and Performance, nr 1, 3, s. 288-299.
  • Fischhoff B., Lichtenstein S., Slovic P., Derby S., Keeney R. (1981 [1999]). Acceptable Risk (wyd. 2). Cambridge: Cambridge University Press.
  • Hollnagel E. (2004). Barriers and Accident Prevention. Aldershot: Ashgate.
  • Paté-Cornell M.E. (1993). «Learning from the Piper Alpha Accident: A postmortem analysis of technical and organizational factors", Risk Analysis, nr 13,2, s. 215-232.
  • Perrow C. (1999a). Normal Accidents. Living with High-Risk Technologies. Princeton, NJ: Princeton University Press.
  • Perrow C. (1999b). Organisations à hauts risques et ,,normal accidents". Monographie du Séminaire du Programme Risques Collectifs et Situations de Crise. Paris: CNRS, czerwiec.
  • Rasmussen J. (1997). ,,Risk management in a dynamic society: A modelling problem", Safety Science, nr 27,2/3, s. 183-213.
  • Rasmussen J., Jensen A. (1974). ..Mental procedures in real life tasks. A case study of electronic troubleshooting", Ergonomics, nr 17, s. 293-307.
  • Rasmussen J., Svedung I. (2000). Proactive Risk Management in a Dynamic Society. Karlstad, Sweden: Swedish Rescue Services Agency.
  • Reason J. (1993). L'erreur humaine. Paris: Presses Universitaires de France.
  • Reason J. (1998). Managing the Risks of Organizational Accidents. Aldershot: Ashgate.
  • Science et Vie (2000). "Tokaimura: accident impossible en France?", Science et Vie, styczeń, s. 102-109.
  • Triendl R. (1999). ,,Les déboires du plutonium japonais", La Recherche, nr 319, s. 30-32.
  • Vaughan D. (1996). The Challenger Launch Decision, Risky Technology, Culture and Deviance at NASA. Chicago, IL: University of Chicago Press.
  • Vickers G. (1995). The Art of Judgment, A Study of Policy Making. London: Sage.
  • Villiers J. (1998). ,,Le mur de l'automatisation", w: Académie Nationale de l'Air et de l'Espace (red.), La relation homme-machine dans l'aéronautique. Toulouse: Teknea, s. 205-237.

Document Type

Publication order reference

Identifiers

YADDA identifier

bwmeta1.element.desklight-bb7aef4c-b368-498d-9737-58d323909353
JavaScript is turned off in your web browser. Turn it on to take full advantage of this site, then refresh the page.