Sistem kazası - System accident

Bir sistem kazası (veya normal kaza) bir "birden çok arızanın beklenmedik etkileşimidir" Kompleks sistem.[1] Bu karmaşıklık, teknolojiden veya insan organizasyonlarından kaynaklanabilir ve genellikle her ikisi de olur. Bir sistem kazasını sonradan görmek kolay olabilir, ancak öngörüde son derece zordur çünkü hepsini ciddiye almak için çok fazla eylem yolu vardır. Charles Perrow Bu fikirleri ilk olarak 1980'lerin ortasında geliştirdi.[1] William Langewiesche 1990'ların sonlarında, "en riskli teknolojilerin bazılarının kontrolü ve işletimi, ciddi başarısızlıkların gerçekleşmesi neredeyse garanti edilecek kadar karmaşık organizasyonları gerektirir."[2]

Güvenlik sistemlerinin kendisi bazen bu tür kazalara yol açan ek karmaşıklıktır.[3]

Bir kuruluş, birçok çalışanı, uzmanlığı, yedekleme sistemleri, çift kontrolü, ayrıntılı kılavuzları ve resmi iletişimiyle boyut olarak belirli bir noktayı geçtikten sonra, çalışanlar çok kolay bir şekilde protokole, alışkanlığa ve "haklı olmaya" başvurabilir. Tanıdık olmayan bir dilde karmaşık bir filmi izlemeye çalışmak gibi, neler olup bittiğine dair anlatı dizisi kaybolabilir. Ve gerçek dünyadaki kazaların neredeyse her zaman birden fazla nedeni olduğundan, grup düşüncesi aynı zamanda da meydana gelebilir. Özellikle, bir şeye dokunan son kişiyi suçlamak, işlevsiz bir organizasyonun işaretidir.

2012'de Charles Perrow şöyle yazdı: "Normal bir kaza [sistem kazası], herkesin güvenli oynamak için çok çabaladığı, ancak iki veya daha fazla arızanın beklenmedik etkileşiminin (etkileşimli karmaşıklık nedeniyle) bir dizi arızaya (sıkı bağlantı nedeniyle) neden olduğu durumdur. . "Charles Perrow şu terimi kullanıyor: normal kaza Mevcut teknoloji düzeyi göz önüne alındığında, bu tür kazaların büyük olasılıkla birkaç yıl veya on yıl içinde olduğunu vurgulamak için.[4]

James T. Nedeni bu yaklaşımı genişletti insan güvenilirliği[5] ve İsviçre peyniri modeli, şimdi yaygın olarak kabul edildi havacılık güvenliği ve sağlık hizmetleri.

Bir hayvanın kendi kuyruğunu yiyen bir yönü vardır, çünkü onu tam olarak doğru yapmak için daha fazla formalite ve çaba, durumu daha da kötüleştirebilir.[6] Örneğin, değişen koşullara uyum sağlamada daha fazla organizasyonel rol üstlendikçe, daha fazla çalışan bu tür değişiklikleri, "sorunları" ve beklenmedik koşulları bildirmeyi geciktirecektir.

Bu kazalar genellikle benzer Rube Goldberg cihazları küçük yargı hataları, teknolojideki kusurlar ve önemsiz zararların bir araya gelerek bir ortaya çıkan felaket.

William Langewiesche, "işe yaramayan komuta zincirleri, öğrenilemez eğitim programları, okunamayan kılavuzlar ve düzenlemeler, kontroller ve kontroller kurgusunu içeren tam bir hayali gerçeklik" hakkında yazıyor.[6]

Karşıt bir fikir, yüksek güvenilirlik organizasyonu.[7]

Scott Sagan

Scott Sagan özellikle nükleer silahlarla ilgili olmak üzere karmaşık sistemlerin güvenilirliğini tartışan çok sayıda yayını vardır. Güvenlik Sınırları (1993), görüşmeler sırasında yakın görüşmelerin kapsamlı bir incelemesini yaptı. Soğuk Savaş bu kazara bir nükleer savaşa neden olabilirdi.[8]

Olası sistem kazaları

Apollo 13 uzay uçuşu, 1970

Apollo 13 İnceleme Kurulu:


"[Giriş].. Kazanın istatistiksel anlamda tesadüfi bir arızanın sonucu olmadığı, aksine alışılmadık bir hata kombinasyonundan kaynaklandı, biraz kusurlu ve affetmeyen bir tasarımla birleşti [Vurgu eklendi]. . .

"g. Uçuştan önce bu prosedürleri gözden geçirirken, NASA, ER ve Beech yetkilileri aşırı ısınmadan kaynaklanan hasar olasılığını fark etmedi. Bu yetkililerin çoğu, ısıtıcının uzatılmış çalışmasının farkında değildi. Her durumda, tankı korumak için yeterli termostatik anahtarların olması beklenebilirdi. "[9]

Üç mil ada, 1979

Charles Perrow:

"Nükleer santrallerdeki ve diğer yüksek riskli, karmaşık ve son derece birbirine bağımlı operatör-makine sistemlerindeki diğer kazalara benziyordu; kazaların hiçbiri yönetim veya operatör beceriksizliğinden veya kötü hükümet düzenlemelerinden kaynaklanmadı, ancak bu özellikler mevcuttu ve beklenmeliydi. Kazanın normal olduğunu, çünkü karmaşık sistemlerde planlamayla önlenemeyecek ve operatörlerin hemen anlayamayacakları birden çok hata olması kaçınılmaz olduğunu iddia ettim. "[10]

ValuJet (AirTran) 592 Everglades, 1996

William Langewiesche:

"Devasa MD-80 bakım el kitabında ... Seçeneklerini özenle takip ederek, tamirci el kitabının farklı bir bölümüne giden yolu bulabilir ve ... [oksijen jeneratörlerinin] imha edilmesi gerektiğini öğrenmiş olabilir. yerel düzenlemelere uygun olarak ve yetkili prosedürleri kullanarak. "[6]

Yani, yazılı olduğu şekliyle çoğu güvenlik prosedürü bir anlamda "doğrudur", ancak ne yararlı ne de bilgilendirici.

Brian Stimpson:

Adım 2. Haftalarca bir parça rafında saklanan işaretsiz karton kutular, SabreTech'in nakliye ve teslim departmanına alındı ​​ve ValuJet mülküne tahsis edilen bir alanda yere bırakıldı.

Aşama 3. Potansiyel bir SabreTech müşterisi olan Continental Airlines, tesiste bir teftiş planlıyordu, bu yüzden bir SabreTech nakliye memuruna işyerini temizlemesi talimatı verildi. Oksijen jeneratörlerini Atlanta'daki ValuJet'in merkezine göndermeye karar verdi ve kutuları "uçak parçaları" olarak etiketledi. ValuJet malzemesini daha önce resmi onay olmadan Atlanta'ya göndermişti. Dahası, yeşil etiketleri "hizmet verilemez" veya "hizmet dışı" olarak gösterecek şekilde yanlış anladı ve jeneratörlerin boş olduğu sonucuna vardı.

4. adım. Nakliye memuru, beş kutunun ön kargo bölmesi artı iki büyük ana lastik ve daha küçük bir burun lastiği için bir yük oluşturdu. Bir iş arkadaşına "oksijen kutuları - boş" yazan bir nakliye bileti hazırlaması talimatını verdi. İş arkadaşı, "Oxy Bidonları" ve ardından tırnak içinde "Boş" yazdı. Lastikler de listelendi.

Adım 5. Bir veya iki gün sonra kutular, 592 sefer sayılı uçuşta kabul edilmek üzere ValuJet rampa acentesine teslim edildi. Lastikleri ve oksijen tenekelerini listeleyen nakliye bileti dikkatini çekmiş olmalıydı ama çekmedi. ValuJet tehlikeli maddeleri taşımak için kayıtlı olmadığı için kutular daha sonra federal düzenlemelere aykırı olarak yüklendi. Rampa acentesinin zihninde, SabreTech işçilerinin ona tehlikeli yük gönderme olasılığının düşünülemez olması mümkündür.[11][12]

2008 finans kurumu erimeye yakın

Ekonomist Alan Blinder, 2014 tarihli bir monografide, karmaşık finansal araçların potansiyel yatırımcıların fiyatın makul olup olmadığına karar vermelerini zorlaştırdığını belirtti. Başlıklı bir bölümde "Ders # 6: Aşırı karmaşıklık yalnızca rekabete aykırı değildir, aynı zamanda tehlikelidir," Ayrıca, "Ancak daha büyük tehlike opaklıktan gelebilir. Yatırımcılar satın aldıkları menkul kıymetlerde bulunan riskleri anlamadıklarında (örnekler: CDO-Kare ; a CDS bir sentetik CDO, ...), büyük hatalar yapılabilir - özellikle derecelendirme kuruluşları size üçlü A, nükte, büyükanne için yeterince güvenli olduklarını söylerse. Kaza geldiğinde, kayıplar yatırımcıların hayal edebileceğinden çok daha büyük olabilir. Hiç kimse bu menkul kıymetlerin gerçekte ne kadar değerli olduğunu bilmediği için piyasalar kuruyabilir. Panik başlayabilir. Dolayısıyla karmaşıklık aslında bir risk kaynağıdır. "[13]

MV Sewol'un batması

Kavramın gelecekteki olası uygulamaları

1980'lerden bu yana uçak güvenliğinde beş kat artış, ancak uçuş sistemleri bazen kendi başlarına beklenmedik "modlara" geçiş yapıyor

"İnsan Faktörü" başlıklı bir makalede William Langewiesche, 2009'daki çöküşünden bahsediyor. Air France Uçuş 447 Orta Atlantik üzerinde. Otomatik kokpit sistemlerine geçişin başladığı 1980'lerden beri güvenliğin beş kat arttığına dikkat çekiyor. Langwiesche, "Kokpitin mahremiyetinde ve halkın görüşünün ötesinde, pilotlar sistem yöneticileri olarak sıradan rollere düşürüldü." Windsor Düşesi'ne atfedilen, birinin asla çok zengin veya çok zayıf olamayacağına dair mizahi ifadeyi alan mühendis Earl Wiener'den alıntı yapıyor ve "dijital bir uçuş rehberlik sistemine ne koyduğunuza çok dikkat edin" diyor. Wiener, otomasyonun etkisinin tipik olarak hafif olduğunda iş yükünü azaltmak, ancak ağır olduğunda artırmak olduğunu söylüyor.

Boeing Mühendisi Delmar Fadden, kapasiteler uçuş yönetim sistemlerine eklendiğinde, sertifikasyon gereksinimleri nedeniyle kaldırılmasının imkansız derecede pahalı hale geldiğini söyledi. Ancak kullanılmazsa, görünmeyen derinliklerde bir anlamda pusuda kalabilir.[14]

Langewiesche endüstri mühendisine atıfta bulunuyor Nadine Sarter "otomasyon sürprizleri" hakkında yazan, genellikle pilotun tam olarak anlamadığı veya sistemin kendi kendine geçtiği sistem modlarıyla ilgili. Aslında, bugün kokpitlerde sorulan en yaygın sorulardan biri, "Şimdi ne yapıyor?" Buna yanıt olarak Langewiesche, güvenlikteki beş kat artışa işaret ediyor ve "Hiç kimse rasyonel olarak geçmişin ihtişamına geri dönüşü savunamaz" diye yazıyor.[14]

Güvenlik kurallarının bazen değiştirildiği teori ve pratik arasında daha sağlıklı etkileşim?

Nancy Leveson'un "Daha Güvenli Mühendislik Sistemleri İçin Yeni Bir Kaza Modeli" başlıklı makalesinden, Emniyet Bilimi, Nisan 2004:
"Bununla birlikte, operatörler daha verimli ve üretken olmaya ve zaman baskısıyla başa çıkmaya çabalarken, talimatlar ve yazılı prosedürler neredeyse hiçbir zaman tam olarak takip edilmemektedir ... ... nükleer enerji santralleri, talimatların değiştirilmesi gibi çok kısıtlı ve yüksek riskli ortamlarda bile. Operatörlerin işlerini yapmak zorunda oldukları fiili iş yükü ve zamanlama kısıtlamaları göz önüne alındığında, kuralların ihlali oldukça rasyonel görünmektedir. Bu durumlarda, hata arasında, normatif prosedür ve rasyonelden sapma olarak görülen ve normal olarak kullanılan hata etkili prosedür (Rasmussen ve Pejtersen, 1994). "[15]

Ayrıca bakınız

Referanslar

Notlar

  1. ^ a b Perrow, Charles (1984 ve 1999). Normal Kazalar: Yüksek Riskli Teknolojilerle Yaşamak, Yeni Bir Son Söz ve Y2K Sorunu Üzerine Bir Yazı Yazmak, Temel Kitaplar, 1984, Princeton University Press, 1999, sayfa 70.
  2. ^ "Charles Perrow'un düşünmesi benim gibi pilotların kabul etmesi daha zor. Perrow, büyük kuruluşların başarısızlıklarını inceledikten sonra istemeden normal kazalarla ilgili teorisine geldi. Meselesi, bazı teknolojilerin diğerlerinden daha riskli olması değil, bu apaçık ama En riskli teknolojilerden bazılarının kontrolü ve işletimi o kadar karmaşık kuruluşlar gerektirir ki ciddi arızaların meydana gelmesi neredeyse garanti edilir [Vurgu eklendi]. Bu başarısızlıklar zaman zaman öngörülemeyen şekillerde birleşecek ve birbiriyle sıkı bir şekilde ilişkili süreçlerin bulunduğu bir işletim ortamında daha fazla arızaya neden olurlarsa, başarısızlıklar kontrolden çıkarak tüm müdahaleleri yenecektir. "- Valujet 592 Dersleri, Atlantik Okyanusu, William Langewiesche, Mart 1998, tüm makalenin yaklaşık üçte ikisini oluşturan "Normal Kaza" başlıklı bölümde.
  3. ^ ValuJet 592'nin Çöküşü: Sağlık Bakımına Etkileri, J. Daniel Beckham, Ocak '99. DOC dosyası -> http://www.beckhamco.com/41articlescategory/054_crashofvalujet592.doc Bay Beckham bir sağlık danışmanlığı şirketi işletiyor ve bu makale şirketin web sitesinde yer alıyor. "Hem Çernobil hem de Three Mile Adası'ndaki kazalar başarısız güvenlik sistemleri tarafından başlatıldı."
  4. ^ KATASTROFE GİDİYORUZ: KONSANTRASYONLAR, KARMAŞIKLIK VE BAĞLANTI Charles Perrow, Montréal İnceleme, Aralık 2012.
  5. ^ Nedeni, James (1990-10-26). İnsan hatası. Cambridge University Press. ISBN  0-521-31419-4.
  6. ^ a b c Langewiesche, William (Mart 1998). Valujet 592 Dersleri, Atlantik Okyanusu. Bu uzun makalenin özellikle son üç paragrafına bakınız: “. . . Neden bizi sistemi daha karmaşık ve bu nedenle belki de daha tehlikeli hale getirmekten alıkoyabileceğini anlamak. "
  7. ^ Güvenilirliği yüksek bir kuruluş olmak, Yoğun bakım, M. Christianson, K. Sutcliffe, vd. al, 8 Aralık 2011. Zıt kavram. Bu, sistem kazası ile uyuşmayan bir kavramdır.
  8. ^ Sagan, Scott D. (1993). Güvenliğin Sınırları: Organizasyonlar, Kazalar ve Nükleer Silahlar. Princeton U. Pr. ISBN  0-691-02101-5.
  9. ^ APOLLO 13 İNCELEME KURULU RAPORU ("Cortright Raporu"), Başkan Edgar M. Cortright, BÖLÜM 5, BULGULAR, BELİRLEME VE ÖNERİLER.
  10. ^ Perrow, C. (1982), Perrow'un Sils, D., Wolf, C. ve Shelanski, V. (Eds) 'de "Başkanın Komisyonu ve Normal Kaza" başlıklı bölümü için özeti, Three Mile Adasında Kaza: İnsan Boyutları, Boulder, Colorado, ABD: Westview Press, 1982 s.173–184.
  11. ^ Stimpson, Brian (Ekim 1998). Çok Karmaşık ve Tehlikeli Teknolojik Sistemleri Hatasız Çalıştırmak: ValuJet 592'den Yanlış Dersler, Manitoba Profesyonel Mühendisi. Bu makale, ABD Nimitz sınıfı uçak gemileri ve Kaliforniya'daki Diablo Canyon nükleer santrali gibi iyi güvenlik kayıtlarına sahip karmaşık organizasyonlara karşı örnekler sunmaktadır.
  12. ^ Ayrıca bakınız Normal Kazalar: Yüksek Riskli Teknolojilerle Yaşamak, Charles Perrow, gözden geçirilmiş 1999 baskısı, sayfalar 383 ve 592.
  13. ^ Finansal Krizden, Büyük Durgunluktan ve Acınası İyileşmeden Ne Öğrendik? (PDF dosyası), Alan S. Blinder, Princeton Üniversitesi, Griswold Ekonomik Politika Çalışmaları Merkezi, Çalışma Raporu No. 243, Kasım 2014.
  14. ^ a b İnsan Faktörü, Vanity Fuarı, William Langewiesche, 17 Eylül 2014. "... pilotlar, sistem yöneticileri olarak sıradan rollere devredildi .... 1980'lerden bu yana, geçişin başladığı zamandan beri, güvenlik kaydı beş kat artarak şu anki ölümcül bir kazaya ulaştı. her beş milyon kalkışta bir. Hiç kimse rasyonel olarak geçmişin ihtişamına geri dönüşü savunamaz. "
  15. ^ Daha Güvenli Sistemler İçin Yeni Bir Kaza Modeli Nancy Leveson, Güvenlik Bilimi, Cilt. 42, No. 4, Nisan 2004. Ulusal Bilim Vakfı ve NASA tarafından kısmen desteklenen araştırmaya dayanan makale. ". Aslında, işçilerin fiilen greve gitmeden yönetime baskı uygulamalarının yaygın bir yolu, üretkenlikte ve hatta kaosa yol açabilecek olan 'yönetmeye çalışmaktır."

daha fazla okuma

  • Cooper, Alan (2004-03-05). Mahkumlar İltica Yönetiyor: Neden Yüksek Teknoloji Ürünleri Bizi Çıldırtıyor ve Aklı Nasıl Geri Getirilir?. Indianapolis: Sams - Pearson Eğitimi. ISBN  0-672-31649-8.
  • Gross, Michael Joseph (29 Mayıs 2015). Cirque du Soleil'de Yaşam ve Ölüm, Bu Vanity Fuarı makale şöyle diyor: "... Bir sistem kazası, bir kademede birçok şeyin ters gitmesini gerektiren bir kazadır. Kademenin herhangi bir unsurunu değiştirirseniz kaza meydana gelmeyebilir, ancak her unsur suçu paylaşır ..."
  • Helmreich, Robert L. (1994). "Bir sistem kazasının anatomisi: Avianca Uçuş 052'nin kazası". Uluslararası Havacılık Psikolojisi Dergisi. 4 (3): 265–284. doi:10.1207 / s15327108ijap0403_4. PMID  11539174.
  • Hopkins, Andrew (Haziran 2001). "Three Mile Adası Normal Bir Kaza mıydı?" (PDF). Olasılıklar ve Kriz Yönetimi Dergisi. 9 (2): 65–72. doi:10.1111/1468-5973.00155. Arşivlenen orijinal (PDF) 29 Ağustos 2007. Alındı 2008-03-06.
  • Mühendisliğin Ötesinde: Teknoloji Hakkında Yeni Bir Düşünme Yolu, Todd La Prote, Karlene Roberts ve Gene Rochlin, Oxford University Press, 1997. Bu kitap, iyi güvenlik kayıtlarına sahip karmaşık sistemlerin karşı-örneklerini sağlar.
  • Pidgeon, Nick (22 Eylül 2011). "Geçmişe bakıldığında: Normal kazalar" Doğa.
  • Perrow, Charles (29 Mayıs 2000). "Organizasyondan Kaynaklanan Felaketler" (PDF). Toplum ve Çevre Araştırmaları Enstitüsü. Atmosferik Araştırma Üniversite Şirketi. Alındı 6 Şubat 2009. Alıntı dergisi gerektirir | günlük = (Yardım)
  • Roush, Wade Edmund. KATASTROF VE KONTROL: TEKNOLOJİK AFETLER DEMOKRASİYİ NASIL GELİŞTİRİR, Doktora Tezi, Massachusetts Institute of Technology, 1994, sayfa 15. '. . Normal Kazalar Bugün endüstri yöneticileri, organizasyon sosyologları, teknoloji tarihçileri ve benzer şekilde ilgilenen meslekten olmayanlar için okunması çok önemlidir, çünkü bu yüzyılda büyük bir strateji mühendislerinin tehlikeli teknolojileri kontrol altında tutmak için kullandıklarını göstermektedir — birden çok "başarısızlık korumalı" yedekleme katmanı cihazlar — genellikle bir bütün olarak sisteme tehlikeli bir öngörülemezlik düzeyi ekler. . '
  • "Test, oksijen tüplerinin yoğun bir ateş yaktığını gösteriyor". CNN.com. 1996-11-19. Alındı 2008-03-06.
  • Wallace, Brendan (2009-03-05). İnsan Hatasının Ötesinde. Florida: CRC Press. ISBN  978-0-8493-2718-6.