Ölümcül otonom silah - Lethal autonomous weapon

Bir BAE Sistemleri Corax uçuş testi sırasında

Ölümcül otonom silahlar (KANUNLAR) bir tür özerk askeri sistem programlanmış kısıtlamalara ve açıklamalara dayalı olarak hedefleri bağımsız olarak arayabilen ve devreye alabilen.[1] HUKUKLAR aynı zamanda ölümcül otonom silah sistemleri (KANUNLAR), otonom silah sistemleri (AWS), robotik silahlar, katil robotlar veya katliam robotları.[2] YASALAR havada, karada, suda, su altında veya uzayda işleyebilir. 2018 itibariyle mevcut sistemlerin özerkliği Saldırı için son emri bir insanın vermesi anlamında sınırlandırılmıştı - bazı "savunma" sistemlerinde istisnalar olsa da.

Bir silah olarak özerk olmak

"Özerk" olmanın farklı çalışma alanlarında farklı anlamları vardır. Mühendislikte, makinenin insan müdahalesi olmadan çalışma yeteneğine atıfta bulunabilir. Felsefede, ahlaki açıdan bağımsız olan bir bireye atıfta bulunabilir. Siyaset biliminde, bir bölgenin kabiliyetine atıfta bulunabilir. kendi kendini yöneten. Askeri silah gelişimi açısından, bir silahın otonom olarak tanımlanması diğer alanlarda olduğu kadar net değildir.[1] Özerk olma kavramının gerektirdiği belirli standart, farklı bilim adamları, uluslar ve kuruluşlar arasında büyük ölçüde değişebilir.

Çeşitli insanların ölümcül bir otonom silahı neyin oluşturduğuna dair birçok tanımı vardır. Heather Roff, bir yazar Case Western Reserve Üniversitesi Hukuk Fakültesi, otonom silah sistemlerini "konuşlandırıldıkları ortamdaki değişen koşullara yanıt olarak işlevlerini öğrenip uyarlayabilen ve kendi başlarına ateş etme kararları verebilen silahlı silah sistemleri" olarak tanımlamaktadır.[3] Otonom silah sistemlerinin bu tanımı, Peter Asaro ve Mark Gubrud gibi bilim adamlarının aşağıda görülen tanımlarına kıyasla oldukça yüksek bir eşiktir.

Peter Asaro ve Mark Gubrud gibi bilim adamları eşiği düşürmeye ve daha fazla silah sistemini otonom olarak yargılamaya çalışıyorlar. Bir insan süpervizörünün operasyonu, kararı veya onayı olmaksızın ölümcül bir gücü serbest bırakabilen herhangi bir silah sisteminin özerk kabul edilebileceğine inanıyorlar. Gubrud'a göre, kısmen veya tamamen insan müdahalesi olmadan çalışan bir silah sistemi özerk kabul edilir. Bir silah sisteminin otonom olarak adlandırılması için tamamen kendi başına kararlar almasına gerek olmadığını savunuyor. Bunun yerine, hedefin bulunmasından sonunda ateşlemeye kadar "hazırlık sürecinin" bir veya daha fazla bölümünü aktif olarak içerdiği sürece otonom olarak ele alınmalıdır.[4][5]

Ancak diğer kuruluşlar, otonom silah sistemi standardını daha yüksek bir konuma getiriyor. Savunma Bakanlığı (Birleşik Krallık) otonom silah sistemlerini "daha üst düzey niyet ve yönü anlayabilen sistemler" olarak tanımlar. Bu anlayıştan ve çevresini algılamasından, böyle bir sistem istenen bir durumu meydana getirmek için uygun eylemi gerçekleştirebilir. Bir karar verebilme yeteneğine sahiptir. İnsan gözetimine ve kontrolüne bağlı olmaksızın bir dizi alternatiften eylem rotası - yine de sistemle böyle bir insan etkileşimi mevcut olabilir.Otonom insansız bir uçağın genel faaliyeti tahmin edilebilir olsa da, bireysel eylemler olmayabilir. "[6]

Sonuç olarak, eyaletler arasındaki bir anlaşmanın bileşimi, otonom bir silahı tam olarak neyin oluşturduğuna dair genel kabul görmüş bir etiketlemeyi gerektirir.[7]

Otomatik savunma sistemleri

Otomatik olarak tetiklenen en eski ölümcül silah, Kara mayını, en az 1600'lerden beri kullanılıyor ve deniz mayınları, en azından 1700'lerden beri kullanılıyor. Anti-personel mayınları 1997'de birçok ülkede yasaklandı Ottawa Anlaşması Amerika Birleşik Devletleri, Rusya ve Asya ile Orta Doğu'nun çoğu dahil değil.

Bazı güncel HUKUK örnekleri otomatikleştirilmiş "katı öldürme" dir aktif koruma sistemleri örneğin radar güdümlü CIWS 1970'lerden beri kullanımda olan gemileri savunmak için kullanılan sistemler (örneğin, ABD Falanks CIWS ). Bu tür sistemler özerk olarak tanımlayabilir ve saldır insan operatör tarafından belirlenen kriterlere göre yaklaşan füzeler, roketler, topçu ateşi, uçak ve yüzey gemileri. Rusya gibi tanklar için benzer sistemler mevcuttur. Arena, İsrail Ganimet ve Alman AMAP-ADS. Birkaç çeşit sabit nöbetçi silahlar İnsanlara ve araçlara ateş edebilen, Güney Kore ve İsrail'de kullanılıyor. Birçok füze savunması sistemler, örneğin Demir Kubbe, ayrıca otonom hedefleme yeteneklerine sahiptir. Otomatik taretler kurulu askeri araçlar arandı uzak silah istasyonları.

Bu sistemlerde "döngüde insan" olmamasının ana nedeni, hızlı yanıt verme ihtiyacıdır. Genellikle personeli ve tesisatları gelen mermilere karşı korumak için kullanılmıştır.

Otonom saldırı sistemleri

Daha yüksek özerkliğe sahip sistemler şunları içerir: dronlar veya insansız savaş hava araçları, ör .: "Silahsız BAE Sistemleri Taranis jet tahrikli savaş drone prototipi, Geleceğin Savaş Hava Sistemi düşmanları özerk olarak arayabilen, tanımlayabilen ve yerlerini tespit edebilen, ancak yalnızca görev komutası tarafından yetkilendirildiğinde bir hedefle etkileşime girebilen. Kendini düşman uçaklarına karşı da savunabilir "(Heyns 2013, §45). Northrop Grumman X-47B drone havalanabilir ve uçak gemilerine inebilir (2014'te gösterilmiştir); geliştirilmek üzere ayarlanmıştır. İnsansız Taşıyıcı Tarafından Başlatılan Havadan Gözetleme ve Saldırı (UCLASS) sistemi.

"Miloš" paletli savaş robotlu Sırp Land Rover Defender çekme römorku.

Göre Ekonomist Teknoloji ilerledikçe, insansız denizaltı araçlarının gelecekteki uygulamaları arasında mayın temizleme, mayın döşeme, çekişmeli sularda denizaltı karşıtı sensör ağları, aktif sonar ile devriye gezme, insanlı denizaltıların yeniden tedarik edilmesi ve düşük maliyetli füze platformları haline gelme sayılabilir.[8] 2018'de ABD Nükleer Duruş İncelemesi Rusya'nın "yeni kıtalararası, nükleer silahlı, nükleer enerjili, deniz altı otonom torpido" adlı yeni bir torpido geliştirdiğini iddia ettiDurum 6 ".[9]

Rusya Federasyonu aktif olarak gelişiyor yapay olarak zeki füzeler,[10] dronlar,[11] insansız araçlar, askeri robotlar ve sıhhiye robotları.[12][13][14][15][16]

İsrail Bakan Ayoob Kara 2017 yılında İsrail sinek kadar küçük olanlar dahil askeri robotlar geliştiriyor.[17][18]

Ekim 2018'de, Çin Savunma Firması'nda üst düzey yönetici olan Zeng Yi Norinco, "Gelecekteki muharebe alanlarında savaşan kimse olmayacak" ve savaşta ölümcül otonom silahların kullanılmasının "kaçınılmaz" olduğunu söylediği bir konuşma yaptı.[19] 2019'da ABD Savunma Bakanı Mark Esper Çin'e, insan gözetiminde olmadan can alma yeteneğine sahip insansız hava araçları sattığı için öfkelendi.[20]

İngiliz Ordusu 2019'da yeni insansız araçlar ve askeri robotlar konuşlandırdı.[21]

ABD Donanması "hayalet" filolarını geliştiriyor insansız gemiler.[22]

Etik ve yasal konular

ABD politikasında kullanılan standart

Mevcut ABD politikası şu şekildedir: "Otonom ... silah sistemleri, komutanların ve operatörlerin güç kullanımı konusunda uygun düzeylerde insan yargılarını kullanmalarına izin verecek şekilde tasarlanacaktır."[23] Bununla birlikte, politika, insanları öldüren veya kinetik güç kullanan, daha fazla insan müdahalesi olmadan hedefleri seçen ve devreye sokan otonom silah sistemlerinin, "uygun seviyeler" ve diğer standartlarla uyumlu olduğunun onaylanmasını gerektirir, bu tür silah sistemlerinin bu standartları karşılayamayacağını ve bu nedenle yasak.[24] Hedefleri özerk olarak belirleyen ve onlara saldıran "yarı otonom" avcı katilleri sertifika gerektirmez.[24] Savunma Bakan Yardımcısı Robert Work 2016'da Savunma Bakanlığı'nın "bir karar vermek için ölümcül yetkiyi bir makineye devretmeyeceğini", ancak "otoriter rejimler" bunu yapabileceği için bunu yeniden gözden geçirmesi gerekebileceğini söyledi.[25] Ekim 2016'da Başkan Barack Obama kariyerinin başlarında bir ABD başkanının yararlanacağı bir geleceğe karşı temkinli olduğunu belirtti. drone savaşı "dünyanın her yerinde sürekli savaşlar sürdürebilirdi ve bunların çoğu herhangi bir hesap verebilirlik veya demokratik tartışma olmaksızın gizlice sürdürebilirdi."[26][27] ABD'de güvenlikle ilgili AI, 2018'den beri Ulusal Güvenlik Yapay Zeka Komisyonu'nun kapsamına giriyor.[28][29] 31 Ekim 2019'da, Amerika Birleşik Devletleri Savunma Bakanlığı Savunma İnovasyon Kurulu, silah haline getirilmiş AI için beş ilkeyi özetleyen ve Savunma Bakanlığı tarafından yapay zekanın etik kullanımı için bir insan operatörünün gerçekleştirmesini sağlayacak 12 tavsiyede bulunan bir rapor taslağını yayınladı. her zaman 'kara kutuya' bakabilir ve öldürme zinciri sürecini anlayabilir. Raporun nasıl uygulanacağı büyük bir endişe kaynağı.[30]

Olası etik ihlalleri ve uluslararası eylemler

Stuart Russell, bilgisayar bilimi profesörü California Üniversitesi, Berkeley LAWS ile ilgili endişesinin etik dışı ve insanlık dışı olduğu yönündeki görüşünü belirtti. Bu sistemle ilgili temel sorun, savaşanlarla savaşmayanları ayırt etmenin zor olmasıdır.[31]

Bazıları (örneğin, Noel Sharkey 2012), YASALARI ihlal edip etmeyeceği konusunda endişeler var. Uluslararası İnsancıl Hukuk özellikle savaşçıları savaşçı olmayanlardan ayırt etme yeteneğini gerektiren ayrım ilkesi ve orantılılık ilkesi sivillere verilen zararın askeri amaçla orantılı olmasını gerektiren.[32] Bu endişe genellikle "katil robotları" tamamen yasaklamak için bir neden olarak öne sürülür - ancak bu endişenin Uluslararası İnsancıl Hukuku ihlal etmeyen YASALARA karşı bir argüman olabileceği şüphelidir.[33][34]

Bazıları, belirli bir cinayetten kimin sorumlu olduğunun sınırlarını bulanıklaştıran kanunların,[35] ancak Thomas Simpson ve Vincent Müller, kimin hangi komutu verdiğini kaydetmeyi kolaylaştırabileceklerini savunuyorlar.[36] Aynı şekilde, Steven Umbrello, Phil Torres ve Angelo F. De Bellis HUKUK'un teknik kapasiteleri en az insan askerler kadar doğru ise, o zaman insan askerlerinin psikolojik eksiklikleri göz önünde bulundurulduğunda, yalnızca bu tür etik YASaların kullanılması gerektiğini garanti eder. Aynı şekilde, değer duyarlı tasarım Bu yasaları insani değerlerle uyumlu olacak şekilde tasarlamak için potansiyel bir çerçeve olarak yaklaşım ve Uluslararası İnsancıl Hukuk.[34]

YASALARI yasaklayan kampanyalar

HUKUK olasılığı, özellikle yakın veya uzak gelecekte dünyayı dolaşan "katil robotlar" riski hakkında önemli tartışmalara yol açtı. Grup Katil Robotları Durdurma Kampanyası Temmuz 2015'te 1.000'den fazla yapay zeka uzmanı, bir yapay zeka silahlanma yarışı ve yasaklama çağrısı özerk silahlar. Mektup, Buenos Aires 24'ünde Uluslararası Yapay Zeka Ortak Konferansı (IJCAI-15) ve ortak imzalandı Stephen Hawking, Elon Musk, Steve Wozniak, Noam Chomsky, Skype kurucu ortak Jaan Tallinn ve Google DeepMind kurucu ortak Demis Hassabis diğerleri arasında.[37][38]

PAX'a göre, tam otomatik silahlar (FAW'ler), askerler savaş alanından uzaklaştırıldıkça ve halk savaşı deneyimlemekten uzaklaştıkça savaşa girme eşiğini düşürecek, bu da politikacılara ve diğer karar vericilere ne zaman ve nasıl gideceklerine karar vermede daha fazla alan verecek. savaş.[39] FAW'lerin konuşlandırıldıktan sonra savaşın demokratik kontrolünü daha zor hale getireceği konusunda uyarıyorlar. Kararı öldür - konuyla ilgili bir roman - ve BT uzmanı Daniel Suarez ayrıca şu konuda da uyardı: Ona göre, çok az insanın savaşa gitmesini gerektirerek iktidarı son zamanlarda çok az kişiye dağıtabilirdi.[39]

YASALARIN gelişimini protesto eden web siteleri, silahların belirlenmesinde yapay zeka uygulaması üzerine bu tür araştırmalar devam ederse izleyicileri korkutacak olası bir gelecek sunarak protesto ediyor. Bu web sitelerinde, etik ve hukuki konularla ilgili haberler, ziyaretçilerin uluslararası toplantılar ve HUKUK'la ilgili araştırma makaleleri hakkındaki son haberleri özetlemesi için sürekli güncellenmektedir.[40]

Holy See uluslararası toplumu, çeşitli vesilelerle LAWS kullanımını yasaklamaya çağırmıştır. Kasım 2018'de Başpiskopos Ivan Jurkovic Birleşmiş Milletler Holy See'nin daimi gözlemcisi, “Bir silahlanma yarışını, eşitsizliklerin ve istikrarsızlığın artmasını önlemek için, derhal harekete geçmek zorunlu bir görevdir: Şimdi, LAWS'nin devlet haline gelmesini önlemenin zamanıdır. yarının savaşının gerçekliği. " Kilise, bu silah sistemlerinin savaşın doğasını geri döndürülemez biçimde değiştirme, insan failliğinden kopukluk yaratma ve toplumların insanlığını sorgulama kabiliyetine sahip olduğundan endişe etmektedir.[41]

29 Mart 2019 itibarıyla, konuyu tartışmak için BM toplantısında temsil edilen hükümetlerin çoğunluğu HUKUK'un yasaklanmasını destekledi.[42] Avustralya, İsrail, Rusya, Birleşik Krallık ve ABD hükümetleri de dahil olmak üzere azınlıktaki bir hükümet yasağa karşı çıktı.[42]

Yasak yok, düzenleme

Üçüncü bir yaklaşım, bir yasak yerine otonom silah sistemlerinin kullanımının düzenlenmesine odaklanmaktadır.[43] Askeri AI silahlarının kontrolü, etkili teknik şartnamelerde somutlaşan yeni uluslararası normların, uzman toplulukları tarafından aktif izleme ve gayri resmi ('Track II') diplomasi ile birlikte yasal ve siyasi bir doğrulama süreci ile birlikte kurumsallaştırılmasını gerektirecektir.[44][45][46]

Ayrıca bakınız

Referanslar

  1. ^ a b Crootof, Rebecca (2015). "Katil Robotlar Burada: Yasal ve Politik Etkiler". 36 Cardozo L. Rev: 1837 - heinonline.org aracılığıyla.
  2. ^ Johnson, Khari (31 Ocak 2020). "Andrew Yang 'katliam robotlarına' karşı uyarıda bulunuyor ve otonom silahların küresel olarak yasaklanmasını istiyor". venturebeat.com. VentureBeat. Alındı 31 Ocak 2020.
  3. ^ Roff, Heather (2015). "Ölümcül Otonom Silahlar ve Jus Ad Bellum Orantılılığı".
  4. ^ Asaro, Peter (2012). "Otonom Silah Sistemlerinin Yasaklanması Üzerine: İnsan Hakları, Otomasyon ve Ölümcül Karar Vermenin İnsanlıktan Çıkarılması". Kızıl Haç. 687: 94.
  5. ^ "Gizem Olmadan Özerklik: Çizgiyi nereye çekiyorsunuz?". 1.0 İnsan. 2014-05-09. Alındı 2018-06-08.
  6. ^ "İnsansız uçak sistemleri (JDP 0-30.2)". GOV.UK. Alındı 2018-06-08.
  7. ^ "Taylor ve Francis Grubu". www.taylorfrancis.com. Alındı 2018-06-08.
  8. ^ "Askeri robotikle başa çıkmak". Ekonomist. 25 Ocak 2018. Alındı 7 Şubat 2018.
  9. ^ "ABD, Rusya'nın deniz altında nükleer silahlı torpido 'geliştirdiğini' söylüyor". CNN. 2018. Alındı 7 Şubat 2018.
  10. ^ "Rusya kendi kararlarını verebilecek bir füze inşa ediyor". 2017-07-20.
  11. ^ "Rusya'nın dijital kıyamet silahları: Robotlar savaşa hazırlanıyor - Rusya Beyond". 2017-05-31.
  12. ^ "Savaş makinelerinin yarışı: Rus savaş alanı robotları meydan okumaya yükseliyor - RT World News".
  13. ^ "'Yoldaş ': Rusya özgür düşünen bir savaş makinesi geliştiriyor ". 2017-08-09.
  14. ^ "Makinelerin Yükselişi: Rusya'nın en son savaş robotlarına bir bakış". 2017-06-06.
  15. ^ "Terminatör geri mi döndü? Ruslar yapay zeka konusunda büyük ilerlemeler kaydetti". 2016-02-10.
  16. ^ "Rusya'da geliştirilen robotlar ve dronlar için sanal eğitmen". 2017-05-15.
  17. ^ "Kara: Robotlarla ilgili devlet sırlarını açıklamıyordum - Jerusalem Post".
  18. ^ "Mini nükleer silahlar ve robot silahlarını incele, gelecekteki savaşlar için hazırlanıyor". 2017-03-17.
  19. ^ Allen, Gregory. "Çin'in Yapay Zeka Stratejisini Anlamak". Yeni Amerikan Güvenlik Merkezi. Yeni Amerikan Güvenlik Merkezi. Alındı 11 Mart 2019.
  20. ^ "Çin Ortadoğu'ya katil robot ihraç ediyor mu?". Asia Times. 2019-11-28. Alındı 2019-12-21.
  21. ^ "İngiliz Ordusu 2019'da yeni robotları operasyonel olarak konuşlandıracak | Mart 2019 Küresel Savunma Güvenliği ordu haber endüstrisi | Savunma Güvenliği küresel haber endüstrisi ordusu 2019 | Arşiv Haberleri yılı".
  22. ^ http://navyrecognition.com/index.php/news/defence-news/2019/march/6898-us-navy-plans-to-build-an-unmanned-ghost-fleet.html
  23. ^ ABD Savunma Bakanlığı (2012). "Direktif 3000.09, Silah sistemlerinde özerklik" (PDF). s. 2.
  24. ^ a b Gubrud, Mark (Nisan 2015). "Yarı otonom ve kendi başlarına: Platon'un Mağarasındaki Katil robotlar". Atom Bilimcileri Bülteni.
  25. ^ "Pentagon 'katil robot' tehdidini inceliyor". Boston Globe. 30 Mart 2016.
  26. ^ "Barack Obama Başkanlığını Şekillendiren 5 Günde". Daily Intelligencer. 2016-10-03. Alındı 3 Ocak 2017.
  27. ^ Devereaux, Ryan; Emmons, Alex (2016-10-03). "Obama, Geleceğin Başkanlarının Sürekli ve Gizli İHA Savaşı Vereceğinden Endişeleniyor". Kesmek. Alındı 3 Ocak 2017.
  28. ^ Stefanik, Elise M. (2018-05-22). "H.R.5356 - 115. Kongre (2017–2018): Ulusal Güvenlik Komisyonu 2018 Yapay Zeka Yasası". www.congress.gov. Alındı 2020-03-13.
  29. ^ Baum, Seth (2018-09-30). "Süper İstihbarat Yanlış Bilgilere Karşı". Bilgi. 9 (10): 244. doi:10.3390 / info9100244. ISSN  2078-2489.
  30. ^ Amerika Birleşik Devletleri. Savunma İnovasyon Kurulu. Yapay zeka ilkeleri: Savunma Bakanlığı tarafından yapay zekanın etik kullanımına ilişkin öneriler. OCLC  1126650738.
  31. ^ Russell, Stuart (27 Mayıs 2015). "AI silahları konusunda bir tavır alın". Uluslararası Haftalık Bilim Dergisi. 521.
  32. ^ Sharkey, Noel E. (Haziran 2012). "Otonom robot savaşının kaçınılabilirliği *". Uluslararası Kızıl Haç İncelemesi. 94 (886): 787–799. doi:10.1017 / S1816383112000732. ISSN  1816-3831.
  33. ^ Müller, Vincent C. (2016). "Otonom katil robotlar muhtemelen iyi haber". Ashgate. sayfa 67–81.
  34. ^ a b Umbrello, Steven; Torres, Phil; De Bellis, Angelo F. (2020-03-01). "Savaşın geleceği: Ölümcül otonom silahlar çatışmayı daha etik hale getirebilir mi?". AI ve Toplum. 35 (1): 273–282. doi:10.1007 / s00146-019-00879-x. hdl:2318/1699364. ISSN  1435-5655. S2CID  59606353.
  35. ^ Nyagudi, Nyagudi Musandu (2016-12-09). "Askeri Bilişimde Doktora Tezi (OpenPhD #openphd): Silahların Ölümcül Otonomisi Tasarlandı ve / veya Resesiftir". Alındı 2017-01-06.
  36. ^ Simpson, Thomas W; Müller, Vincent C. (2016). "Sadece savaş ve robot cinayetleri". Felsefi Üç Aylık. 66 (263): 302–22. doi:10.1093 / pq / pqv075.
  37. ^ "Musk, Hawking Yapay Zeka Silahlarını Uyarıyor". WSJ Blogları - Rakamlar. 2015-07-27. Alındı 2015-07-28.
  38. ^ Gibbs, Samuel (27 Temmuz 2015). "Musk, Wozniak ve Hawking, savaş yapay zekası ve otonom silahların yasaklanmasını teşvik ediyor". Gardiyan. Alındı 28 Temmuz 2015.
  39. ^ a b "Ölümcül Kararlar - katil robotlara 8 itiraz" (PDF). s. 10. Alındı 2 Aralık 2016.
  40. ^ "Ön Sayfa". Ölümcül Otonom Silahları Yasaklayın. 2017-11-10. Alındı 2018-06-09.
  41. ^ "Holy See, katil robotları yasaklama çağrısını yeniledi". Katolik Haber Ajansı. Alındı 2018-11-30.
  42. ^ a b Gayle, Damien (2019-03-29). "Birleşik Krallık, ABD ve Rusya katil robot yasağına karşı çıkanlar arasında". gardiyan. Alındı 2019-03-30.
  43. ^ Bento, Lucas (2017). "Salt Deodands Değil: Uluslararası Kamu Hukuku Kapsamında Şiddetli Akıllı Sistemlerin Kullanımında İnsan Sorumlulukları". Harvard Burs Deposu. Alındı 2019-09-14.
  44. ^ Geist, Edward Moore (2016-08-15). "AI silahlanma yarışını durdurmak için zaten çok geç — Onun yerine onu yönetmeliyiz". Atom Bilimcileri Bülteni. 72 (5): 318–321. Bibcode:2016BuAtS..72e.318G. doi:10.1080/00963402.2016.1216672. ISSN  0096-3402. S2CID  151967826.
  45. ^ Maas, Matthijs M. (2019-02-06). "Askeri yapay zeka için uluslararası silah kontrolü ne kadar uygulanabilir? Nükleer silahlardan üç ders". Çağdaş Güvenlik Politikası. 40 (3): 285–311. doi:10.1080/13523260.2019.1576464. ISSN  1352-3260. S2CID  159310223.
  46. ^ Ekelhof, Merel (2019). "Otonom Silahlarda Anlam Biliminin Ötesine Geçmek: Operasyonda Anlamlı İnsan Kontrolü". Global Politika. 10 (3): 343–348. doi:10.1111/1758-5899.12665. ISSN  1758-5899.

daha fazla okuma

  • Heyns, Christof (2013), "Yargısız, yargısız veya keyfi infazlara ilişkin Özel Raportör Raporu", BM Genel Kurulu, İnsan Hakları Konseyi, 23 (3), A / HRC / 23/47.
  • Krishnan, Armin (2009), Katil robotlar: Otonom silahların yasallığı ve etikliği (Aldershot: Ashgate)
  • Müller, Vincent C. (2016), "Otonom katil robotlar muhtemelen iyi haber", Ezio Di Nucci ve Filippo Santoni de Sio'da (editörler), Drones ve sorumluluk: Uzaktan kumandalı silahların kullanımına ilişkin yasal, felsefi ve sosyo-teknik perspektifler, 67-81 (Londra: Ashgate).
  • Stuart Russell Yasalara karşı kampanyası
  • Sharkey, Noel E (2012), 'Automating Warfare: drone'lardan öğrenilen dersler', Journal of Law, Information & Science, 21 (2).
  • Simpson, Thomas W ve Müller, Vincent C. (2016), "Sadece savaş ve robot cinayetleri", The Philosophical Quarterly 66 (263), 302–22.
  • Şarkıcı, Peter (2009), Wired for war: The robotik devrim ve 21.Yüzyılda çatışma (New York: Penguin)
  • ABD Savunma Bakanlığı (2012), "3000.09 sayılı Direktif, Silah sistemlerinde özerklik". <2014 Killer Robots Policy Paper Final.docx>.
  • ABD Savunma Bakanlığı (2013), "İnsansız Sistemler Entegre Yol Haritası FY2013-2038". <http://www.defense.gov/pubs/DOD-USRM-2013.pdf%3E.
  • Otonom Silah Sistemlerinin Etiği (2014) Semineri UPenn'de <https://www.law.upenn.edu/institutes/cerl/conferences/ethicsofweapons/schedule-required-readings.php >