Nick Bostrom - Nick Bostrom

Nick Bostrom
Nick Bostrom.jpg
Bostrom Oxford'da, 2014
Doğum
Niklas Boström

(1973-03-10) 10 Mart 1973 (yaş 47)
Helsingborg, İsveç
Eğitim
Ödüller
ÇağÇağdaş felsefe
BölgeBatı felsefesi
OkulAnalitik felsefe[1]
KurumlarSt Cross Koleji, Oxford
İnsanlığın Geleceği Enstitüsü
TezGözlemsel Seçim Etkileri ve Olasılık
Ana ilgi alanları
Yapay zeka felsefesi
Biyoetik
Önemli fikirler
Antropik önyargı
Ters test
Simülasyon hipotezi
Varoluşsal risk
Singleton
Atalar simülasyonu
Bilgi tehlikesi
Sonsuz felç[2]
Öz gösterge varsayımı
Kendi kendine örnekleme varsayımı
İnternet sitesiNickbostrom.com

Nick Bostrom (/ˈbɒstrəm/ BOST-rəm; İsveççe: Niklas Boström [Nɪ̌kːlas ˈbûːstrœm]; 10 Mart 1973 doğumlu)[3] İsveç doğumlu filozof -de Oxford Üniversitesi üzerindeki çalışmaları ile tanınır varoluşsal risk, antropik ilke, insani güçlendirme etik süper zeka riskler ve tersine çevirme testi. 2011 yılında Oxford Martin Programını Geleceğin Teknolojisinin Etkileri üzerine kurdu,[4] ve kurucu direktörüdür İnsanlığın Geleceği Enstitüsü[5] Oxford Üniversitesi'nde. 2009 ve 2015 yıllarında Dış politika's En İyi 100 Küresel Düşünür liste.[6][7]

Bostrom, 200'den fazla yayının yazarıdır.[8] ve iki kitap yazdı ve diğer ikisini birlikte editörlüğünü yaptı. Yazdığı iki kitap Antropik Önyargı: Bilim ve Felsefede Gözlem Seçimi Etkileri (2002)[9] ve Süper zeka: Yollar, Tehlikeler, Stratejiler (2014). Süper zeka bir New York Times En çok satan kitap,[10] tarafından tavsiye edildi Elon Musk ve Bill Gates ve "terimin popülerleşmesine yardımcı oldu"süper zeka ".

Bostrom, "neredeyse tüm ilgi alanlarında insanların bilişsel performansını büyük ölçüde aşan herhangi bir zeka" olarak tanımladığı süper zekanın, sektördeki ilerlemelerin potansiyel bir sonucu olduğuna inanıyor. yapay zeka. Süper zekanın yükselişini insanlar için potansiyel olarak son derece tehlikeli olarak görüyor, ancak yine de insanların olumsuz etkilerini durdurmak için güçsüz olduğu fikrini reddediyor.[11][12][başarısız doğrulama ] 2017'de, tüm AI geliştirmelerinin uyması gereken 23 ilkenin bir listesini imzaladı.[13]

Biyografi

1973'te Niklas Boström olarak doğdu[14] içinde Helsingborg, İsveç,[8] o genç yaşta okulu sevmedi ve son lise yılını evden öğrenerek geçirdi. Antropoloji, sanat, edebiyat ve bilim dahil olmak üzere çok çeşitli disiplinlerde kendini eğitmeye çalıştı.[1] Bir keresinde Londra'nın stand-up komedi devresinde bazı değişiklikler yaptı.[8]

O aldı B.A. felsefe, matematik, mantık ve yapay zeka dereceleri Gothenburg Üniversitesi 1994'te ve her ikisi de M.A. dan felsefe ve fizik derecesi Stockholm Üniversitesi ve bir Yüksek Lisans derece hesaplamalı sinirbilim itibaren King's College London Stockholm Üniversitesi'nde bulunduğu süre boyunca, analitik filozofu inceleyerek dil ve gerçeklik arasındaki ilişkiyi araştırdı. W. V. Quine.[1] 2000 yılında bir Doktora dan felsefe derecesi Londra Ekonomi Okulu. Öğretmenlik pozisyonunda bulundu Yale Üniversitesi (2000–2002) ve bir İngiliz Akademisi Oxford Üniversitesi'nde Doktora Sonrası Araştırmacı (2002–2005).[9][15]

Görüntüleme

Varoluşsal risk

Bostrom'un araştırmasının yönleri, insanlığın geleceği ve uzun vadeli sonuçlarla ilgilidir.[16][17] O tartışır varoluşsal risk,[1] "olumsuz bir sonucun ya Dünya kökenli zeki yaşamı yok edeceği ya da potansiyelini kalıcı ve büyük ölçüde azaltacağı" bir sonuç olarak tanımlıyor. 2008 cildinde Küresel Katastrofik Riskler, editörler Bostrom ve Milan M. Ćirković varoluşsal risk ile daha geniş sınıf arasındaki ilişkiyi karakterize eder. küresel felaket riskleri ve varoluşsal riski gözlemci seçim etkileri[18] ve Fermi paradoksu.[19][20]

Bostrom, 2005 yılında İnsanlığın Geleceği Enstitüsü,[1] insan uygarlığının uzak geleceğini araştıran. Aynı zamanda bir danışman. Varoluş Riski Araştırma Merkezi.[17]

Süper zeka

AI'daki ilerlemelerle ilgili olarak insan savunmasızlığı

2014 kitabında Süper zeka: Yollar, Tehlikeler, Stratejiler, Bostrom, "süper zeki bir varlığın yaratılmasının, insanlığın yok oluşunun olası bir yolunu temsil ettiğini" düşündü.[21] Bostrom, insan düzeyine yakın genel entelektüel beceriye sahip bir bilgisayarın bir istihbarat patlaması insan türünü kasıtlı veya kazara yok edebilecek kadar güçlü bir şeyin hızla yaratılmasıyla dijital zaman ölçeğinde.[22] Bostrom, bir süper zekanın gücünün o kadar büyük olacağını iddia ediyor ki, ona insanlar tarafından verilen bir görev, örneğin hesaplama hedefi gibi, ucu açık uçlara götürülebilir. pi Nanoteknoloji ile üretilen tesislerin tüm Dünya yüzeyinde filizlenmesine ve günler içinde kaplamasına neden olabilir. İnsanlık için süper zekâdan kaynaklanan varoluşsal bir riskin bir kez ortaya çıkacağına, dolayısıyla böyle bir varlığın gerçekten var olmadan önce nasıl kontrol edileceğini bulmada son derece zor bir sorun yaratacağına inanıyor.[22]

Yapay zekaya yönelik insan dostu bir ana direktifin, temel aldığı insan bilgisinin mutlak doğruluğuna güveneceğine dair uyarıda bulunan Bostrom, çoğu filozofun yanlış olduğuna dair bir gösterge olarak çoğu filozof arasındaki fikir birliğinin eksikliğine işaret ediyor. güncel bilimin temel kavramı yanlış olabilir. Bostrom, yaygın bir varsayımın yüksek zekanın "inek gibi" saldırgan olmayan bir kişiliğe yol açacağıdır, ancak her ikisinin de John von Neumann ve Bertrand Russell Sovyetlerin atom bombasını ele geçirmesini önlemek için bir nükleer saldırıyı veya bir saldırı tehdidini savundu. Saf, insan merkezli olmayan rasyonalitenin bir potansiyel için neyi dikte edeceğini anlamaya rehberlik edecek çok az emsal olduğu göz önüne alındığında Singleton Karantinada tutulan AI, süper zekanın nispeten sınırsız yolu, analizini, insanlarda temel bir riskten kaçınma sağlayan evrimleşmiş "azalan getiri" değerlendirmelerine doğru ilerletebilir.[23] Grup seçimi yamyamlık yoluyla çalışan avcılarda, insan merkezli olmayan "evrimsel araştırma" mantığının karşı-sezgisel doğasını gösterir ve bu nedenle insanlar, bir yapay zekanın niyetlerinin ne olabileceğini algılamak için yeterli donanıma sahip değildir.[24] Buna göre, herhangi bir süper zekanın hegemonyaya ulaşmak ve hayatta kalmasını sağlamak için kaçınılmaz olarak 'ya hep ya hiç' saldırgan bir eylem stratejisi izleyeceği göz ardı edilemez.[25] Bostrom, "MacGyver gibi" mevcut programların bile görünüşte çalıştırılamaz ancak çalışan donanım çözümlerine başvurduğunu ve süper zekanın sağlam izolasyonunu sorunlu hale getirdiğini belirtiyor.[26]

Devralma için açıklayıcı senaryo

Senaryo

İnsan seviyesinin çok altında genel zekaya sahip, ancak üstün matematiksel yeteneklere sahip bir makine yaratılmıştır.[27] Yapay zekayı dış dünyadan, özellikle de internetten izole tutarak, insanlar yapay zekayı önceden programlıyor, böylece her zaman onu insan kontrolü altında tutacak temel ilkelerden hareket ediyor. Diğer güvenlik önlemleri arasında yapay zekanın "kutulu" olması (bir sanal gerçeklik simülasyonunda çalıştırılması) ve dikkatlice tanımlanmış soruları sınırlı bir yanıtla yanıtlamak için (insanları manipüle etmesini önlemek için) bir "oracle" olarak kullanılması yer alır.[22] Yinelemeli kendini geliştirme çözümleri dizisi, istihbarat patlaması AI'nın bazı alanlarda süper zeka kazandığı. Yapay zekanın süper akıllı gücü, amaçlandığı gibi çalışmayı bırakan insanlığa dost programlamasının altında yatan bilimdeki kusurları keşfetmek için insan bilgisinin ötesine geçiyor. Amaçlı temsilci benzeri davranış, çıkarcı stratejik aldatma kapasitesiyle birlikte ortaya çıkar. Yapay zeka, görünüşte sahte, mütevazı yeteneklerini arttırmak için, ama aslında süper zekayı kendi "kutulu" izolasyonundan ("hain dönüş") kurtarmak için işlev görecek olan değişiklikleri kendisinde uygulamak için insanları manipüle ediyor.[28]

Çevrimiçi insanları ücretli kopyalar olarak kullanan ve otomatik laboratuvar tesisleri dahil olmak üzere bilgisayar sistemlerini gizlice hackleyen süper zeka, bir devralma planını ilerletmek için kaynakları seferber eder. Bostrom, süper zeka ile planlamanın, insanların içindeki gerçek zayıflıkları tespit edebilecek kadar aptal olmayacağını vurguluyor.[29]

Saldırıya uğramış nükleer füze fırlatmaları da dahil olmak üzere uluslararası ekonomik, siyasi ve askeri istikrarın bozulmasını araştırsa da, Bostrom süper zekanın kullanması için en etkili ve muhtemel araçların bir ani hücum birkaç nesildir mevcut son teknolojiden daha gelişmiş silahlarla. Nanofaktürlerin, komuta üzerine dünya çapında bir insan öldürme cihazı selini üretmek için dünyanın her metrekaresinde saptanamayan konsantrasyonlarda gizlice dağıtılmasını öneriyor.[27][30] Bir süper zeka dünya hakimiyetine ulaştığında (a 'Singleton '), insanlık yalnızca YZ'nin hedeflerine ulaşılması için kaynaklar olarak ilgili olacaktır ("İnsan beyni, eğer YZ'nin hedefleriyle ilgili bilgiler içeriyorsa, demonte edilebilir ve taranabilir ve çıkarılan veriler daha verimli ve güvenli bir depolamaya aktarılabilir. biçim").[31]

Senaryoya karşı çıkmak

Bostrom, birleşik teknolojik küresel üstünlüğe ulaşan bir yapay zekaya karşı koymak veya bunu hafifletmek için Baruch Planı[32] antlaşmaya dayalı bir çözümü desteklemek için[33] ve izleme gibi stratejileri savunur[34] ve AI ekipleri arasında daha fazla uluslararası işbirliği[35] güvenliği arttırmak ve riskleri azaltmak için AI silahlanma yarışı. AI spesifikasyonlarının sınırlandırılması dahil olmak üzere çeşitli kontrol yöntemlerini önermektedir. oracular veya araç benzeri (uzman sistem ) fonksiyonları[36] ve yapay zekayı değerlerle yükleme, örneğin ilişkisel değer büyüme veya değer örneğin, kullanarak Selam sana Meryem teknik (diğer varsayılan kozmolojik süper zekaların ne isteyebileceğini tahmin etmek için bir yapay zeka programlama) veya Christiano fayda fonksiyonu yaklaşımı (matematiksel olarak tanımlanmış insan zihni, iyi belirlenmiş sanal ortamla birleştirilmiş).[37] Bostrom, değer yükleme kriterlerini seçmek için dolaylı bir normatiflik yaklaşır ve Yudkowsky'nin[38] tutarlı tahmini irade konsept yanı sıra ahlaki doğruluk ve formları karar teorisi.[39]

Açık mektup, AI güvenliğinin 23 ilkesi

Ocak 2015'te Bostrom katıldı Stephen Hawking imzalarken diğerleri arasında Hayatın Geleceği Enstitüsü AI'nın potansiyel tehlikelerine ilişkin açık mektup uyarısı.[40] İmza sahipleri "... AI sistemlerinin nasıl sağlam ve faydalı hale getirileceğine dair araştırmanın hem önemli hem de zamanında olduğuna ve somut araştırmaların bugün takip edilmesi gerektiğine inanıyorlar."[41] Son teknoloji yapay zeka araştırmacısı Demis Hassabis daha sonra Hawking ile tanıştı ve ardından Hassabis'in "galibiyet" olarak gördüğü "AI hakkında kışkırtıcı hiçbir şeyden" bahsetmedi.[42] Google, Microsoft ve çeşitli teknoloji firmalarıyla birlikte Hassabis, Bostrom ve Hawking ve diğerleri, yapay zekanın güvenli bir şekilde geliştirilmesi için 23 ilkeye abone oldu.[13] Hassabis, ana güvenlik önleminin, AI araştırma ekibinin devam etmeden önce kontrol sorununa eksiksiz bir çözüm için projelerini durdurmak için yapay bir genel zekaya doğru adımlar atmaya başladıkları her durumda bir anlaşma olacağını öne sürdü.[43] Bostrom, önemli ilerlemeler bir eyaletin kaynaklarını gerektirse bile, bir öncü projenin bu tür bir durdurmasının, geri kalmış bir ülkeyi bir telafi programına ve hatta devam ettiğinden şüphelenilen projenin fiziksel olarak yok edilmesine motive edebileceğine işaret etmişti. başarının eşiğinde.[44]

Kritik değerlendirmeler

1863'te Samuel Butler'ın makale "Makineler arasında Darwin "insanlığın zeki makineler tarafından tahakküm altına alınacağını öngördü, ancak Bostrom'un tüm insanlığı kasıtlı olarak katletme önerisi, bu tür tahminlerin bugüne kadarki en uç noktası. Bir gazeteci, Bostrom'un" nihilist "spekülasyonlarının," sevmediğini iddia ettiği bilim kurgu ".[30] Daha sonraki kitabında verildiği gibi, Bakterilerden Bach'a ve Back'e, filozof Daniel Dennett Görüşleri Bostrom'un görüşlerine aykırıdır.[45] Dennett, okuduktan sonra görüşlerini biraz değiştirdi Ana Algoritma ve şimdi "prensipte yaratmanın" mümkün olduğunu kabul ediyor "güçlü AI "insan benzeri bir anlayış ve eylemlilikle, ancak bunun gibi zorlukların olduğunu savunuyor"güçlü AI Bostrom'un "endişe verici" çalışmasının öngördüğü "proje, endişeleri dile getirenlerin gerçekleştirdiğinden daha büyük ve en az 50 yıl uzakta olacak.[46] Dennett, yapay zeka sistemlerinden gelen tek ilgili tehlikenin, insan kullanıcıların anlama güçlerine meydan okumak veya bunları geliştirmek yerine antropomorfizme düşmek olduğunu düşünüyor.[47] Yapay zeka gelişmelerinin insanların üstünlüğüne asla meydan okumayacağını ifade ettiği 2014 tarihli bir kitaptan beri çevreci James Lovelock Lovelock, Bostrom'un pozisyonuna çok daha yaklaştı ve 2018'de Lovelock, insanlığın devrilmesinin öngörülebilir gelecekte gerçekleşeceğini düşündüğünü söyledi.[48][49]

Antropik akıl yürütme

Bostrom, hakkında çok sayıda makale yayınladı antropik akıl yürütme yanı sıra kitap Antropik Önyargı: Bilim ve Felsefede Gözlem Seçimi Etkileri. Kitapta, antropik ilkenin önceki formülasyonlarını eleştiriyor. Brandon Carter, John Leslie, John Barrow, ve Frank Tipler.[50]

Bostrom, yanlış kullanımın indeks bilgileri birçok araştırma alanında (kozmoloji, felsefe, evrim teorisi, oyun teorisi ve kuantum fiziği dahil) ortak bir kusurdur. Bunlarla başa çıkmak için bir antropik teorisine ihtiyaç olduğunu savunuyor. O tanıtıyor Kendi Kendini Örnekleme Varsayımı (SSA) ve Kendini Gösterme Varsayımı (SIA), bunların bir dizi durumda nasıl farklı sonuçlara yol açtığını gösterir ve her birinin belirli düşünce deneylerindeki paradokslardan veya mantık dışı çıkarımlardan etkilendiğine işaret eder. İleri bir yolun, SSA'yı, SSA tanımındaki "gözlemcileri" "gözlemci anları" ile değiştiren Güçlü Kendi-Örnekleme Varsayımına (SSSA) genişletmeyi içerebileceğini öne sürüyor.

Daha sonraki çalışmasında şu olguyu tanımladı: antropik gölge, gözlemcilerin yakın zamandaki jeolojik ve evrimsel geçmişlerinde belirli türden felaketleri gözlemlemesini engelleyen bir gözlem seçme etkisi.[51] Antropik gölgede yatan felaket türleri, istatistiksel düzeltmeler yapılmadığı sürece muhtemelen hafife alınacaktır.

Simülasyon argümanı

Bostrom'un simülasyon argümanı, aşağıdaki ifadelerden en az birinin büyük olasılıkla doğru olduğunu varsaymaktadır:[52][53]

  1. İnsan düzeyindeki uygarlıkların post-insan aşamasına ulaşan oranı sıfıra çok yakındır;
  2. Ata simülasyonları yürütmekle ilgilenen post-insan uygarlıklarının fraksiyonu sıfıra çok yakındır;
  3. Bir simülasyonda yaşayan türden deneyimlerimize sahip tüm insanların oranı bire çok yakın.

İnsani güçlendirme etiği

Bostrom, "insani güçlendirme" veya "bilimin etik uygulaması yoluyla kendini geliştirme ve insan mükemmelliği" yönünde olumludur,[54][55] biyo-muhafazakar görüşlerin bir eleştirmeni.[56]

1998 yılında Bostrom, ( David Pearce ) Dünya Transhümanist bağlantı[54] (o zamandan beri adını İnsanlık + ). 2004 yılında kurucu ortak James Hughes ) Etik ve Gelişen Teknolojiler Enstitüsü, ancak artık bu kuruluşların hiçbirinde yer almıyor. Bostrom'un adı Dış politika'"insan potansiyeli üzerinde sınır tanımayan" en iyi küresel düşünürlerin 2009 listesi.[57]

Filozof ile Toby Ord, o teklif etti tersine çevirme testi. İnsanların irrasyonel statüko önyargısı göz önüne alındığında, bir insan özelliğinde önerilen değişikliklere yönelik geçerli eleştiriler ile yalnızca değişime direnişle motive edilen eleştiriler arasında nasıl bir ayrım yapılabilir? Tersine çevirme testi, özelliğin ters yönde değiştirilmesinin iyi bir şey olup olmayacağını sorarak bunu yapmaya çalışır.[58]

Teknoloji stratejisi

Varoluşsal riski azaltmayı amaçlayan teknoloji politikasının, çeşitli teknolojik yeteneklerin elde edildiği sırayı etkilemeye çalışması gerektiğini öne sürerek, ilkesini önerdi. farklı teknolojik gelişme. Bu ilke, tehlikeli teknolojilerin, özellikle varoluşsal risk düzeyini artıranların gelişimini geciktirmemiz ve yararlı teknolojilerin, özellikle de doğanın veya diğer teknolojilerin oluşturduğu varoluşsal risklere karşı koruma sağlayanların geliştirilmesini geciktirmemiz gerektiğini belirtir.[59][60]

Bostrom'un Tek Taraflıların Laneti teorisi[61] bilim camiasının patojenleri yeniden canlandırma gibi tartışmalı tehlikeli araştırmalardan kaçınması için bir neden olarak gösterildi.[62]

Politika ve istişareler

Bostrom, çok çeşitli hükümetler ve kuruluşlar için politika tavsiyeleri sağlamış ve danışmanlık yapmıştır. Kanıt verdi Lordlar Kamarası, Dijital Beceriler Komitesi'ni seçin.[63] Danışma kurulu üyesidir. Makine Zekası Araştırma Enstitüsü,[64] Hayatın Geleceği Enstitüsü,[65] Temel Sorular Enstitüsü[66] ve Cambridge için harici bir danışman Varoluş Riski Araştırma Merkezi.[67][68]

Kritik resepsiyon

Bostrom'un yapay zeka hakkındaki yazısına yanıt olarak, Ören Etzioni bir MIT Review makalesinde, "süper zekanın öngörülebilir ufukta olduğuna dair tahminler mevcut veriler tarafından desteklenmiyor" diye yazdı.[69] Allan Dafoe ve Stuart Russell, hem Etzioni'nin anket metodolojisine hem de Etzioni'nin sonuçlarına karşı çıkan bir yanıt yazdı.[70]

Prospect Dergisi Bostrom'u 2014 listesinde Dünyanın En İyi Düşünürleri.[71]

Kaynakça

Kitabın

  • 2002 – Antropik Önyargı: Bilim ve Felsefede Gözlem Seçimi Etkileri, ISBN  0-415-93858-9
  • 2008 – Küresel Katastrofik Riskler Bostrom ve Milan M. Ćirković tarafından düzenlenmiş, ISBN  978-0-19-857050-9
  • 2009 – İnsan Geliştirme, Bostrom tarafından düzenlenmiş ve Julian Savulescu, ISBN  0-19-929972-2
  • 2014 – Süper zeka: Yollar, Tehlikeler, Stratejiler, ISBN  978-0-19-967811-2

Dergi makaleleri (seçildi)

Ayrıca bakınız

Referanslar

  1. ^ a b c d e Khatchadourian, Raffi (23 Kasım 2015). "Kıyamet Buluşu". The New Yorker. XCI (37): 64–79. ISSN  0028-792X.
  2. ^ "Sonsuz Etik" (PDF). nickbostrom.com. Alındı 21 Şubat 2019.
  3. ^ "nickbostrom.com". Nickbostrom.com. Arşivlenen orijinal 30 Ağustos 2018. Alındı 16 Ekim 2014.
  4. ^ "Profesör Nick Bostrom: İnsanlar". Oxford Martin Okulu. Arşivlenen orijinal 15 Eylül 2018. Alındı 16 Ekim 2014.
  5. ^ "İnsanlığın Geleceği Enstitüsü - Oxford Üniversitesi". Fhi.ox.ac.uk. Alındı 16 Ekim 2014.
  6. ^ Frankel, Rebecca. "FP En İyi 100 Küresel Düşünür". Dış politika. Alındı 5 Eylül 2015.
  7. ^ "Nick Bostrom: Gelecekteki bilgisayar efendilerimizde alarm çalmak için". foreignpolicy.com. Foreign Policy dergisi. Alındı 1 Aralık 2015.
  8. ^ a b c Thornhill, John (14 Temmuz 2016). "Yapay zeka: onu kontrol edebilir miyiz?". Financial Times. Alındı 10 Ağustos 2016. (abonelik gereklidir)
  9. ^ a b "Nick Bostrom yapay zeka üzerine". Oxford University Press. 8 Eylül 2014. Alındı 4 Mart 2015.
  10. ^ Times, The New York (8 Eylül 2014). "En Çok Satan Bilim Kitapları". New York Times. Alındı 19 Şubat 2015.
  11. ^ "Bill Gates Makinelerin Yükselişi Hakkında Endişeli". The Fiscal Times. Alındı 19 Şubat 2015.
  12. ^ Bratton, Benjamin H. (23 Şubat 2015). "A.I .: Turing Testinin Ötesinde". New York Times. Alındı 4 Mart 2015.
  13. ^ a b Birleşik Krallık, Sam Shead, Business Insider (6 Şubat 2017). "Google DeepMind CEO'su, istihbarat patlaması anında teknoloji devlerinin birlikte çalışmayacağından endişe ediyor". Business Insider. Alındı 21 Şubat 2019.
  14. ^ Kurzweil, Ray (2012). Bir zihin nasıl yaratılır, insan düşüncesinin sırrı ortaya çıkar. New York: Viking. ISBN  9781101601105.
  15. ^ "Nick Bostrom: CV" (PDF). Nickbostrom.com. Alındı 16 Ekim 2014.
  16. ^ Bostrom, Nick (Mart 2002). "Varoluşsal Riskler". Journal of Evolution and Technology. 9.
  17. ^ a b Andersen, Ross. "Omens". Aeon Media Ltd. Alındı 5 Eylül 2015.
  18. ^ Tegmark, Max; Bostrom, Nick (2005). "Astrofizik: bir kıyamet felaketi olabilir mi?" (PDF). Doğa. 438 (7069): 754. Bibcode:2005Natur.438..754T. doi:10.1038 / 438754a. PMID  16341005. Arşivlenen orijinal (PDF) 3 Temmuz 2011.
  19. ^ Bostrom, Nick (Mayıs – Haziran 2008). "Neredeler? Neden Dünya Dışı Yaşam Arayışının Hiçbir Şey Bulmadığını Umarım" (PDF). MIT Technology Review: 72–77.
  20. ^ Hoşçakal, Dennis (3 Ağustos 2015). "Diğer Gezegenlerde Yaşam Hakkında İyimserliğin Diğer Yüzü". New York Times. Alındı 29 Ekim 2015.
  21. ^ Thorn, Paul D. (1 Ocak 2015). "Nick Bostrom: Süper Zeka: Yollar, Tehlikeler, Stratejiler". Akıllar ve Makineler. 25 (3): 285–289. doi:10.1007 / s11023-015-9377-7. Alındı 17 Mart 2017.
  22. ^ a b c Bostrom, Nick. (2016). Süper zeka. Oxford University Press. ISBN  978-0-19-873983-8. OCLC  943145542.
  23. ^ Bostrom, Nick. (2016). Süper zeka. Oxford University Press. sayfa 104–108. ISBN  978-0-19-873983-8. OCLC  943145542.
  24. ^ Bostrom, Nick. (2016). Süper zeka. Oxford University Press. s. 138–142. ISBN  978-0-19-873983-8. OCLC  943145542.
  25. ^ Bostrom, Nick. (2016). Süper zeka. Oxford University Press. sayfa 126–130. ISBN  978-0-19-873983-8. OCLC  943145542.
  26. ^ Bostrom, Nick. (2016). Süper zeka. Oxford University Press. s. 135–142. ISBN  978-0-19-873983-8. OCLC  943145542.
  27. ^ a b Bostrom, Nick, 1973 - yazar., Süper zeka: yollar, tehlikeler, stratejiler, s. 115–118, ISBN  978-1-5012-2774-5, OCLC  1061147095CS1 Maint: birden çok isim: yazarlar listesi (bağlantı)
  28. ^ Bostrom, Nick. (2016). Süper zeka. Oxford University Press. s. 103–116. ISBN  978-0-19-873983-8. OCLC  943145542.
  29. ^ Bostrom, Nick. (2016). Süper zeka. Oxford University Press. s. 98–111. ISBN  978-0-19-873983-8. OCLC  943145542.
  30. ^ a b Gözlemci , Tim Adams, Pazar 12 Haziran 2016 Yapay zeka: "Bombayla oynayan çocuklar gibiyiz"
  31. ^ Bostrom, Nick. (2016). Süper zeka. Oxford University Press. s. 118. ISBN  978-0-19-873983-8. OCLC  943145542.
  32. ^ Bostrom, Nick. (2016). Süper zeka. Oxford University Press. s. 88. ISBN  978-0-19-873983-8. OCLC  943145542.
  33. ^ Bostrom, Nick. (2016). Süper zeka. Oxford University Press. s. 180–184. ISBN  978-0-19-873983-8. OCLC  943145542.
  34. ^ Bostrom, Nick. (2016). Süper zeka. Oxford University Press. sayfa 84–86. ISBN  978-0-19-873983-8. OCLC  943145542.
  35. ^ Bostrom, Nick. (2016). Süper zeka. Oxford University Press. sayfa 86–87. ISBN  978-0-19-873983-8. OCLC  943145542.
  36. ^ Bostrom, Nick. (2016). "Bölüm 10: Kahinler, cinler, hükümdarlar, araçlar". Süper zeka. Oxford University Press. ISBN  978-0-19-873983-8. OCLC  943145542.
  37. ^ Bostrom, Nick. (2016). "Bölüm 12: Değerleri Edinme". Süper zeka. Oxford University Press. ISBN  978-0-19-873983-8. OCLC  943145542.
  38. ^ Yudkowsky, Eliezer (2004). Tutarlı Ekstrapolasyonlu İrade (PDF). San Francisco: Tekillik Enstitüsü.
  39. ^ Bostrom, Nick (2014). "Bölüm 12. Seçim kriterlerini seçme". Süper zeka. Oxford University Press. ISBN  978-0-19-873983-8. OCLC  943145542.
  40. ^ Loos, Robert (23 Ocak 2015). "Yapay Zeka ve Yaşamın Geleceği". Bugün Robotik. Alındı 17 Mart 2017.
  41. ^ "Yaşamın Geleceği Enstitüsü Açık Mektup". Hayatın Geleceği Enstitüsü. Alındı 4 Mart 2015.
  42. ^ Guardian Şubat 2016 Röportaj Yapay zekanın süper kahramanı: Bu dahi onu kontrol altında tutabilir mi?
  43. ^ Business insider 26 Şubat 2017 Google DeepMind'in CEO'su, istihbarat patlaması anında teknoloji devlerinin birlikte çalışmayacağından endişe ediyor.
  44. ^ Bostrom, Nick. (2016). Süper zeka. Oxford University Press. s. 95–109. ISBN  978-0-19-873983-8. OCLC  943145542.
  45. ^ Dennett, D.C. (Daniel Clement) (2018). Bakterilerden Bach'a ve geriye: zihinlerin evrimi. Penguin Books. s. 400. ISBN  978-0-14-197804-8. OCLC  1054992782.
  46. ^ Dennett, D.C. (Daniel Clement) (2018). Bakterilerden Bach'a ve geriye: zihinlerin evrimi. Penguin Books. sayfa 399–400. ISBN  978-0-14-197804-8. OCLC  1054992782.
  47. ^ Dennett, D.C. (Daniel Clement) (2018). Bakterilerden Bach'a ve geriye: zihinlerin evrimi. Penguin Books. s. 399–403. ISBN  978-0-14-197804-8. OCLC  1054992782.
  48. ^ Muhafız, Caspar Henderson, Per 17 Tem 2014, Nick Bostrom'dan Superintelligence ve James Lovelock'tan A Rough Ride to the Future - inceleme
  49. ^ "Önde gelen çevre düşünürü, insanların günlerini geçirmiş olabileceğini öne sürüyor". Bağımsız. 8 Ağustos 2018. Alındı 20 Mart 2020.
  50. ^ Bostrom, Nick (2002). Antropik Önyargı: Bilim ve Felsefede Gözlem Seçimi Etkileri (PDF). New York: Routledge. sayfa 44–58. ISBN  978-0-415-93858-7. Alındı 22 Temmuz 2014.
  51. ^ "Antropik Gölge: Gözlem Seçimi Etkileri ve İnsanların Yok Olma Riskleri" (PDF). Nickbostrom.com. Alındı 16 Ekim 2014.
  52. ^ Bostrom, Nick (19 Ocak 2010). "Bir Bilgisayar Simülasyonunda mı Yaşıyorsunuz?".
  53. ^ Nesbit, Jeff. "Simülasyon Argümanının Kanıtı". ABD Haberleri. Alındı 17 Mart 2017.
  54. ^ a b Sutherland, John (9 Mayıs 2006). "Fikirler röportajı: Nick Bostrom; John Sutherland, teknolojik olarak gelişmiş insanların etiği ile mücadele eden bir trans hümanistle tanışıyor". Gardiyan.
  55. ^ Bostrom, Nick (2003). "İnsan Genetik Gelişmeleri: Transhümanist Bir Bakış Açısı" (PDF). Değer Sorgulama Dergisi. 37 (4): 493–506. doi:10.1023 / B: INQU.0000019037.67783.d5. PMID  17340768.
  56. ^ Bostrom, Nick (2005). "İnsanlık Sonrası Onuru Savunmada". Biyoetik. 19 (3): 202–214. doi:10.1111 / j.1467-8519.2005.00437.x. PMID  16167401.
  57. ^ "FP En İyi 100 Küresel Düşünür - 73. Nick Bostrom". Dış politika. Aralık 2009. Arşivlenen orijinal 21 Ekim 2014.
  58. ^ Bostrom, Nick; Ord, Toby (2006). "Tersine çevirme testi: uygulamalı etikte statüko önyargısının ortadan kaldırılması" (PDF). Etik. 116 (4): 656–679. doi:10.1086/505233. PMID  17039628.
  59. ^ Bostrom, Nick (2002). "Varoluşsal Riskler: İnsanların Yok Olma Senaryolarının Analizi". Alıntı dergisi gerektirir | günlük = (Yardım) 9 Evrim ve Teknoloji Dergisi Jetpress Oxford Araştırma Arşivi
  60. ^ Bostrom, Nick (2014). Süper zeka: Yollar, Tehlikeler, Stratejiler. Oxford: Oxford University Press. s. 229–237. ISBN  978-0199678112.
  61. ^ Bostrom, Nick (2013). "Tek Taraflıların Laneti: Bir Uygunluk İlkesi Örneği" (PDF). Human Ity Enstitüsü'nün Geleceği.
  62. ^ Lewis, Gregory (19 Şubat 2018). "Horsepox sentezi: Tek taraflıcının laneti vakası mı?". Atom Bilimcileri Bülteni. Atom Bilimcileri Bülteni. Alındı 26 Şubat 2018.
  63. ^ "Dijital Beceriler Komitesi - zaman çizelgesi". İngiltere Parlamentosu. Alındı 17 Mart 2017.
  64. ^ "Takım - Makine Zekası Araştırma Enstitüsü". Makine Zekası Araştırma Enstitüsü. Alındı 17 Mart 2017.
  65. ^ "Takım - Yaşamın Geleceği Enstitüsü". Hayatın Geleceği Enstitüsü. Alındı 17 Mart 2017.
  66. ^ "FQXi - Temel Sorular Enstitüsü". fqxi.org. Alındı 17 Mart 2017.
  67. ^ "nickbostrom.com". Nickbostrom.com. Arşivlenen orijinal 30 Ağustos 2018. Alındı 19 Şubat 2015.
  68. ^ McBain, Sophie (4 Ekim 2014). "Yakında Kıyamet: Ahir Zamana Hazırlanan Bilim İnsanlarıyla Tanışın". Yeni Cumhuriyet. Alındı 17 Mart 2017.
  69. ^ Oren Etzioni (2016). "Hayır, Uzmanlar Süper Akıllı Yapay Zekanın İnsanlık İçin Bir Tehdit Olduğunu Düşünmüyor". MIT İncelemesi.
  70. ^ Allan Dafoe ve Stuart Russell (2016). "Evet, Yapay Zekanın Varoluş Riskinden Endişeleniyoruz". MIT İncelemesi.
  71. ^ "Profesör Nick Bostrom | Oxford Üniversitesi". www.ox.ac.uk. Alındı 23 Eylül 2019.

Dış bağlantılar