Yıkıcı müdahale - Catastrophic interference - Wikipedia

Yıkıcı müdahale, Ayrıca şöyle bilinir yıkıcı unutmaeğilimi bir yapay sinir ağı yeni bilgiler öğrendikten sonra önceden öğrenilen bilgileri tamamen ve aniden unutmak.[1][2] Sinir ağları önemli bir parçasıdır ağ yaklaşımı ve bağlantıcı yaklaşım -e bilişsel bilim. Bu ağlarla, hafıza ve öğrenme gibi insan yetenekleri bilgisayar simülasyonları kullanılarak modellenebilir. Yıkıcı girişim, bağlantıçı bellek modelleri oluştururken dikkate alınması gereken önemli bir konudur. Başlangıçta McCloskey ve Cohen'in (1989) araştırmasıyla bilimsel topluluğun dikkatine sunulmuştur.[1] ve Ratcliff (1990).[2] 'Duyarlılık-istikrar' ikileminin radikal bir tezahürüdür[3] veya 'kararlılık-esneklik' ikilemi.[4] Spesifik olarak, bu sorunlar, yeni bilgilere duyarlı olan ancak bu bilgiler tarafından kesintiye uğramayan yapay bir sinir ağı oluşturmanın zorluğuna işaret ediyor. Arama tabloları ve bağlantısal ağlar, stabilite plastisite spektrumunun zıt taraflarında yer alır.[5] İlki, yeni bilgilerin varlığında tamamen sabit kalır, ancak genellemek, yani yeni girdilerden genel ilkeleri çıkarın. Öte yandan, aşağıdaki gibi bağlantıcı ağlar standart geri yayılım ağı görünmeyen girdilere genelleme yapabilir, ancak yeni bilgilere karşı çok hassastırlar. Geri yayılım modelleri, iyi modeller olarak düşünülebilir. insan hafızası insanın genelleme yeteneğini yansıttıkları ölçüde[kime göre? ][kaynak belirtilmeli ] ancak bu ağlar genellikle insan belleğinden daha az kararlılık sergiler. Bilhassa, bu geri yayılım ağları, yıkıcı müdahalelere karşı hassastır. Bu, insan hafızasını modellerken bir sorundur, çünkü bu ağlardan farklı olarak, insanlar tipik olarak felaket bir unutma göstermezler.[kaynak belirtilmeli ].

Yıkıcı müdahalenin tarihi

Katastrofik müdahale terimi ilk olarak McCloskey ve Cohen (1989) tarafından ortaya atılmıştı, ancak aynı zamanda Ratcliff'in (1990) araştırmasıyla bilimsel topluluğun dikkatine sunuldu.[2]

Sıralı Öğrenme Problemi: McCloskey ve Cohen (1989)

McCloskey ve Cohen (1989), geri yayılım sinir ağı modellemesi ile yapılan iki farklı deney sırasında feci girişim sorununa dikkat çekti.

  • Deney 1: Birleri ve ikilileri ek gerçekleri öğrenmek

İlk deneylerinde, ağ temsil edene kadar 17 tek basamaklı problemlerden (yani, 1 + 1'den 9'a + 1 ve 1 + 2'den 1 + 9'a) oluşan tek bir eğitim seti üzerinde standart bir geri yayılım sinir ağını eğittiler. hepsine düzgün yanıt verin. Gerçek çıktı ile istenen çıktı arasındaki hata, eğitim oturumları boyunca sürekli olarak azaldı ve bu, ağın denemelerde hedef çıktıları daha iyi temsil etmeyi öğrendiğini yansıtıyordu. Daha sonra, ağı temsil edebilene kadar 17 tek basamaklı ikili problemden (yani 2 + 1'den 2 + 9'a ve 1 + 2'den 9 + 2'ye) oluşan tek bir eğitim seti üzerinde eğittiler. onları. Prosedürlerinin, bir çocuğun ek gerçekleri nasıl öğreneceğine benzer olduğunu belirttiler. İkili gerçekler üzerindeki her bir öğrenme denemesinin ardından, ağ, hem birler hem de ikişer ek gerçekler hakkındaki bilgisi için test edildi. Gerçekler gibi, iki gerçek de ağ tarafından kolayca öğrenildi. Bununla birlikte, McCloskey ve Cohen, ağın, iki ekleme probleminin bir öğrenim denemesinden sonra bile, ek problemlerine artık düzgün bir şekilde cevap veremediğini belirtti. Gerçeklere yanıt olarak üretilen çıktı modeli, genellikle doğru bir sayı için çıktı modelinden daha yakından yanlış bir sayı için bir çıktı modeline benziyordu. Bu ciddi bir hata miktarı olarak kabul edilir. Dahası, her iki eğitim setinde yer alan 2 + 1 ve 2 + 1 problemleri, iki olgunun ilk öğrenme denemelerinde bile dramatik bir bozulma gösterdi.

  • Deney 2: Barnes and Underwood (1959) çalışmasının kopyası[6] McCloskey ve Cohen, ikinci bağlantısal modellerinde, Barnes ve Underwood (1959) tarafından insanlarda geriye dönük müdahale üzerine yapılan çalışmayı tekrarlamaya çalıştılar. Modeli A-B ve A-C listeleri üzerinde eğittiler ve listeler arasında ayrım yapmak için giriş vektöründe (giriş deseni) bir bağlam modeli kullandılar. Özellikle ağ, A uyaranı ve A-B bağlam modeli gösterildiğinde doğru B yanıtıyla yanıt verecek ve A uyaranı ve A-C bağlam modeli gösterildiğinde doğru C yanıtıyla yanıt verecek şekilde eğitildi. Model, A-B ve A-C maddeleri üzerinde aynı anda eğitildiğinde, ağ tüm ilişkileri doğru bir şekilde öğrenmiştir. Sıralı eğitimde önce A-B listesi, ardından A-C listesi eğitildi. A-C listesinin her sunumundan sonra, performans hem A-B hem de A-C listeleri için ölçülmüştür. Barnes and Underwood çalışmasındaki A-C listesindeki eğitim miktarının% 50 doğru yanıtlara yol açtığını, geri yayılım ağı tarafından yaklaşık% 0 doğru yanıtlara yol açtığını buldular. Ayrıca, ağın B yanıt modelini vermesi istendiğinde, ağın C yanıt modeline benzeyen yanıtlar gösterme eğiliminde olduğunu bulmuşlardır. Bu, A-C listesinin görünüşte A-B listesinin üzerine yazıldığını gösterdi. Bu, köpek kelimesini öğrenmeye, ardından dışkı kelimesini öğrenmeye ve ardından kedi kelimesini iyi tanıyamadığınızı, bunun yerine köpek kelimesi ile sunulduğunda dışkı kelimesini düşünmeye benzetilebilir.

McCloskey ve Cohen, gizli birimlerin sayısını değiştirme, öğrenme hızı parametresinin değerini değiştirme, AB listesinde aşırı eğitim, belirli bağlantı ağırlıklarını dondurma, hedef değerleri 0.1 ve 0.9 yerine 0 ve 1'i değiştirme dahil olmak üzere bir dizi manipülasyon yoluyla paraziti azaltmaya çalıştı. . Bununla birlikte, bu manipülasyonların hiçbiri, ağlar tarafından sergilenen yıkıcı girişimi tatmin edici bir şekilde azaltmadı.

Genel olarak, McCloskey ve Cohen (1989) şu sonuca varmıştır:

  • en azından, yeni öğrenme, temsil eden ağırlıkları değiştirdiğinde bir miktar müdahale olacaktır.
  • yeni öğrenme miktarı ne kadar büyükse, eski bilgilerdeki bozulma o kadar büyük olur
  • öğrenme sıralı olduğunda ancak eşzamanlı olmadığında geri yayılım ağlarında müdahale felaketti

Öğrenme ve Unutma İşlevlerinin Uyguladığı Kısıtlamalar: Ratcliff (1990)

Ratcliff (1990), öğelerin sıralı olarak öğrenildiği standart tanıma belleği prosedürlerine uygulanan çok sayıda geri yayılım modeli kullanmıştır.[2] Tanıma performans modellerini inceledikten sonra iki büyük sorun buldu:

  • Hem küçük hem de büyük geri yayılım ağlarında yeni bilgiler öğrenildiği için iyi öğrenilmiş bilgiler felaket bir şekilde unutuldu.

McCloskey ve Cohen'in (1989) bulgularına paralel olarak, yeni bilgiler içeren bir öğrenme denemesi bile eski bilgilerin önemli ölçüde kaybıyla sonuçlandı.[1] Ratcliff ayrıca ortaya çıkan çıktıların genellikle önceki girdiyle yeni girdinin bir karışımı olduğunu da buldu. Daha büyük ağlarda, gruplar halinde öğrenilen öğeler (örneğin AB sonra CD), tek başına öğrenilen öğelere göre (örneğin A sonra B sonra C…) unutmaya karşı daha dirençliydi. Ancak, gruplar halinde öğrenilen öğelerin unutulması hâlâ büyüktü. Ağa yeni gizli birimler eklemek paraziti azaltmadı.

  • Ağ daha fazla şey öğrendikçe, çalışılan öğeler ile daha önce görülmemiş öğeler arasındaki ayrım azaldı.

Bu bulgu, öğrenmeyle birlikte ayrımcılığın arttığını gösteren insan hafızası üzerine yapılan çalışmalarla çelişmektedir. Ratcliff, eski ve yeni girdilere seçici olarak yanıt verecek 'yanıt düğümleri' ekleyerek bu sorunu hafifletmeye çalıştı. Ancak, bu yanıt düğümleri tüm girişler için etkin olacağından bu yöntem işe yaramadı. Bağlam örüntüsü kullanan bir model de yeni ve eski öğeler arasındaki ayrımcılığı artırmada başarısız oldu.

Önerilen çözümler

Yıkıcı müdahalenin ana nedeni, dağıtılmış sinir ağlarının gizli katmanındaki temsillerde örtüşüyor gibi görünüyor.[7][8][9] Dağıtılmış bir sunumda, her girdi, birçok düğümün ağırlıklarında değişiklikler yaratma eğilimindedir. "Bilginin depolandığı" ağırlıkların birçoğu değiştiğinde, önceki bilginin bozulmadan kalmasının olası olmaması nedeniyle felaket bir unutma meydana gelir. Sıralı öğrenme sırasında, yeni girdiler eskilerinin üzerine bindirilerek girdiler karıştırılır.[8] Bunu kavramsallaştırmanın bir başka yolu, öğrenmeyi bir ağırlık alanı boyunca bir hareket olarak görselleştirmektir.[10] Bu ağırlık alanı, ağın sahip olabileceği tüm olası ağırlık kombinasyonlarının uzamsal temsiline benzetilebilir. Bir ağ, bir dizi modeli temsil etmeyi ilk kez öğrendiğinde, ağırlık alanında tüm bu kalıpları tanımasına izin veren bir nokta bulur.[9] Bununla birlikte, ağ daha sonra yeni bir kalıp seti öğrendiğinde, ağırlık alanında tek endişenin yeni kalıpların tanınması olan bir yere taşınacaktır.[9] Her iki model grubunu da tanımak için ağ, ağırlık alanında hem yeni hem de eski kalıpları tanımaya uygun bir yer bulmalıdır.

Aşağıda, geri yayılım sinir ağlarında yıkıcı müdahaleyi başarılı bir şekilde azaltmada deneysel desteğe sahip bir dizi teknik bulunmaktadır:

Diklik

Temsili örtüşmeyi azaltmadaki erken tekniklerin çoğu, giriş vektörlerini veya gizli birim aktivasyon modellerini yapmayı içeriyordu. dikey bir başkasına. Lewandowsky ve Li (1995)[11] girdi vektörleri birbirine ortogonal ise, sıralı olarak öğrenilen modeller arasındaki girişimin en aza indirildiğini kaydetti. İki vektör boyunca elemanlarının çiftli çarpımının toplamı sıfır ise, giriş vektörlerinin birbirine dik olduğu söylenir. Örneğin, [0,0,1,0] ve [0,1,0,0] desenlerinin ortogonal olduğu söylenir çünkü (0 × 0 + 0 × 1 + 1 × 0 + 0 × 0) = 0. Gizli katmanlarda ortogonal temsiller yaratabilen tekniklerden biri, iki kutuplu özellik kodlamasını içerir (yani, 0 ve 1 yerine -1 ve 1 kullanarak kodlama).[9] Ortogonal modeller, birbirleriyle daha az girişim üretme eğilimindedir. Bununla birlikte, tüm öğrenme problemleri bu tip vektörler kullanılarak temsil edilemez ve bazı çalışmalar, girişim derecesinin ortogonal vektörlerle hala problemli olduğunu bildirmektedir.[2]

Düğüm bileme tekniği

Fransızcaya (1991) göre,[7] yıkıcı müdahale ortaya çıkar ileri besleme gizli katmandaki dağıtılmış gösterimlerde meydana gelen düğüm etkinleştirmelerinin etkileşimi veya etkinleştirme çakışması nedeniyle geri yayılım ağları. Nöral ağlar çok yerelleştirilmiş temsiller kullanan, gizli katmanda üst üste binme olmaması nedeniyle yıkıcı bir girişim göstermez. Bu nedenle Fransızca, gizli katmandaki aktivasyon çakışmasının değerini azaltmanın, dağıtılmış ağlarda feci paraziti azaltacağını öne sürdü. Spesifik olarak, bunun gizli katmandaki dağıtılmış temsilleri 'yarı dağıtılmış' temsillere değiştirerek yapılabileceğini öne sürdü. "Yarı dağıtılmış" bir temsil, aktif olan daha az gizli düğüme ve / veya bu düğümler için daha düşük bir etkinleştirme değerine sahiptir; bu, farklı girişlerin temsillerinin gizli katmanda daha az örtüşmesine neden olur. French, gizli katmandaki en aktif düğümlerin belirli bir sayısının aktivasyonunu biraz artıran, diğer tüm birimlerin aktivasyonunu biraz azaltan ve ardından girişi değiştiren bir teknik olan 'aktivasyon keskinleştirme' yoluyla yapılabileceğini tavsiye etti. - Bu etkinleştirme değişikliklerini yansıtmak için gizli katman ağırlıkları (hata geri yayılımına benzer).

Yenilik kuralı

Kortge (1990)[12] yıkıcı müdahaleyi hafifletmeye yardımcı olmak için sinir ağlarını eğitmek için 'yenilik kuralı' adı verilen bir öğrenme kuralı önerdi. Adından da anlaşılacağı gibi, bu kural sinir ağının yalnızca eski bir girdiden farklı olan yeni bir girdinin bileşenlerini öğrenmesine yardımcı olur. Sonuç olarak, yenilik kuralı yalnızca daha önce bilgi depolamaya adanmamış ağırlıkları değiştirir, böylece gizli birimlerdeki temsillerdeki örtüşmeyi azaltır. Yenilik kuralını uygulamak için, öğrenme sırasında girdi modeli, farklı bileşenleri temsil eden bir yenilik vektörü ile değiştirilir. Yenilik kuralı standart bir geri yayılım ağında kullanıldığında, yeni öğeler sırayla sunulduğunda eski öğelerin unutulması yoktur veya azaltılmıştır.[12] Bununla birlikte, bir sınırlama, bu kuralın yalnızca otomatik kodlayıcı veya otomatik ilişkilendirmeli ağlarda kullanılabilmesidir; burada çıktı katmanı için hedef yanıt, giriş modeliyle aynıdır.

Ön eğitim ağları

McRae ve Hetherington (1993)[8] insanların, çoğu sinir ağından farklı olarak, rastgele bir ağırlık setiyle yeni öğrenme görevleri üstlenmediğini savundu. Daha ziyade, insanlar bir göreve bol miktarda ön bilgi getirme eğilimindedir ve bu, müdahale sorununu önlemeye yardımcı olur. Bir ağ, sıralı bir öğrenme görevine başlamadan önce rastgele bir veri örneği üzerinde önceden eğitildiğinde, bu ön bilginin doğal olarak yeni bilgilerin nasıl dahil edilebileceğini kısıtlayacağını gösterdiler. Bu, İngilizce dili gibi yüksek derecede iç yapıya sahip bir alandan rastgele bir veri örneğinin, eğitimin bu alanda bulunan düzenleri veya yinelenen kalıpları yakalaması nedeniyle oluşur. Alan, düzenliliklere dayandığından, yeni öğrenilen bir öğe daha önce öğrenilen bilgilere benzer olma eğiliminde olacaktır ve bu, ağın yeni verileri mevcut verilerle çok az müdahale ile birleştirmesine izin verecektir. Spesifik olarak, önceden eğitilmiş verilerle aynı düzenlilik modelini izleyen bir giriş vektörü, gizli katmanda büyük ölçüde farklı bir aktivasyon modeline neden olmamalı veya ağırlıkları büyük ölçüde değiştirmemelidir.

Prova

Robins (1995)[13] yıkıcı unutmanın prova mekanizmalarıyla önlenebileceğini anlattı. Bu, yeni bilgi eklendiğinde, sinir ağının önceden öğrenilen bilgilerin bir kısmı üzerinde yeniden eğitildiği anlamına gelir. Ancak genel olarak, önceden öğrenilen bilgiler bu tür yeniden eğitim için mevcut olmayabilir. Bunun için bir çözüm, ağın önceki gerçek verilerle değil, temsilleriyle yeniden eğitildiği "sözde prova" dır. Bu genel mekanizmaya dayanan birkaç yöntem vardır.

Şekil 2: Sözde tekrarlayan bir ağın mimarisi

Sözde yinelenen ağlar

French (1997) sözde tekrarlayan bir geri yayılım ağı önermiştir (bkz. Şekil 2).[5] Bu modelde ağ, işlevsel olarak farklı ancak etkileşimli alt ağlara ayrılmıştır. Bu model biyolojik olarak esinlenmiştir ve McClelland ve diğerlerinin araştırmasına dayanmaktadır. (1995)[14] McClelland ve meslektaşları, hipokamp ve neokorteks ayrılabilir ama tamamlayıcı hafıza sistemleri olarak hareket etmek için hipokampus kısa süreli hafıza depolama ve neokorteks için uzun süreli hafıza depolama. Başlangıçta hipokampusta depolanan bilgiler, yeniden etkinleştirme veya tekrar oynatma yoluyla neokortekse "aktarılabilir". Sözde yinelenen ağda, alt ağlardan biri, hipokampusa benzer şekilde erken bir işlem alanı olarak işlev görür ve yeni giriş modellerini öğrenmek için işlev görür. Diğer alt ağ, neokortekse benzer bir son depolama alanı görevi görür. Ancak, McClelland ve ark. (1995) modelinde, son depolama alanı dahili olarak oluşturulan gösterimi erken işleme alanına geri gönderir. Bu, tekrarlayan bir ağ oluşturur. Fransız, eski temsillerin bu şekilde yeni temsillerle harmanlanmasının radikal unutmayı azaltmanın tek yolu olduğunu öne sürdü. Beynin büyük olasılıkla orijinal girdi modellerine erişimi olmayacağından, neokortekse geri beslenecek modeller dahili olarak oluşturulan temsiller olacaktır. sözde desenler. Bu sözde modeller, önceki girdilerin yaklaşık değerleridir[13] ve bunlar yeni girdilerin öğrenilmesiyle birleştirilebilir.

Kendini yenileyen hafıza

Ans ve Rousset (1997)[15] ayrıca iki ağlı yapay sinir mimarisi önerdi kendini yenileyen bellek Bu, sıralı öğrenme görevleri geri yayılımla eğitilmiş dağıtılmış ağlarda yürütüldüğünde yıkıcı müdahalenin üstesinden gelir. İlke, yeni dış kalıpların öğrenildiği zamanda öğrenilecek olan yeni dış kalıpları, önceden öğrenilen bilgileri yansıtan dahili olarak oluşturulmuş sözde-kalıplar veya 'sözde-anılar' ile birleştirmektir. Bu modeli, ileri beslemeli çok katmanlı ağlarda klasik sözde duyma kullananlardan temel olarak ayıran şey, yansımak süreç[daha fazla açıklama gerekli ] sözde kalıplar oluşturmak için kullanılır. Tek bir rastgele tohumdan bir dizi aktivite yeniden enjeksiyonundan sonra, bu süreç doğrusal olmayan ağa gitme eğilimindedir. çekiciler.

Üretken tekrar

Son yıllarda, sözde prova, derinlerin yeteneklerindeki ilerlemeler sayesinde yeniden popülerlik kazandı. üretken modeller. Bu tür derin üretken modeller, prova edilecek "sözde verileri" üretmek için kullanıldığında, bu yöntem tipik olarak üretken tekrar olarak adlandırılır.[16] Bu tür üretken yeniden oynatma, özellikle tekrar giriş seviyesi yerine gizli katmanlarda gerçekleştirildiğinde, yıkıcı unutmayı etkili bir şekilde önleyebilir.[17][18]

Gizli öğrenme

Gizli Öğrenme, Gutstein ve Stump (2015) tarafından kullanılan bir tekniktir.[19] yararlanarak yıkıcı müdahaleyi azaltmak için transfer öğrenimi. Bu yaklaşım, öğrenilecek herhangi bir yeni sınıf için en uygun kodlamaları bulmaya çalışır, böylece mevcut yanıtlara felaket bir şekilde müdahale etme olasılıkları en düşüktür. Hata Düzeltme Çıkış Kodlarını (ECOC) kullanarak bir sınıf kümesi arasında ayrım yapmayı öğrenen bir ağ verildiğinde[20] (aksine 1 sıcak kod ), yeni sınıflar için en uygun kodlamalar, ağın bunlara verdiği ortalama yanıtları gözlemleyerek seçilir. Orijinal sınıf setini öğrenirken bu ortalama tepkiler ortaya çıktığından yeni sınıflara maruz kalmadanbunlara 'Gizli Olarak Öğrenilmiş Kodlamalar' denir. Bu terminoloji kavramından ödünç alınmıştır. Gizli Öğrenme, 1930'da Tolman tarafından tanıtıldığı şekliyle.[21] Aslında, bu teknik, bir ağın yeni sınıflara yanıtlarını, önceden öğrenilmiş sınıflara verilen mevcut yanıtlarla mümkün olduğunca tutarlı hale getirerek, feci müdahaleyi önlemek için transfer öğrenimini kullanır.

Elastik ağırlık konsolidasyonu

Kirkpatrick vd. (2017)[22] tek bir yapay sinir ağını birden çok görev üzerinde sıralı olarak eğitmek için bir yöntem olan elastik ağırlık konsolidasyonu (EWC) önerdi. Bu teknik, eğitilmiş sinir ağının bazı ağırlıklarının önceden öğrenilen görevler için diğerlerinden daha önemli olduğunu varsayar. Sinir ağının yeni bir görev için eğitimi sırasında, ağın ağırlıklarındaki değişikliklerin önemi ne kadar büyükse o kadar az olasıdır. EWC, ağ ağırlıklarının önemini tahmin etmek için olasılıklı mekanizmaları, özellikle Fisher bilgi matrisini kullanır, ancak bu başka yollarla da yapılabilir.[23][24]


Referanslar

  1. ^ a b c McCloskey, Michael; Cohen, Neal J. (1989). Bağlantıcı Ağlarda Yıkıcı Girişim: Sıralı Öğrenme Problemi. Öğrenme ve Motivasyon Psikolojisi. 24. s. 109–165. doi:10.1016 / S0079-7421 (08) 60536-8. ISBN  978-0-12-543324-2.
  2. ^ a b c d e Ratcliff Roger (1990). "Tanıma belleğinin bağlantısal modelleri: İşlevleri öğrenme ve unutma tarafından empoze edilen kısıtlamalar". Psikolojik İnceleme. 97 (2): 285–308. doi:10.1037 / 0033-295x.97.2.285. PMID  2186426.
  3. ^ Hebb Donald Olding (1949). Davranışın Organizasyonu: Nöropsikolojik Bir Teori. Wiley. ISBN  978-0-471-36727-7. OCLC  569043119.[sayfa gerekli ]
  4. ^ Carpenter, Gail A .; Grossberg, Stephen (1 Aralık 1987). "ART 2: analog giriş modelleri için kararlı kategori tanıma kodlarının kendi kendine organizasyonu". Uygulamalı Optik. 26 (23): 4919–4930. Bibcode:1987ApOpt..26.4919C. doi:10.1364 / AO.26.004919. PMID  20523470.
  5. ^ a b Fransızca, Robert M (Aralık 1997). "Sözde-tekrarlayan Bağlantısal Ağlar: 'Duyarlılık-Kararlılık' İkilemine Bir Yaklaşım". Bağlantı Bilimi. 9 (4): 353–380. doi:10.1080/095400997116595.
  6. ^ Barnes, Jean M .; Underwood, Benton J. (Ağustos 1959). "'Transfer teorisinde birinci liste ilişkilerinin kaderi ". Deneysel Psikoloji Dergisi. 58 (2): 97–105. doi:10.1037 / h0047507. PMID  13796886.
  7. ^ a b Fransızca, Robert M. (1991). Bağlantısal Ağlarda Yıkıcı Unutmanın Üstesinden Gelmek İçin Yarı Dağıtılmış Temsilleri Kullanma (PDF). 13. Yıllık Bilişsel Bilimler Topluluğu Konferansı Bildirileri. New Jersey: Lawrence Erlbaum. sayfa 173–178. CiteSeerX  10.1.1.1040.3564.
  8. ^ a b c "Ön Eğitimli Ağlarda Yıkıcı Girişim Ortadan Kaldırıldı". Bilişsel Bilimler Topluluğunun On Beşinci Yıllık Konferansı Bildirileri: 18-21 Haziran 1993, Bilişsel Bilimler Enstitüsü, Colorado-Boulder Üniversitesi. Psychology Press. 1993. s. 723–728. ISBN  978-0-8058-1487-3.
  9. ^ a b c d Fransızca, R (1 Nisan 1999). "Bağlantısal ağlarda yıkıcı unutma". Bilişsel Bilimlerdeki Eğilimler. 3 (4): 128–135. doi:10.1016 / S1364-6613 (99) 01294-2. PMID  10322466. S2CID  2691726.
  10. ^ Lewandowsky, Stephan (1991). "Aşamalı öğrenme ve yıkıcı müdahale: dağıtılmış mimarilerin karşılaştırması". Hockley, William E .; Lewandowsky, Stephan (editörler). Teori ve Verileri İlişkilendirmek: Bennet B. Murdock Onuruna İnsan Hafızası Üzerine Yazılar. Psychology Press. sayfa 445–476. ISBN  978-1-317-76013-9.
  11. ^ Lewandowsky, Stephan; Li, Shu-Chen (1995). "Sinir ağlarında feci parazit". Bilişte Girişim ve Engelleme. s. 329–361. doi:10.1016 / B978-012208930-5 / 50011-8. ISBN  978-0-12-208930-5.
  12. ^ a b Kortge, C.A. (1990). Bağlantıcı ağlarda olaysal bellek. İçinde: Bilişsel Bilimler Derneği'nin Onikinci Yıllık Konferansı, (sayfa 764-771). Hillsdale, NJ: Lawrence Erlbaum.
  13. ^ a b Robins, Anthony (Haziran 1995). "Felaketli Unutma, Prova ve Sözde Duyma". Bağlantı Bilimi. 7 (2): 123–146. doi:10.1080/09540099550039318.
  14. ^ McClelland, James L .; McNaughton, Bruce L .; O'Reilly, Randall C. (Temmuz 1995). "Hipokamp ve neokortekste neden tamamlayıcı öğrenme sistemleri vardır: Bağlantısal öğrenme ve hafıza modellerinin başarıları ve başarısızlıklarından elde edilen bilgiler" Psikolojik İnceleme. 102 (3): 419–457. doi:10.1037 / 0033-295X.102.3.419. PMID  7624455.
  15. ^ Ans, Bernard; Rousset, Stéphane (Aralık 1997). "Yankılanan iki sinir ağını birleştirerek yıkıcı unutmaktan kaçınmak". Comptes Rendus de l'Académie des Sciences - Seri III - Sciences de la Vie. 320 (12): 989–997. Bibcode:1997CRASG.320..989A. doi:10.1016 / S0764-4469 (97) 82472-9.
  16. ^ Mocanu, Decebal Constantin; Torres Vega, Maria; Eaton, Eric; Stone, Peter; Liotta, Antonio (18 Ekim 2016). "Üretken Yeniden Oynatma ile Çevrimiçi Kontrastif Farklılaşma: Verileri Kaydetmeden Tekrar Deneyimi Yaşayın". arXiv:1610.05555 [cs.LG ].
  17. ^ Hanul Shin; Lee, Jung Kwon; Kim, Jaehong; Kim, Jiwon (Aralık 2017). Derin üretken tekrar ile sürekli öğrenme. NIPS'17: 31. Uluslararası Nöral Bilgi İşleme Sistemleri Konferansı Bildirileri. Curran Associates. s. 2994–3003. ISBN  978-1-5108-6096-4.
  18. ^ van de Ven, Gido M .; Siegelmann, Hava T .; Tolias, Andreas S. (13 Ağustos 2020). "Yapay sinir ağları ile sürekli öğrenme için beyinden ilham alan tekrar". Doğa İletişimi. 11 (1): 4069. Bibcode:2020NatCo..11.4069V. doi:10.1038 / s41467-020-17866-2. PMC  7426273. PMID  32792531.
  19. ^ Gutstein, Steven; Güdük Ethan (2015). "Transfer öğrenme ve üçlü çıktı kodları ile yıkıcı unutmanın azaltılması". 2015 Uluslararası Sinir Ağları Ortak Konferansı (IJCNN). s. 1–8. doi:10.1109 / IJCNN.2015.7280416. ISBN  978-1-4799-1960-4. S2CID  18745466.
  20. ^ Dietterich, T. G .; Bakiri, G. (1 Ocak 1995). "Hata Düzeltme Çıktı Kodları Yoluyla Çok Sınıflı Öğrenme Sorunlarını Çözme". Yapay Zeka Araştırmaları Dergisi. 2: 263–286. doi:10.1613 / jair.105. S2CID  47109072.
  21. ^ Tolman, E.C .; Honzik, C.H. (1930). "'Insight 'in Rats ". Psikoloji Yayınları. Kaliforniya Üniversitesi. 4: 215–232.
  22. ^ Kirkpatrick, James; Pascanu, Razvan; Rabinowitz, Neil; Veness, Joel; Desjardins, Guillaume; Rusu, Andrei A .; Milan, Kieran; Quan, John; Ramalho, Tiago; Grabska-Barwinska, Agnieszka; Hassabis, Demis; Clopath, Claudia; Kumaran, Dharshan; Hadsell, Raia (14 Mart 2017). "Sinir ağlarında yıkıcı unutmanın üstesinden gelmek". Ulusal Bilimler Akademisi Bildiriler Kitabı. 114 (13): 3521–3526. doi:10.1073 / pnas.1611835114. PMC  5380101. PMID  28292907.
  23. ^ Zenke, Friedemann; Poole, Ben; Ganguli, Surya (2017). "Sinaptik Zeka Yoluyla Sürekli Öğrenme". Makine Öğrenimi Araştırmasının Bildirileri. 70: 3987–3995. arXiv:1703.04200. PMC  6944509. PMID  31909397.
  24. ^ Aljundi, Rahaf; Babiloni, Francesca; Elhoseiny, Mohamed; Rohrbach, Marcus; Tuytelaars, Tinne (2018). "Hafıza Farkında Sinapslar: Neyi (Unutmayacağınızı) Öğrenmek". Bilgisayarla Görme - ECCV 2018. Bilgisayar Bilimlerinde Ders Notları. 11207. s. 144–161. arXiv:1711.09601. doi:10.1007/978-3-030-01219-9_9. ISBN  978-3-030-01218-2. S2CID  4254748.