Kaybolan gradyan sorunu - Vanishing gradient problem

İçinde makine öğrenme, kaybolan gradyan sorunu eğitim sırasında karşılaşılır yapay sinir ağları ile gradyan tabanlı öğrenme yöntemleri ve geri yayılım. Bu tür yöntemlerde, sinir ağının ağırlıklarının her biri, orantılı bir güncelleme alır. kısmi türev her eğitim yinelemesinde mevcut ağırlığa göre hata fonksiyonunun Sorun, bazı durumlarda eğimin kaybolacak kadar küçük olması ve ağırlığın değerini değiştirmesini etkili bir şekilde engellemesidir. En kötü durumda, bu, sinir ağının daha fazla eğitim almasını tamamen durdurabilir. Sorunun nedenine bir örnek olarak, geleneksel aktivasyon fonksiyonları benzeri hiperbolik tanjant işlevin aralıkta gradyanları var (-1, 1)ve geri yayılım, degradeleri hesaplar. zincir kuralı. Bu çarpma etkisine sahiptir n Bu küçük sayıların "ön" katmanlarının gradyanlarını hesaplamak için n-katmanlı ağ, gradyanın (hata sinyali) katlanarak azaldığı anlamına gelir. n ön katmanlar çok yavaş eğitilirken.

Geri yayılma, araştırmacıların eğitim almasına izin verdi denetimli başlangıçta çok az başarı ile sıfırdan derin yapay sinir ağları. Hochreiter 1991 diploma tezi[1][2] "kaybolan gradyan probleminde" bu başarısızlığın nedenini resmi olarak tanımladı; çok katmanlı ileri beslemeli ağlar,[3] ama aynı zamanda tekrarlayan ağlar.[4] İkincisi, bunları ağ tarafından işlenen bir giriş dizisinin her bir zaman adımı için yeni bir katmanın oluşturulduğu çok derin ileri beslemeli ağlara açarak eğitilir. (Açılma ve geri yayılmanın birleşimi, zaman içinde geri yayılım.)

Türevleri daha büyük değerler alabilen aktivasyon fonksiyonları kullanıldığında, ilgili patlayan gradyan problemi.

Çözümler

Çok seviyeli hiyerarşi

Bu sorunun üstesinden gelmek için birkaç yöntem önerildi. Biri Jürgen Schmidhuber çok seviyeli ağlar hiyerarşisi (1992), her seferinde bir seviyede önceden eğitilmiş denetimsiz öğrenme ince ayarlı geri yayılım.[5] Burada her seviye, bir sonraki seviyeye beslenen gözlemlerin sıkıştırılmış bir temsilini öğrenir.

İlgili yaklaşım

Benzer fikirler, bir sinir ağını yapılandırmak için denetimsiz ön eğitim için ileri beslemeli sinir ağlarında kullanılmıştır, bu da ilk öğrenmeyi genel olarak yararlı hale getirir. özellik dedektörleri. Daha sonra ağ, denetlenenler tarafından daha fazla eğitilir geri yayılım etiketli verileri sınıflandırmak için. derin inanç ağı Hinton ve ark. (2006), ardışık ikili veya gerçek değerli katmanları kullanarak yüksek seviyeli bir temsilin dağıtımını öğrenmeyi içerir. gizli değişkenler. Bir sınırlı Boltzmann makinesi daha yüksek seviyeli özelliklerin her yeni katmanını modellemek. Her yeni katman, üzerinde bir artışı garanti eder. alt sınır of günlük olasılığı doğru şekilde eğitilirse modeli iyileştirir, böylece modeli iyileştirir. Yeterince çok sayıda katman öğrenildikten sonra, derin mimari bir üretken model üst seviye özellik etkinleştirmelerinden modeli aşağı örneklerken (bir "atadan geçiş") verileri yeniden üreterek.[6] Hinton, modellerinin yüksek boyutlu, yapılandırılmış veriler yerine etkili özellik çıkarıcılar olduğunu bildiriyor.[7]

Uzun kısa süreli hafıza

Özellikle kullanılan başka bir teknik tekrarlayan sinir ağları ... uzun kısa süreli hafıza (LSTM) ağı 1997 Hochreiter & Schmidhuber.[8] 2009 yılında, derin çok boyutlu LSTM ağları, derin öğrenmenin gücünü doğrusal olmayan birçok katmanla gösterdi. ICDAR 2009 bağlantılı yarışmalar elyazısı tanıma, öğrenilecek üç farklı dil hakkında herhangi bir ön bilgi olmadan.[9][10]

Daha hızlı donanım

Donanımdaki gelişmeler, 1991'den 2015'e kadar bilgisayar gücünün (özellikle GPU'lar ) yaklaşık bir milyon kat artarak, kaybolan gradyan probleminin fark edildiğinden birkaç katman daha derin ağlar için standart geri yayılımı mümkün kıldı. Schmidhuber, bunun "temelde şu anda birçok görüntü tanıma yarışmasını kazanan şey olduğunu", ancak "sorunun gerçekten temel bir şekilde üstesinden gelmediğini" belirtiyor.[11] Hinton ve diğerleri tarafından kaybolan gradyan sorununu çözen orijinal modeller bir Xeon işlemci, GPU'lar değil.[6]

Artık ağlar

Kaybolan gradyan problemini çözmenin en yeni ve en etkili yollarından biri şudur: artık sinir ağları veya ResNets[12] (tekrarlayan sinir ağları ile karıştırılmamalıdır).[13] ResNets, atlanan bağlantıların veya artık bağlantıların ağ mimarisinin bir parçası olduğu sinir ağlarını ifade eder. Bu atlama bağlantıları, daha derin bir katmanın çıktısına önceki bir katmanın / aktivasyonun çıktısının eklendiği bilgi "otoyollarını" oluşturarak gradyan bilgisinin katmanlardan geçmesine izin verir. Bu, ağın daha önceki bölümlerinden gelen bilgilerin ağın daha derin bölümlerine aktarılmasına izin vererek daha derin ağlarda bile sinyal yayılımının korunmasına yardımcı olur. Bağlantıları atlamak, daha derin sinir ağlarının başarılı bir şekilde eğitilmesine izin veren kritik bir bileşendir. [14]

Yeniden Ağlar[15] basitçe, kaybolan verileri telafi etmek için ağdaki daha sığ katmanlardan çıktıları yeniden sunarak, sığ emsallerine göre daha düşük eğitim hatası (ve test hatası) vermiştir.[16]ResNets'in nispeten sığ ağlardan oluşan bir topluluk olduğunu ve ağın tüm derinliği boyunca gradyan akışını koruyarak kaybolan gradyan problemini çözmediğini unutmayın - daha ziyade, sadece birçok kısa ağın topluluklarını bir araya getirerek sorunu önlerler. (Yapımdan Topluluk[17])

Diğer aktivasyon fonksiyonları

Doğrultucular gibi ReLU Kaybolan gradyan probleminden daha az muzdarip olurlar, çünkü bunlar yalnızca bir yönde doyururlar.[18]

Diğer

Behnke yalnızca gradyan işaretine güveniyordu (Rprop ) onu eğitirken Sinirsel Soyutlama Piramidi[19] görüntü yeniden yapılandırma gibi sorunları çözmek ve yerelleştirme ile yüzleşmek.[kaynak belirtilmeli ]

Sinir ağları, sinir ağlarının ağırlıkları alanında evrensel bir arama algoritması kullanılarak da optimize edilebilir, örn. rastgele tahmin veya daha sistematik olarak genetik Algoritma. Bu yaklaşım gradyana dayanmaz ve kaybolan gradyan problemini önler.[20]

Ayrıca bakınız

Referanslar

  1. ^ S. Hochreiter. Untersuchungen zu dynamischen neuronalen Netzen. Diploma tezi, Enstitü f. Informatik, Technische Üniv. Münih, 1991.
  2. ^ S. Hochreiter, Y. Bengio, P. Frasconi ve J. Schmidhuber. Tekrarlayan ağlarda gradyan akışı: uzun vadeli bağımlılıkları öğrenmenin zorluğu. S. C. Kremer ve J. F. Kolen, editörler, A Field Guide to Dynamical Recurrent Neural Networks. IEEE Press, 2001.
  3. ^ Goh, Garrett B .; Hodas, Nathan O .; Vishnu, Abhinav (15 Haziran 2017). "Hesaplamalı kimya için derin öğrenme". Hesaplamalı Kimya Dergisi. 38 (16): 1291–1307. arXiv:1701.04503. Bibcode:2017arXiv170104503G. doi:10.1002 / jcc.24764. PMID  28272810.
  4. ^ Pascanu, Razvan; Mikolov, Tomas; Bengio, Yoshua (21 Kasım 2012). "Tekrarlayan Sinir Ağlarını eğitmenin zorluğu üzerine". arXiv:1211.5063 [cs.LG ].
  5. ^ J. Schmidhuber., "Öğrenme karmaşıklığı, tarih sıkıştırma ilkesini kullanarak genişletilmiş diziler," Sinirsel Hesaplama, 4, sayfa 234–242, 1992.
  6. ^ a b Hinton, G. E.; Osindero, S .; Teh, Y. (2006). "Derin inanç ağları için hızlı öğrenme algoritması" (PDF). Sinirsel Hesaplama. 18 (7): 1527–1554. CiteSeerX  10.1.1.76.1541. doi:10.1162 / neco.2006.18.7.1527. PMID  16764513.
  7. ^ Hinton, G. (2009). "Derin inanç ağları". Scholarpedia. 4 (5): 5947. Bibcode:2009SchpJ ... 4.5947H. doi:10.4249 / akademisyenler.5947.
  8. ^ Hochreiter, Sepp; Schmidhuber, Jürgen (1997). "Uzun Kısa Süreli Bellek". Sinirsel Hesaplama. 9 (8): 1735–1780. doi:10.1162 / neco.1997.9.8.1735. PMID  9377276.
  9. ^ Graves, Alex; ve Schmidhuber, Jürgen; Çok Boyutlu Tekrarlayan Sinir Ağları ile Çevrimdışı El Yazısı TanımaBengio, Yoshua'da; Schuurmans, Dale; Lafferty, John; Williams, Chris K. I .; ve Culotta, Aron (editörler), Sinirsel Bilgi İşleme Sistemlerindeki Gelişmeler 22 (NIPS'22), 7 - 10 Aralık 2009, Vancouver, BC, Sinirsel Bilgi İşlem Sistemleri (NIPS) Vakfı, 2009, s. 545-552
  10. ^ Graves, A .; Liwicki, M .; Fernandez, S .; Bertolami, R .; Bunke, H .; Schmidhuber, J. (2009). "Gelişmiş Kısıtlamasız El Yazısı Tanıma için Yeni Bir Bağlantısal Sistem". Örüntü Analizi ve Makine Zekası için IEEE İşlemleri. 31 (5): 855–868. CiteSeerX  10.1.1.139.4502. doi:10.1109 / tpami.2008.137. PMID  19299860.
  11. ^ Schmidhuber, Jürgen (2015). "Sinir ağlarında derin öğrenme: Genel bir bakış". Nöral ağlar. 61: 85–117. arXiv:1404.7828. doi:10.1016 / j.neunet.2014.09.003. PMID  25462637.
  12. ^ "Artık sinir ağları, derin öğrenme araştırmalarının heyecan verici bir alanıdır". 28 Nisan 2016.
  13. ^ http://www.fit.vutbr.cz/research/groups/speech/servite/2010/rnnlm_mikolov.pdf
  14. ^ O, Kaiming; Zhang, Xiangyu; Ren, Shaoqing; Güneş, Jian (2015). "Görüntü Tanıma için Derin Artık Öğrenme". arXiv:1512.03385 [cs.CV ].
  15. ^ "ResNets, HighwayNets ve DenseNets, Aman Tanrım! - Chatbot'un Hayatı". 14 Ekim 2016.
  16. ^ O, Kaiming; Zhang, Xiangyu; Ren, Shaoqing; Güneş, Jian (2015). "Görüntü Tanıma için Derin Artık Öğrenme". arXiv:1512.03385 [cs.CV ].
  17. ^ Veit, Andreas; Wilber, Michael; Belongie, Serge (20 Mayıs 2016). "Artık Ağlar, Görece Sığ Ağların Toplulukları Gibi Davranır". arXiv:1605.06431 [cs.CV ].
  18. ^ Glorot, Xavier; Bordes, Antoine; Bengio, Yoshua (14 Haziran 2011). "Derin Seyrek Doğrultucu Sinir Ağları". PMLR: 315–323.
  19. ^ Sven Behnke (2003). Görüntü Yorumlama için Hiyerarşik Sinir Ağları (PDF). Bilgisayar Bilimlerinde Ders Notları. 2766. Springer.
  20. ^ "Sepp Hochreiter'in Temel Derin Öğrenme Problemi (1991)". people.idsia.ch. Alındı 7 Ocak 2017.