Aktivasyon fonksiyonu - Activation function

Lojistik aktivasyon işlevi

İçinde yapay sinir ağları, aktivasyon fonksiyonu Bir düğümün bir girdisi veya girdi kümesi verilen bu düğümün çıktısını tanımlar. Bir standart entegre devre olarak görülebilir dijital ağ girişe bağlı olarak "AÇIK" (1) veya "KAPALI" (0) olabilen aktivasyon fonksiyonları. Bu, davranışına benzer doğrusal algılayıcı içinde nöral ağlar. Ancak sadece doğrusal olmayan etkinleştirme işlevleri, bu tür ağların yalnızca az sayıda düğüm kullanarak önemsiz sorunları hesaplamasına izin verir ve bu tür etkinleştirme işlevleri doğrusal olmayanlar.[1]

Fonksiyonlar

En yaygın etkinleştirme işlevleri üç kategoriye ayrılabilir: sırt fonksiyonları, radyal fonksiyonlar ve katlama işlevleri.

Ridge aktivasyon fonksiyonları

Ridge fonksiyonları, giriş değişkenlerinin doğrusal bir kombinasyonu üzerinde hareket eden tek değişkenli fonksiyonlardır. Genellikle kullanılan örnekler şunları içerir:

  • Doğrusal aktivasyon: ,
  • ReLU aktivasyon: ,
  • Heaviside aktivasyon: ,
  • Lojistik aktivasyon: .

İçinde biyolojik olarak ilham alan sinir ağları aktivasyon işlevi genellikle oranını temsil eden bir soyutlamadır. Aksiyon potansiyeli hücrede ateş.[2] En basit şekliyle bu işlev, ikili - yani nöron ateş ediyor mu değil mi? İşlev şöyle görünüyor , nerede ... Heaviside adım işlevi.

Pozitif bir çizgi eğim giriş akımı arttıkça ortaya çıkan ateşleme oranındaki artışı yansıtmak için kullanılabilir. Böyle bir işlev şu şekilde olacaktır .

Biyolojik nöronlar ateşleme hızlarını sıfırın altına düşüremedikleri için, doğrultulmuş doğrusal aktivasyon fonksiyonları kullanılır: . Karar vermede kullanılabilecek sıfırda bir doğrusal olmama durumu sunarlar.[3]

Doğrultulmuş doğrusal birim ve Gauss hatası doğrusal birim etkinleştirme fonksiyonları

Nöronlar ayrıca belirli bir hızdan daha hızlı ateşleyemezler. sigmoid etki alanı sonlu bir aralık olan aktivasyon fonksiyonları.

Radyal aktivasyon fonksiyonları

Olarak bilinen özel bir aktivasyon işlevi sınıfı radyal temel fonksiyonları (RBF'ler) RBF ağları, evrensel fonksiyon yaklaşımlayıcıları olarak son derece verimli. Bu etkinleştirme işlevleri birçok biçimde olabilir, ancak genellikle aşağıdaki işlevlerden biri olarak bulunurlar:

  • Gauss:
  • Multiquadratics:
  • Ters çoklu kuadratikler:
  • Çok harmonik eğriler

nerede fonksiyonu temsil eden vektör merkez ve ve yarıçapın yayılmasını etkileyen parametrelerdir.

Hesaplama açısından verimli bir radyal temel işlevi önerilmiştir,[4] Karesel yasaya dayalı RBF çekirdeği (SQ-RBF ) Gauss RBF'de bulunan üstel terimi ortadan kaldırır.

  • SQ-RBF:

Katlama aktivasyon fonksiyonları

Katlama aktivasyon fonksiyonları, havuz katmanları içinde evrişimli sinir ağları ve çok sınıflı sınıflandırma ağlarının çıktı katmanlarında. Bu etkinleştirmeler, girişler üzerinde toplama gerçekleştirir. anlamına gelmek, minimum veya maksimum. Çok sınıflı sınıflandırmada softmax aktivasyon sıklıkla kullanılır.

Aktivasyon fonksiyonlarının karşılaştırılması

Çok sayıda aktivasyon işlevi vardır. Hinton ve ark.'nın otomatik konuşma tanıma konusundaki 2012 tarihli makalesi, lojistik sigmoid aktivasyon işlevini kullanır.[5] Çığır açan 2012 AlexNet Bilgisayarla görme mimarisi, yeni ufuklar açan 2015 bilgisayar görüşü mimarisinde olduğu gibi ReLU aktivasyon işlevini kullanır ResNet. Yeni ufuklar açan 2018 dil işleme modeli BERT GELU ReLU'nun pürüzsüz bir versiyonunu kullanır.[6]

Deneysel performanslarının yanı sıra, aktivasyon fonksiyonlarının farklı matematiksel özellikleri de vardır:

Doğrusal olmayan
Aktivasyon fonksiyonu doğrusal olmadığında, iki katmanlı bir sinir ağının evrensel bir fonksiyon yaklaşımcısı olduğu kanıtlanabilir.[7] Bu, Evrensel Yaklaşım Teoremi. Kimlik etkinleştirme işlevi bu özelliği karşılamıyor. Birden çok katman kimlik etkinleştirme işlevini kullandığında, tüm ağ tek katmanlı bir modele eşdeğerdir.
Aralık
Aktivasyon işlevinin aralığı sonlu olduğunda, gradyan tabanlı eğitim yöntemleri daha kararlı olma eğilimindedir, çünkü kalıp sunumları yalnızca sınırlı ağırlıkları önemli ölçüde etkiler. Aralık sonsuz olduğunda, eğitim genellikle daha etkilidir çünkü kalıp sunumları ağırlıkların çoğunu önemli ölçüde etkiler. İkinci durumda, daha küçük öğrenme oranları tipik olarak gereklidir.[kaynak belirtilmeli ]
Sürekli türevlenebilir
Bu özellik arzu edilir (ReLU sürekli olarak farklılaştırılamaz ve gradyan tabanlı optimizasyonla ilgili bazı sorunları vardır, ancak gradyan tabanlı optimizasyon yöntemlerini etkinleştirmek için yine de mümkündür. İkili adım etkinleştirme işlevi 0'da farklılaştırılamaz ve diğer tüm değerler için 0'a farklılaşır, bu nedenle gradyan tabanlı yöntemler onunla hiçbir ilerleme kaydedemez.[8]
Monoton
Aktivasyon işlevi monoton olduğunda, tek katmanlı bir modelle ilişkili hata yüzeyinin dışbükey olması garanti edilir.[9]
Monoton türevi olan düzgün fonksiyonlar
Bunların bazı durumlarda daha iyi genelleştirdiği gösterilmiştir.
Menşe yakın kimliği
Aktivasyon fonksiyonları bu özelliğe sahip olduğunda, sinir ağı, ağırlıkları küçük rastgele değerlerle başlatıldığında verimli bir şekilde öğrenecektir. Aktivasyon işlevi başlangıç ​​noktasına yakın bir kimliğe yaklaşmadığında, ağırlıkları başlatırken özel dikkat gösterilmelidir.[10] Aşağıdaki tabloda, aktivasyon fonksiyonları nerede ve ve 0'da süreklidir, bu özelliğe sahip olarak belirtilir.

Bu özellikler performansı kesin bir şekilde etkilemez ve yararlı olabilecek tek matematiksel özellikler de değildir. Örneğin, softplus'ın kesinlikle pozitif aralığı, onu, içindeki varyansları tahmin etmeye uygun kılar. değişken otomatik kodlayıcılar.

Aşağıdaki tablo, bir işlevin işlevi olan birkaç etkinleştirme işlevinin özelliklerini karşılaştırmaktadır. kat x önceki katman veya katmanlardan:

İsimArsaFonksiyon, Türev nın-nin , AralıkSüreklilik düzeniMonotonMonotonik türevMenşe yakın kimliği
KimlikAktivasyon kimliği.svgEvetEvetEvet
İkili adımEtkinleştirme ikili step.svgEvetHayırHayır
Lojistik, sigmoid veya yumuşak adımAktivasyon logistic.svg[1]EvetHayırHayır
tanhAktivasyon tanh.svgEvetHayırEvet
Doğrultulmuş doğrusal birim (ReLU)[11]Aktivasyon düzeltilmiş linear.svgEvetEvetHayır
Gauss hatası doğrusal birimi (GELU)[6]Gauss Hatalı Doğrusal Birimi (GELU) GörselleştirmeHayırHayırHayır
Softplus[12]Aktivasyon softplus.svgEvetEvetHayır
Üstel doğrusal birim (ELU)[13]Aktivasyon elu.svg
parametre ile
Iff Iff Iff
Ölçekli üstel doğrusal birim (SELU)[14]
parametrelerle ve
EvetHayırHayır
Sızdıran düzeltilmiş doğrusal birim (Leaky ReLU)[15]Aktivasyon prelu.svgEvetEvetHayır
Parametre düzeltilmiş doğrusal birim (PReLU)[16]Aktivasyon prelu.svg
parametre ile
[2]Iff EvetIff
ElliotSig,[17][18] Softsign[19][20]Activation softsign.pngEvetHayırEvet
Kare doğrusal olmama (SQNL)[21]Aktivasyon tanh.svgEvetHayırEvet
S-şekilli rektifiye doğrusal aktivasyon ünitesi (SReLU)[22]
nerede parametrelerdir.
HayırHayırHayır
Bükülmüş kimlikActivation bent identity.svgEvetEvetEvet
Sigmoid doğrusal birim (SiLU,[6] SiL,[23] veya Swish-‍1[24])Swish Activation FunctionHayırHayırİçin
GaussActivation gaussian.svgHayırHayırHayır
SQ-RBFSQ-RBF graph no range.pngHayırHayırHayır
^ Buraya, ... lojistik fonksiyon.
^ aralığın doğru kalması için.

Aşağıdaki tablo, tek bir cihazın işlevleri olmayan etkinleştirme işlevlerini listeler. kat x önceki katman veya katmanlardan:

İsimDenklem, Türevler, AralıkSüreklilik düzeni
Softmax için ben = 1, …, J[3][4]
Maxout[25]
^ Buraya, ... Kronecker deltası.
^ Örneğin, önceki sinir ağı katmanının çekirdek sayısı boyunca yineleniyor olabilir mevcut katmanın çekirdek sayısını yineler.

Ayrıca bakınız

Referanslar

  1. ^ Hinkelmann, Knut. "Sinir Ağları, s. 7" (PDF). Kuzeybatı İsviçre Uygulamalı Bilimler Üniversitesi.
  2. ^ Hodgkin, A. L .; Huxley, A.F. (1952-08-28). "Membran akımının kantitatif bir tanımı ve bunun sinirde iletim ve uyarıma uygulanması". Fizyoloji Dergisi. 117 (4): 500–544. doi:10.1113 / jphysiol.1952.sp004764. PMC  1392413. PMID  12991237.
  3. ^ Behnke Sven (2003). Görüntü Yorumlama için Hiyerarşik Sinir Ağları. Bilgisayar Bilimlerinde Ders Notları. 2766. Springer. doi:10.1007 / b11963. ISBN  978-3-540-40722-5. S2CID  1304548.
  4. ^ Wuraola, Adedamola; Patel, Nitish (2018), "Hesaplamalı Verimli Radyal Temel Fonksiyon", 2018 Uluslararası Sinirsel Bilgi İşleme Konferansı (ICONIP), Siem reap Kamboçya: Springer, s. 103–112, doi:10.1007/978-3-030-04179-3_9
  5. ^ Hinton, Geoffrey; Deng, Li; Deng, Li; Yu, Dong; Dahl, George; Mohamed, Abdel-rahman; Jaitly, Navdeep; Kıdemli, Andrew; Vanhoucke, Vincent; Nguyen, Patrick; Sainath, Tara; Kingsbury, Brian (2012). "Konuşma Tanımada Akustik Modelleme için Derin Sinir Ağları". Alıntı dergisi gerektirir | günlük = (Yardım)
  6. ^ a b c Hendrycks, Dan; Gimpel Kevin (2016). "Gauss Hatalı Doğrusal Birimler (GELUs)". arXiv:1606.08415 [cs.LG ].
  7. ^ Cybenko, G. (Aralık 1989). "Bir sigmoidal fonksiyonun üst üste binmesi ile yaklaşım". Kontrol, Sinyaller ve Sistemlerin Matematiği. 2 (4): 303–314. doi:10.1007 / BF02551274. ISSN  0932-4194. S2CID  3958369.
  8. ^ Snyman, Ocak (3 Mart 2005). Pratik Matematiksel Optimizasyon: Temel Optimizasyon Teorisine Giriş ve Klasik ve Yeni Gradyan Tabanlı Algoritmalar. Springer Science & Business Media. ISBN  978-0-387-24348-1.
  9. ^ Wu, Huaiqin (2009). "Doğrusal büyüme aktivasyon fonksiyonları ile genel bir süreksiz sinir ağları sınıfının küresel kararlılık analizi". Bilgi Bilimleri. 179 (19): 3432–3441. doi:10.1016 / j.ins.2009.06.006.
  10. ^ Sussillo, David; Abbott, L.F. (2014-12-19). "Çok Derin İleri Beslemeli Ağların Eğitimi için Rastgele Yürüyüş Başlatma". arXiv:1412.6558 [cs.NE ].
  11. ^ Nair, Vinod; Hinton, Geoffrey E. (2010), "Doğrultulmuş Doğrusal Birimler Sınırlandırılmış Boltzmann Makinelerini Geliştiriyor", 27. Uluslararası Makine Öğrenimi Konferansı Uluslararası Konferansı, ICML'10, USA: Omnipress, s. 807–814, ISBN  9781605589077
  12. ^ Glorot, Xavier; Bordes, Antoine; Bengio, Yoshua (2011). "Derin seyrek doğrultucu sinir ağları" (PDF). Uluslararası Yapay Zeka ve İstatistik Konferansı.
  13. ^ Clevert, Djork-Arné; Unterthiner, Thomas; Hochreiter, Sepp (2015-11-23). "Üstel Doğrusal Birimlerle (ELU'lar) Hızlı ve Doğru Derin Ağ Öğrenimi". arXiv:1511.07289 [cs.LG ].
  14. ^ Klambauer, Günter; Unterthiner, Thomas; Mayr, Andreas; Hochreiter, Sepp (2017/06/08). "Kendi Kendini Normalleştiren Sinir Ağları". Sinirsel Bilgi İşleme Sistemlerindeki Gelişmeler. 30 (2017). arXiv:1706.02515. Bibcode:2017arXiv170602515K.
  15. ^ Maas, Andrew L .; Hannun, Awni Y .; Ng, Andrew Y. (Haziran 2013). "Doğrultucu doğrusal olmayan özellikler, sinir ağı akustik modellerini iyileştirir". Proc. ICML. 30 (1). S2CID  16489696.
  16. ^ O, Kaiming; Zhang, Xiangyu; Ren, Shaoqing; Güneş, Jian (2015/02/06). "Doğrultucuları Derinlemesine Araştırmak: ImageNet Sınıflandırmasında İnsan Düzeyindeki Performansı Aşmak". arXiv:1502.01852 [cs.CV ].
  17. ^ Elliot, David L. (1993), "Yapay sinir ağları için daha iyi bir aktivasyon işlevi", ISR Teknik Raporu TR 93-8, Maryland Üniversitesi, College Park, MD 20742., CiteSeerX  10.1.1.46.7204
  18. ^ "elliotsig, Elliot simetrik sigmoid transfer işlevi", Matlab R2012b, Matlab Documentation, MathWorks'te tanıtılan komut.
  19. ^ Bergstra, James; Desjardins, Guillaume; Lamblin, Pascal; Bengio, Yoshua (2009). "İkinci dereceden polinomlar daha iyi görüntü özelliklerini öğrenir". Teknik Rapor 1337 ". Département d'Informatique et de Recherche Opérationnelle, Université de Montréal. Arşivlenen orijinal 2018-09-25 tarihinde.
  20. ^ Glorot, Xavier; Bengio, Yoshua (2010), "İleri beslemeli derin sinir ağlarını eğitmenin zorluğunu anlama" (PDF), Uluslararası Yapay Zeka ve İstatistik Konferansı (AISTATS'10), Yapay Zeka ve İstatistik Derneği
  21. ^ Wuraola, Adedamola; Patel, Nitish (2018), "SQNL: Yeni Hesaplama Açısından Verimli Etkinleştirme İşlevi", 2018 Uluslararası Sinir Ağları Ortak Konferansı (IJCNN), Rio Rio de Janeiro, Brezilya: IEEE, s. 1-7
  22. ^ Jin, Xiaojie; Xu, Chunyan; Feng, Jiashi; Wei, Yunchao; Xiong, Junjun; Yan, Shuicheng (2015-12-22). "S-şekilli Doğrultulmuş Doğrusal Aktivasyon Üniteleri ile Derin Öğrenme". arXiv:1512.07030 [cs.CV ].
  23. ^ Elfwing, Stefan; Uchibe, Eiji; Doya Kenji (2018). "Pekiştirmeli Öğrenmede Sinir Ağı Fonksiyon Yaklaşımı için Sigmoid Ağırlıklı Doğrusal Birimler". Nöral ağlar. 107: 3–11. arXiv:1702.03118. doi:10.1016 / j.neunet.2017.12.012. PMID  29395652. S2CID  6940861.
  24. ^ Ramachandran, Prajit; Zoph, Barret; Le, Quoc V (2017). "Etkinleştirme İşlevlerinin Aranması". arXiv:1710.05941 [cs.NE ].
  25. ^ Goodfellow, Ian J .; Warde-Farley, David; Mirza, Mehdi; Courville, Aaron; Bengio, Yoshua (2013). "Maxout Ağları". JMLR Çalıştayı ve Konferans Bildirileri. 28 (3): 1319–1327. arXiv:1302.4389. Bibcode:2013arXiv1302.4389G.