Sinir mimarisi araması - Neural architecture search

Sinir mimarisi araması (NAS)[1][2] tasarımını otomatikleştirmek için bir tekniktir yapay sinir ağları (YSA), alanında yaygın olarak kullanılan bir model makine öğrenme. NAS, elle tasarlanmış mimarilere eşit veya daha iyi performans gösteren ağları tasarlamak için kullanılmıştır.[3][4] NAS yöntemleri, kullanılan arama alanı, arama stratejisi ve performans tahmin stratejisine göre kategorize edilebilir:[1]

  • arama alanı Tasarlanabilen ve optimize edilebilen YSA tür (ler) ini tanımlar.
  • Arama stratejisi Arama alanını keşfetmek için kullanılan yaklaşımı tanımlar.
  • performans tahmin stratejisi Olası bir YSA'nın performansını tasarımından (inşa etmeden ve eğitmeden) değerlendirir.

NAS ile yakından ilgilidir hiperparametre optimizasyonu ve bir alt alanıdır otomatik makine öğrenimi (AutoML).

Takviye öğrenme

Takviye öğrenme (RL) bir NAS arama stratejisinin temelini oluşturabilir. Zoph vd.[3] RL ile NAS'ı hedefleyen CIFAR-10 veri kümesini oluşturdu ve el ile tasarlanmış ilgili bir modelden 3,65 hata oranı, yüzde 0,09 daha iyi ve 1,05 kat daha hızlı, doğruluk için en iyi manuel olarak tasarlanmış mimariye rakip olan bir ağ mimarisi elde etti. Üzerinde Penn Treebank veri kümesi, bu model daha iyi performans gösteren tekrarlayan bir hücre oluşturdu LSTM 62.4'lük bir test seti karmaşıklığına veya 3.6 şaşkınlığa önceki lider sistemden daha iyi ulaşıyor. PTB karakter dili modelleme görevinde, karakter başına 1.214 bit elde etti.[3]

Bir model mimarisini doğrudan büyük bir veri kümesi üzerinde öğrenmek uzun bir süreç olabilir. NASNet[4][5] küçük bir veri kümesi için tasarlanmış bir yapı taşını daha büyük bir veri kümesine aktararak bu sorunu çözdü. Tasarım iki tür kullanmak üzere sınırlandırıldı evrişimli Hücreler, bir giriş özelliği haritasını birleştirirken iki ana işlevi gören özellik haritalarını döndürür: normal hücreler aynı boyuttaki (yükseklik ve genişlik) haritaları döndüren ve indirgeme hücreleri döndürülen özellik haritasının yüksekliği ve genişliğinin iki kat azaldığı. Azaltma hücresi için, hücrenin girdilerine uygulanan ilk işlem iki adım kullanır (yüksekliği ve genişliği azaltmak için).[4] Tasarımın öğrenilen yönü, her bir üst katmanın hangi alt katman (lar) ı girdi olarak aldığı, bu katmanda uygulanan dönüşümler ve her katmanda birden fazla çıktıyı birleştirmek gibi öğeleri içeriyordu. İncelenen örnekte, en iyi evrişimli katman (veya "hücre") CIFAR-10 veri kümesi için tasarlanmış ve daha sonra ImageNet Bu hücrenin kopyalarını, her biri kendi parametrelerine sahip olacak şekilde istifleyerek veri kümesi. Yaklaşım% 82,7 ilk-1 ve% 96,2 ilk-5 doğruluk sağladı. Bu, 9 milyar daha az maliyetle insan tarafından icat edilen en iyi mimarileri aştı FLOPS -% 28'lik bir azalma. Sistem, farklı hesaplama seviyelerinde manuel olarak tasarlanmış alternatifi aşmaya devam etti. Görüntü sınıflandırmasından öğrenilen görüntü özellikleri diğer bilgisayarla görme problemlerine aktarılabilir. Örneğin, nesne algılama için, Faster-RCNN çerçevesi ile entegre edilmiş öğrenilmiş hücreler, COCO veri setinde performansı% 4,0 artırdı.[4]

Verimli Sinir Mimarisi Aramasında (ENAS), bir denetleyici, büyük bir grafik içinde en uygun alt grafiği aramayı öğrenerek mimarileri keşfeder. Denetleyici aşağıdakilerle eğitilmiştir: politika gradyanı Doğrulama setinin beklenen ödülünü en üst düzeye çıkaran bir alt grafik seçmek için. Alt grafiğe karşılık gelen model, bir kanonik çapraz entropi kayıp. Birden çok alt model parametreleri paylaşır, ENAS diğer yaklaşımlardan daha az GPU saati ve "standart" NAS'tan 1000 kat daha az gerektirir. CIFAR-10'da ENAS tasarımı, NASNet'e kıyasla% 2,89'luk bir test hatası elde etti. Penn Treebank'ta ENAS tasarımı, 55,8'lik test şaşkınlığına ulaştı.[6]

Evrim

Birkaç grup kullanıldı evrimsel algoritmalar NAS için.[7][8][9] YSA'lar bağlamındaki mutasyonlar, bir katman ekleme, bir katmanı kaldırma veya bir katman türünü değiştirme (örneğin, evrişimden havuzlamaya) gibi işlemlerdir. Açık CIFAR-10, evrim ve RL benzer şekilde performans gösterirken her ikisi de daha iyi performans gösterdi rastgele arama.[8]

Tepe Tırmanışı

Başka bir grup bir Tepe Tırmanışı ağ morfizmlerini uygulayan prosedür, ardından kısa kosinüs tavlama optimizasyonu çalıştırmaları. Yaklaşım, tek bir ağı eğitmekle aynı büyüklükte kaynak gerektiren rekabetçi sonuçlar verdi. Örneğin, CIFAR-10'da bu yöntem, tek bir GPU'da 12 saatte% 5'in altında bir hata oranına sahip bir ağ tasarladı ve eğitti.[10]

Çok amaçlı arama

Yaklaşımların çoğu yalnızca maksimum tahmin performansına sahip mimari bulmaya odaklanırken, çoğu pratik uygulama için bellek tüketimi, model boyutu veya çıkarım süresi (yani bir tahmin elde etmek için gereken süre) gibi diğer hedefler de ilgilidir. Bu nedenle, araştırmacılar bir çok amaçlı arama.[11][12]

LİMONATA[11] benimsenen evrimsel bir algoritmadır Lamarkçılık birden çok hedefi verimli bir şekilde optimize etmek için. Her nesilde, çocuk ağları, Pareto sınırı Mevcut YSA popülasyonu ile ilgili olarak.

Sinir Mimar[12] ağ gömme ve performans tahminine sahip, kaynak bilincine sahip çok amaçlı RL tabanlı bir NAS olduğu iddia edilmektedir. Ağ gömme, mevcut bir ağı eğitilebilir bir gömme vektörüne kodlar. Yerleştirmeye bağlı olarak, bir kontrolör ağı hedef ağın dönüşümlerini üretir. Çok amaçlı bir ödül işlevi, ağ doğruluğunu, hesaplama kaynağını ve eğitim süresini dikkate alır. Ödül, denetleyici ağı ile önceden eğitilmiş veya birlikte eğitilmiş birden çok performans simülasyon ağı tarafından tahmin edilir. Denetleyici ağı, politika gradyanı aracılığıyla eğitilir. Bir modifikasyonun ardından, ortaya çıkan aday ağ, hem bir doğruluk ağı hem de bir eğitim süresi ağı tarafından değerlendirilir. Sonuçlar, çıkışını kontrolör ağına geri aktaran bir ödül motoru ile birleştirilir.

Süper ağ araması

RL tabanlı NAS, NASNet, mNASNet ve MobileNetV3 belgelerinde açıklandığı gibi son teknoloji bilgisayar görüşü sonuçlarına ulaşmak için binlerce GPU günlük arama / eğitim gerektirir.[4][13][14]

Süper ağtabanlı NAS, hesaplama açısından daha verimli bir çözüm sağlar. Temel fikir, binlerce ağı bağımsız olarak oluşturmak ve eğitmek yerine, nihai tasarım için birçok seçeneği kapsayan bir süper ağı eğitmektir. Öğrenilen parametrelere ek olarak, bir dizi mimari parametre bir modülü diğerine tercih etmeyi öğrenir. Bu algoritmalar farklılaştırılabilir ve kullanımına izin verir dereceli alçalma onları optimize etmek için.

Süper ağ tabanlı aramanın, RL tabanlı arama yöntemlerinin gerektirdiği arama süresinin bir kısmını kullanarak rekabetçi sonuçlar ürettiği gösterilmiştir. Örneğin, FBNet (Facebook Berkeley Network'ün kısaltmasıdır) süper ağ tabanlı aramanın ImageNet görüntü sınıflandırma veri setinde mNASNet ve MobileNetV2'nin hız-doğruluk takas eğrisinden daha iyi performans gösteren ağlar ürettiğini gösterdi. FBNet bunu 400x'in üzerinde kullanarak gerçekleştirir Daha az mNASNet için kullanılana göre arama süresi.[15][16][17] Dahası, SqueezeNAS, süper ağ tabanlı NAS'ın, Cityscapes semantik bölümleme veri kümesinde MobileNetV3'ün hız-doğruluk takas eğrisinden daha iyi performans gösteren sinir ağları ürettiğini ve SqueezeNAS'ın, MobileNetV3 yazarlarının RL tabanlı aramasında kullanılandan 100 kat daha az arama süresi kullandığını gösterdi.[18][19]

Ayrıca bakınız

Referanslar

  1. ^ a b Elsken, Thomas; Metzen, Jan Hendrik; Hutter, Frank (8 Ağustos 2019). "Sinir Mimarisi Araması: Bir Araştırma". Makine Öğrenimi Araştırmaları Dergisi. 20 (55): 1–21. arXiv:1808.05377. Bibcode:2018arXiv180805377E - jmlr.org aracılığıyla.
  2. ^ Wistuba, Martin; Rawat, Ambrish; Pedapati, Tejaswini (2019-05-04). "Sinir Mimarisi Araştırması Üzerine Bir Araştırma". arXiv:1905.01392 [cs.LG ].
  3. ^ a b c Zoph, Barret; Le, Quoc V. (2016-11-04). "Takviyeli Öğrenme ile Sinir Mimarisi Araştırması". arXiv:1611.01578 [cs.LG ].
  4. ^ a b c d e Zoph, Barret; Vasudevan, Vijay; Shlens, Jonathon; Le, Quoc V. (2017/07/21). "Ölçeklenebilir Görüntü Tanıma için Aktarılabilir Mimarileri Öğrenmek". arXiv:1707.07012 [cs.CV ].
  5. ^ Zoph, Barret; Vasudevan, Vijay; Shlens, Jonathon; Le, Quoc V. (2 Kasım 2017). "Büyük ölçekli görüntü sınıflandırması ve nesne algılama için AutoML". Araştırma Blogu. Alındı 2018-02-20.
  6. ^ Hieu, Pham; Y., Guan, Melody; Barret, Zoph; V., Le, Quoc; Jeff, Dean (2018/02/09). "Parametre Paylaşımı Yoluyla Verimli Sinir Mimarisi Araması". arXiv:1802.03268 [cs.LG ].
  7. ^ Gerçek, Esteban; Moore, Sherry; Selle, Andrew; Saxena, Saurabh; Suematsu, Yutaka Leon; Tan, Jie; Le, Quoc; Kurakin, Alex (2017-03-03). "Görüntü Sınıflandırıcıların Büyük Ölçekli Gelişimi". arXiv:1703.01041 [cs.NE ].
  8. ^ a b Gerçek, Esteban; Aggarvval, Alok; Huang, Yanping; Le, Quoc V. (2018/02/05). "Görüntü Sınıflandırıcı Mimarisi Araması için Düzenli Evrim". arXiv:1802.01548 [cs.NE ].
  9. ^ Stanley, Kenneth; Miikkulainen, Risto "Topolojileri Artırarak Gelişen Sinir Ağları ", içinde: Evrimsel Hesaplama, 2002
  10. ^ Thomas, Elsken; Jan Hendrik, Metzen; Frank, Hutter (2017-11-13). "Evrişimli Sinir Ağları için Basit ve Etkili Mimari Arama". arXiv:1711.04528 [stat.ML ].
  11. ^ a b Elsken, Thomas; Metzen, Jan Hendrik; Hutter, Frank (2018/04/24). "Lamarck Evrimi Yoluyla Verimli Çok Amaçlı Sinir Mimarisi Araştırması". arXiv:1804.09081 [stat.ML ].
  12. ^ a b Zhou, Yanqi; Diamos, Gregory. "Sinir Mimarı: Performans Tahmini ile Çok Amaçlı Bir Sinir Mimarisi Araştırması" (PDF). Baidu. Alındı 2019-09-27.
  13. ^ Tan, Mingxing; Chen, Bo; Pang, Ruoming; Vasudevan, Vijay; Sandler, Mark; Howard, Andrew; Le, Quoc V. (2018). "MnasNet: Platform-Aware Neural Architecture Search for Mobile". arXiv:1807.11626 [cs.CV ].
  14. ^ Howard, Andrew; Sandler, Mark; Chu, Grace; Chen, Liang-Chieh; Chen, Bo; Tan, Mingxing; Wang, Weijun; Zhu, Yukun; Pang, Ruoming; Vasudevan, Vijay; Le, Quoc V .; Adam, Hartwig (2019-05-06). "MobileNetV3 aranıyor". arXiv:1905.02244 [cs.CV ].
  15. ^ Wu, Bichen; Dai, Xiaoliang; Zhang, Peizhao; Wang, Yanghan; Sun, Fei; Wu, Yiming; Tian, ​​Yuandong; Vajda, Peter; Jia, Yangqing; Keutzer, Kurt (24 Mayıs 2019). "FBNet: Diferansiye Edilebilir Sinir Mimarisi Araması ile Donanıma Duyarlı Verimli ConvNet Tasarımı". arXiv:1812.03443 [cs.CV ].
  16. ^ Sandler, Mark; Howard, Andrew; Zhu, Menglong; Zhmoginov, Andrey; Chen, Liang-Chieh (2018). "MobileNetV2: Ters Kalıntılar ve Doğrusal Darboğazlar". arXiv:1801.04381 [cs.CV ].
  17. ^ Keutzer, Kurt (2019-05-22). "DNN'lerin ve NN Hızlandırıcıların Ortak Tasarımı" (PDF). IEEE. Alındı 2019-09-26.
  18. ^ Shaw, Albert; Hunter, Daniel; Iandola, Forrest; Sidhu, Sammy (2019). "SqueezeNAS: Daha hızlı anlamsal bölümleme için hızlı sinir mimarisi araması". arXiv:1908.01748 [cs.CV ].
  19. ^ Yoshida, Junko (2019-08-25). "AI Çipinizin Kendi DNN'si Var mı?". EE Times. Alındı 2019-09-26.