Artırılmış Lagrangian yöntemi - Augmented Lagrangian method

Artırılmış Lagrange yöntemleri belli bir sınıf algoritmalar çözmek için kısıtlı optimizasyon sorunlar. Benzerlikleri var ceza yöntemleri kısıtlı bir optimizasyon problemini bir dizi kısıtlanmamış problemle değiştirmeleri ve bir ceza terimi eklemeleri amaç; aradaki fark, artırılmış Lagrangian yönteminin, bir Lagrange çarpanı. Artırılmış Lagrangian ile ilgilidir, ancak aynı değildir Lagrange çarpanları yöntemi.

Farklı bir şekilde bakıldığında, sınırlandırılmamış hedef, Lagrange ek bir ceza terimiyle ( büyütme).

Yöntem başlangıçta olarak biliniyordu çarpan yöntemive ceza yöntemlerine iyi bir alternatif olarak 1970 ve 1980'lerde çok çalışıldı. İlk önce tarafından tartışıldı Magnus Hestenes,[1] ve tarafından Michael Powell 1969'da.[2] Yöntem tarafından incelendi R. Tyrrell Rockafellar ile ilgili olarak Fenchel ikiliği özellikle proksimal nokta yöntemleriyle ilgili olarak, Moreau – Yosida düzenlenmesi, ve maksimum monoton operatörler: Bu yöntemler, yapısal optimizasyon. Yöntem ayrıca Dimitri Bertsekas özellikle 1982 tarihli kitabında,[3] gibi kuadratik olmayan düzenleme işlevlerini içeren uzantılarla birlikte entropik düzenleme, eşitsizlik kısıtlamalarını iki kez türevlenebilir, artırılmış Lagrangian fonksiyonuyla ele alan bir yöntem olan "üstel çarpanlar yöntemi" ni ortaya çıkarır.

1970'lerden beri sıralı ikinci dereceden programlama (SQP) ve iç nokta yöntemleri (IPM), kısmen daha kolay kullanmaları nedeniyle artan ilgi görmüştür. seyrek matris alt programlar itibaren sayısal yazılım kitaplıkları ve kısmen, IPM'lerin teorisi yoluyla kanıtlanmış karmaşıklık sonuçları olduğu için kendiliğinden uyumlu işlevler. Artırılmış Lagrangian yöntemi, optimizasyon sistemleri ile gençleştirildi LANCELOT ve AMPL Bu, seyrek matris tekniklerinin görünüşte yoğun ancak "kısmen ayrılabilir" problemlerde kullanılmasına izin verdi. Yöntem hala bazı problemler için kullanışlıdır.[4]2007 civarında, aşağıdaki gibi alanlarda artırılmış Lagrangian yöntemlerinde bir canlanma yaşandı. toplam varyasyon denoising ve sıkıştırılmış algılama Özellikle, kısmi güncellemeleri kullanan standart artırılmış Lagrangian yönteminin bir çeşidi ( Gauss-Seidel yöntemi doğrusal denklemleri çözmek için) olarak bilinir değişken yön çarpanları yöntemi veya ADMM biraz dikkat çekti.

Genel yöntem

Diyelim ki aşağıdaki kısıtlı problemi çözüyoruz:

tabi

Bu problem, bir dizi kısıtsız minimizasyon problemi olarak çözülebilir. Referans için önce kinci adım ceza yöntemi yaklaşmak:

Ceza yöntemi bu sorunu çözer, ardından bir sonraki yinelemede daha büyük bir değer kullanarak sorunu yeniden çözer. (ve eski çözümü ilk tahmin veya "sıcak başlangıç" olarak kullanarak).

Arttırılmış Lagrangian yöntemi, aşağıdaki kısıtlanmamış hedefi kullanır:

ve her yinelemeden sonra, güncellemeye ek olarak , değişken ayrıca kurala göre güncellenir

nerede sınırlandırılmamış sorunun çözümü kth adım, yani

Değişken bir tahminidir Lagrange çarpanı ve bu tahminin doğruluğu her adımda artar. Yöntemin en büyük avantajı, ceza yöntemi almak gerekli değil orijinal kısıtlı problemi çözmek için. Bunun yerine, Lagrange çarpanı teriminin varlığı nedeniyle, çok daha küçük kalabilir, böylece kötü şartlandırmadan kaçınabilir.[4]

Yöntem, eşitsizlik kısıtlamalarını ele alacak şekilde genişletilebilir. Pratik iyileştirmelerle ilgili bir tartışma için bkz.[4]

Çarpanların alternatif yön yöntemi

Çarpanların alternatif yön yöntemi (ADMM), ikili değişkenler için kısmi güncellemeler kullanan artırılmış Lagrangian şemasının bir çeşididir. Bu yöntem genellikle aşağıdaki gibi sorunları çözmek için uygulanır.

Bu, kısıtlı soruna eşdeğerdir

Bu değişiklik önemsiz görünse de, sorun artık kısıtlı optimizasyon yöntemleri (özellikle artırılmış Lagrangian yöntemi) kullanılarak saldırıya uğrayabilir ve amaç işlevi x ve y. İkili güncelleme, bir yakınlık işlevinin çözülmesini gerektirir. x ve y aynı zamanda; ADMM tekniği, bu sorunun yaklaşık olarak ilk önce çözülerek çözülmesini sağlar. x ile y düzeltildi ve sonra çözülüyor y ile x sabit. Yakınsamaya kadar yinelemek yerine (örneğin Jacobi yöntemi ), algoritma doğrudan ikili değişkeni güncellemeye ve ardından işlemi tekrar etmeye ilerler. Bu, tam olarak küçültmeye eşdeğer değildir, ancak şaşırtıcı bir şekilde, bu yöntemin doğru cevaba yaklaştığı gösterilebilir (bazı varsayımlar altında). Bu yaklaşım nedeniyle, algoritma saf artırılmış Lagrangian yönteminden farklıdır.

ADMM, bir uygulama olarak görülebilir. Douglas-Rachford bölme algoritması ve Douglas-Rachford algoritması da sırayla Proksimal nokta algoritması; detaylar burada bulunabilir.[5] Çözen birkaç modern yazılım paketi var Temel arayış ve çeşitleri ve ADMM'yi kullanın; bu tür paketler şunları içerir YALL1 (2009), SpaRSA (2009) ve SALSA (2009). Ayrıca, daha genel sorunları çözmek için ADMM'yi kullanan paketler de vardır ve bunlardan bazıları birden çok bilgi işlem çekirdeğinden yararlanabilir. SNAPVX (2015), parADMM (2016).

Stokastik optimizasyon

Stokastik optimizasyon, fonksiyonun (gradyanı) gürültülü örneklerine erişim ile bir kayıp fonksiyonunu en aza indirme problemini dikkate alır. Amaç, yeni numune başına en uygun parametrenin (küçültücü) tahmin edilmesidir. ADMM aslında bir parti yöntemidir. Ancak bazı modifikasyonlarla stokastik optimizasyon için de kullanılabilir. Stokastik ortamda sadece gürültülü gradyan örneklerine erişebildiğimiz için, Lagrangian'ın tam olmayan bir yaklaşımını şu şekilde kullanıyoruz:

nerede zamanla değişen bir adım boyutudur.[6]

Çarpanların alternatif yön yöntemi (ADMM), büyük ölçekte çevrimiçi ve dağıtılmış optimizasyon için popüler bir yöntemdir,[7] ve birçok uygulamada kullanılır, ör.[8][9][10]ADMM genellikle, fonksiyon optimizasyonunun ve düzenlemenin yerel olarak yürütülebildiği ve daha sonra kısıtlamalar yoluyla küresel olarak koordine edilebildiği düzenlenmiş problemleri çözmek için uygulanır. ve optimal çözümde cimriliği teşvik etmek, örneğin seyreklik ve düşük rütbe. ADMM'nin düzenlenmiş problemleri çözmedeki etkinliği nedeniyle, yüksek boyutlarda stokastik optimizasyon için iyi bir potansiyele sahiptir.

Alternatif yaklaşımlar

Yazılım

Artırılmış Lagrangian yönteminin açık kaynak ve özgür olmayan / ticari uygulamaları:

  • Accord.NET (C # artırılmış Lagrangian optimizer uygulaması)
  • ALGLIB (Önceden koşullandırılmış artırılmış Lagrangian çözücünün C # ve C ++ uygulamaları)
  • CEZA (GPL 3, ticari lisans mevcuttur)
  • LANCELOT (ücretsiz "dahili kullanım" lisansı, ücretli ticari seçenekler)
  • MINOS (ayrıca bazı problem türleri için artırılmış bir Lagrange yöntemi kullanır).
  • Lisanslı Apache 2.0 kodu NEDEN çevrimiçi olarak mevcuttur.[11]

Ayrıca bakınız

Referanslar

  1. ^ Hestenes, M.R. (1969). "Çarpan ve gradyan yöntemleri". Optimizasyon Teorisi ve Uygulamaları Dergisi. 4 (5): 303–320. doi:10.1007 / BF00927673. S2CID  121584579.
  2. ^ Powell, M.J.D. (1969). "En aza indirme problemlerinde doğrusal olmayan kısıtlamalar için bir yöntem". Fletcher, R. (ed.). Optimizasyon. New York: Akademik Basın. s. 283–298. ISBN  0-12-260650-7.
  3. ^ Bertsekas, Dimitri P. (1996) [1982]. Kısıtlı optimizasyon ve Lagrange çarpanı yöntemleri. Athena Scientific.
  4. ^ a b c Nocedal ve Wright (2006) Bölüm 17
  5. ^ Eckstein, J .; Bertsekas, D. P. (1992). "Douglas Üzerine — Rachford bölme yöntemi ve maksimal monoton operatörler için proksimal nokta algoritması". Matematiksel Programlama. 55 (1–3): 293–318. CiteSeerX  10.1.1.141.6246. doi:10.1007 / BF01581204. S2CID  15551627.
  6. ^ Ouyang, H .; Tavuk.; Tran, L. & Gray, A. G (2013). "Çarpanların stokastik alternatif yön yöntemi". 30. Uluslararası Makine Öğrenimi Konferansı Bildirileri: 80–88.
  7. ^ Boyd, S .; Parikh, N .; Chu, E .; Peleato, B. & Eckstein, J. (2011). "Çarpanların alternatif yön yöntemi aracılığıyla dağıtılmış optimizasyon ve istatistiksel öğrenme". Makine Öğreniminde Temeller ve Eğilimler { textregistered}. 3 (1): 1–122. CiteSeerX  10.1.1.360.1664. doi:10.1561/2200000016.
  8. ^ Wahlberg, B .; Boyd, S .; Annergren, M .; Wang, Y. (2012). "Düzenlenmiş tahmin problemleri toplam varyasyon sınıfı için bir ADMM algoritması". arXiv:1203.1828 [stat.ML ].
  9. ^ Esser, E .; Zhang, X .; Chan, T. (2010). "Görüntüleme biliminde dışbükey optimizasyon için birinci dereceden ilk ikili algoritmalar sınıfı için genel bir çerçeve". SIAM Görüntüleme Bilimleri Dergisi. 3 (4): 1015–1046. doi:10.1137 / 09076934X.
  10. ^ Mota, J. FC; Xavier, J. MF; Aguiar, P. MQ; Puschel, M. (2012). "Model tahmin kontrolü ve tıkanıklık kontrolü için dağıtılmış ADMM". Karar ve Kontrol (CDC), 2012 IEEE 51'inci Yıllık Konferansı O: 5110–5115. doi:10.1109 / CDC.2012.6426141. ISBN  978-1-4673-2066-5. S2CID  12128421.
  11. ^ "Sebep kodu".

Kaynakça