Geri izleme hattı araması - Backtracking line search

İçinde (kısıtlanmamış) küçültme, bir geri izleme satırı aramasıdayalı bir arama şeması Armijo-Goldstein durumu, bir satır arama belirli bir süre boyunca hareket edecek miktarı belirleme yöntemi arama yönü. Arama yönü boyunca hareket için nispeten büyük bir adım boyutu tahminiyle başlamayı ve adım boyutunun bir azalmaya kadar yinelemeli olarak küçültülmesini (yani "geri izleme") içerir. amaç fonksiyonu Amaç fonksiyonunun yerel gradyanına göre beklenen azalmaya yeterince karşılık geldiği gözlemlenmiştir.

Geriye dönük satır araması genellikle aşağıdakiler için kullanılır: dereceli alçalma, ancak başka bağlamlarda da kullanılabilir. Örneğin, birlikte kullanılabilir Newton yöntemi Eğer Hessen matrisi dır-dir pozitif tanımlı.

Motivasyon

Bir başlangıç ​​pozisyonu verildiğinde ve bir arama yönü , satır aramasının görevi adım boyutunu belirlemektir objektif işlevi yeterince azaltan (varsayıldı yani sürekli türevlenebilir ), yani bir değer bulmak için azalır göre . Bununla birlikte, önemli kaynakları bir değer bulmaya ayırmak genellikle arzu edilmez. kesin olarak küçültmek . Bunun nedeni, belirli bir yön boyunca daha kesin bir minimum bulmak için gereken bilgi işlem kaynaklarının, bunun yerine daha iyi bir arama yönünü belirlemek için kullanılabilmesidir. Hat aramasıyla geliştirilmiş bir başlangıç ​​noktası belirlendikten sonra, başka bir sonraki satır araması normal olarak yeni bir yönde gerçekleştirilecektir. O halde amaç, sadece bir değer belirlemek gerçek asgariye indirici değerini bulmaktan ziyade, amaç işlevinde makul miktarda iyileştirme sağlayan .

Geriye dönük hat araması, büyük bir tahminle başlar ve yinelemeli olarak küçültür. Küçülme, yerel fonksiyon gradyanına dayalı olarak, hedef fonksiyonda elde edilmesi beklenen azalmaya yeterince eşleşen bir azalma sağlayacak kadar küçük bir değer bulunana kadar devam eder.

Fonksiyonunun yerel eğimini tanımlayın arama yönü boyunca gibi (nerede gösterir nokta ürün ). Olduğu varsayılmaktadır bir miktar yerel azalmanın mümkün olduğu bir vektördür, yani .

Seçilen bir kontrol parametresine göre Armijo – Goldstein koşulu, mevcut bir konumdan adım adım bir hareket olup olmadığını test eder. değiştirilmiş bir konuma amaç işlevinde yeterince karşılık gelen bir azalma sağlar. Koşul yerine getirildi, bakın Armijo (1966), Eğer

Bu koşul, bir hat aramasının bir parçası olarak uygun şekilde kullanıldığında, adım boyutunun aşırı derecede büyük olmamasını sağlayabilir. Bununla birlikte, bu koşul, adım boyutunun neredeyse optimal olmasını sağlamak için tek başına yeterli değildir, çünkü herhangi bir değer yeterince küçük olması durumu tatmin edecektir.

Böylece, geri izleme hattı arama stratejisi nispeten büyük bir adım boyutuyla başlar ve tekrar tekrar onu bir faktör kadar küçültür. Armijo – Goldstein koşulu yerine getirilene kadar.

Arama, herhangi bir pozitif değer için sınırlı sayıda adımdan sonra sona erecektir. ve Bu 1'den küçüktür. Örneğin, Armijo12 ikisi için ve içinde Armijo (1966).

Algoritma

Bu durum Armijo (1966). Maksimum aday adım boyutu değeriyle başlayarak , arama kontrol parametrelerini kullanarak ve , geri izleme satırı arama algoritması şu şekilde ifade edilebilir:

  1. Ayarlamak ve yineleme sayacı .
  2. Koşul tatmin olana kadar tekrar tekrar artış ve ayarla
  3. Dönüş çözüm olarak.

Başka bir deyişle, azaltın bir faktör ile Armijo – Goldstein koşulu yerine getirilene kadar her yinelemede.

Pratikte geriye dönük satır aramasını kullanarak fonksiyon minimizasyonu

Uygulamada, yukarıdaki algoritma tipik olarak bir dizi oluşturmak için yinelenir , , minimuma yakınsamak için, böyle bir minimum olması şartıyla ve her adımda uygun şekilde seçilir. Gradyan iniş için, olarak seçildi .

Değeri için Armijo-Goldstein koşulunu yerine getiren, şunlara bağlıdır: ve ve bu nedenle aşağıda şu şekilde belirtilmiştir: . Aynı zamanda şunlara da bağlıdır: , , ve Tabii ki, bu bağımlılıklar, optimizasyon problemi ile ilgili olarak düzeltildiği varsayılırsa örtük bırakılabilir.

Ayrıntılı adımlar bu nedenle, bkz. Armijo (1966), Bertsekas (2016):

  1. Bir başlangıç ​​noktası seçin ve yineleme sayacını ayarlayın .
  2. Bazı durma koşulları sağlanana kadar bir iniş yönü seçin , artış ve konumu güncelle .
  3. Dönüş küçültme konumu olarak ve minimum fonksiyon olarak.

İyi davranışı sağlamak için, bazı koşulların şu şekilde yerine getirilmesi gerekir: . Kabaca konuşma çok uzak olmamalı . Kesin bir versiyon aşağıdaki gibidir (bkz. Bertsekas (2016) ). Sabitler var böylece aşağıdaki iki koşul karşılanır:

  1. Tüm n için, . Buraya, ... Öklid normu nın-nin . (Bu, eğer , ve hatta . Daha genel olarak, eğer , ve hatta Daha katı bir versiyon aynı zamanda ters eşitsizliği de gerektirir: pozitif bir sabit için .
  2. Tüm n için, . (Bu koşul, talimatların ve benzerdir.)

Öğrenme oranları için alt sınır

Bu, pozitif bir sayı bulmanın sistematik bir yolu olup olmadığı sorusunu ele alır. - f fonksiyonuna bağlı olarak nokta ve iniş yönü - hepsi bu kadar öğrenme oranları Armijo'nun durumunu tatmin edin. Ne zaman , seçebiliriz sırasına göre , nerede gradyan için yerel bir Lipschitz sabitidir noktanın yakınında (görmek Lipschitz sürekliliği ). İşlev ise , sonra noktadaki işlevin Hessian değerine yakın . Görmek Armijo (1966) daha fazla ayrıntı için.

Öğrenme oranları için üst sınır

Aynı durumda , ilginç bir soru, Armijo'nun durumunda (yani bir kişinin üzerinde sınır olmadığında) ne kadar büyük öğrenme oranlarının seçilebileceğidir. "Pratikte geriye doğru izleme satırı aramasını kullanarak fonksiyon minimizasyonu" bölümünde), çünkü sınır noktasına daha yakın ise (varsa) yakınsamayı hızlandırabilir. Örneğin, Wolfe koşulları hiç bahsedilmiyor ancak eğrilik koşulu adı verilen başka bir koşul tanıtıldı.

Oluşturulan sırayı isterse, öğrenme oranları için bir üst sınırın var olduğu gösterilir bir dejenere olmayan kritik nokta, görmek Truong ve Nguyen (2020): Öğrenme oranları yukarıdan aşağı yukarı sınırlandırılmalıdır. . Burada H, sınır noktasındaki fonksiyonun Hessian'ıdır, onun ters, ve ... doğrusal operatör normu. Bu nedenle, bu sonuç örneğin bir kişi için Backtracking satır araması kullanıldığında geçerlidir. Mors fonksiyonları. 1. boyutta, bir sayıdır ve dolayısıyla bu üst sınır, "Öğrenme oranları için alt sınır" bölümündeki alt sınırla aynı boyuttadır.

Öte yandan, sınır noktası dejenere ise, öğrenme oranları sınırsız olabilir. Örneğin, Sınırsız geri izleme gradyan inişi adlı Backtracking satır aramasının bir modifikasyonu (bkz. Truong ve Nguyen (2020) ) öğrenme oranının şu boyutta olmasını sağlar , nerede sabittir. Gibi basit işlevlerle deneyler Sınırsız geri izleme gradyan inişinin "Pratikte geriye dönük çizgi aramasını kullanarak fonksiyon minimizasyonu" bölümünde temel versiyondan çok daha hızlı yakınsadığını gösterin.

Zaman verimliliği

Backtracking çizgi aramasının kullanımına karşı bir argüman, özellikle Büyük ölçekli optimizasyonda, Armijo'nun koşulunu tatmin etmenin pahalı olduğudur. İyi teorik garantilerle dolaşmanın bir yolu (sözde İki Yönlü Geri İzleme) vardır ve üzerinde iyi sonuçlarla test edilmiştir. Derin sinir ağları, görmek Truong ve Nguyen (2020). Biri gözlemler ki eğer dizi yakınlaşır (yinelemeli bir optimizasyon yöntemi kullanıldığında dilendiği gibi), ardından öğrenme oranları dizisi n yeterince büyük olduğunda çok az değişiklik göstermelidir. Bu nedenle, arayışında eğer biri her zaman şundan başlarsa , eğer sekansın uzak kalır . Bunun yerine, aranmalı başlayarak . İkinci gözlem şudur: daha büyük olabilir ve bu nedenle öğrenme oranının artırılmasına izin verilmelidir (ve sadece Algoritma bölümünde olduğu gibi azaltılmamalıdır). İki Yönlü Geri İzleme için ayrıntılı algoritma: Adım n'de

  1. Ayarlamak . Ayarlamak ve yineleme sayacı .
  2. (Armijo'nun durumu tatmin edildiyse öğrenme oranını artırın.) , sonra bu durum ve memnun, tekrar tekrar ayarlandı ve j artırın.
  3. (Aksi takdirde, Armijo'nun durumu tatmin edici değilse öğrenme oranını azaltın.) Aksine ise sonra koşul tatmin olana kadar tekrar tekrar artış ve ayarla
  4. Dönüş öğrenme oranı için .

İki Yönlü Geri İzleme ve temel Standart gradyan iniş algoritması arasındaki karma bir karışımla zamandan daha fazla tasarruf edilebilir. Bu prosedür aynı zamanda iyi bir teorik garantiye ve iyi bir test performansına sahiptir. Kabaca konuşursak, İki Yönlü Geri İzleme'yi birkaç kez çalıştırırız, sonra elde ettiğimiz öğrenme oranını, işlev değerinin artması dışında değiştirmeden kullanırız. İşte tam olarak nasıl yapıldığı. Biri önceden bir N sayısı ve bir sayı seçin .

  1. Yineleme sayacı j = 0 olarak ayarlayın.
  2. Adımlarda , İki Yönlü Geri İzleme kullanın.
  3. Setteki her k adımında : Ayarlamak . Eğer , sonra seç ve . (Bu durumda, öğrenme oranını kullanın değişmedi.) Aksi takdirde, eğer , İki Yönlü Geri İzleme kullanın. K'yi 1 artırın ve tekrarlayın.
  4. J'yi 1 artırın.

Teorik garanti (gradyan iniş için)

Daha karmaşık olan Wolfe koşulları ile karşılaştırıldığında, Armijo'nun durumu daha iyi bir teorik garantiye sahip. Aslında, şimdiye kadar geriye doğru izleme satırı arama ve modifikasyonları, yakınsama ile ilgili tüm sayısal optimizasyon algoritmaları arasında teorik olarak en garantili yöntemlerdir. kritik noktalar ve kaçınma eyer noktaları, aşağıya bakınız.

Kritik noktalar Amaç fonksiyonunun gradyanının 0 olduğu noktalardır. Yerel minimum noktalar kritik noktalardır, ancak yerel minimum olmayan kritik noktalar vardır. Eyer noktaları buna bir örnek. Eyer noktaları fonksiyonun (yerel) maksimum olduğu en az bir yönün olduğu kritik noktalardır. Bu nedenle, bu noktalar yerel minimum olmaktan uzaktır. Örneğin, bir işlevin en az bir eyer noktası varsa, o zaman olamaz dışbükey. Eyer noktalarının optimizasyon algoritmalarıyla ilgisi, büyük ölçekli (yani yüksek boyutlu) optimizasyonda, muhtemelen minimumdan daha fazla eyer noktası görmektir, bkz. Bray ve Dean (2007). Bu nedenle, iyi bir optimizasyon algoritması eyer noktalarından kaçınabilmelidir. Ayarında Derin öğrenme eyer noktaları da yaygındır, bkz. Dauphin vd. (2014). Böylelikle başvurmak Derin öğrenme dışbükey olmayan işlevler için sonuçlara ihtiyaç vardır.

Kritik noktalara yakınsama için: Örneğin, maliyet fonksiyonu bir gerçek analitik fonksiyon, sonra gösterilir Absil, Mahony ve Andrews (2005) bu yakınsama garantilidir. Ana fikir kullanmaktır Łojasiewicz eşitsizliği gerçek bir analitik işlevden yararlanılan. Düzgün olmayan fonksiyonlar için tatmin edici Łojasiewicz eşitsizliği yukarıdaki yakınsama garantisi uzatılır, bkz. Attouch, Bolte ve Svaiter (2011). İçinde Bertsekas (2016) Geriye dönük çizgi aramayla oluşturulan her dizi için bir küme noktası (yani, limit birinin alt sıra, alt dizi yakınsarsa) kritik bir noktadır. En çok sayılabilecek kadar çok kritik noktaya sahip bir işlev durumunda (örneğin Mors işlevi ) ve kompakt alt seviyeler ve ayrıca öğrenme oranı <1 / L olan Standart GD'nin kullanıldığı Lipschitz sürekli gradyanında (Stokastik gradyan inişiyle ilgili bölüme bakın), daha sonra yakınsama garanti edilir, örneğin Bölüm 12'ye bakınız. Lange (2013). Burada kompakt alt seviyeler hakkındaki varsayım, birinin yalnızca Öklid uzayının kompakt kümeleriyle uğraştığından emin olmaktır. Genel durumda, f'nin yalnızca olduğu varsayılır ve en fazla sayılabilecek kadar çok kritik noktaya sahip, yakınsama garantilidir, bkz. Truong ve Nguyen (2020). Aynı referansta, Backtracking çizgi aramasının diğer modifikasyonları için benzer şekilde yakınsama garanti edilir ("Öğrenme hızları için üst sınır" bölümünde bahsedilen Sınırsız geri izleme gradyan inişi gibi) ve fonksiyonun sayılamayacak kadar çok kritik noktası olsa bile, yine de çıkarılabilir yakınsama davranışı hakkında bazı önemsiz olmayan gerçekler. Stokastik ortamda, gradyanın Lipschitz sürekliliği olduğu varsayımı altında ve daha kısıtlayıcı bir versiyon kullanılır (ayrıca öğrenme hızlarının toplamının sonsuz ve öğrenme oranlarının karelerinin toplamının sonlu olmasını gerektirir) Azalan öğrenme hızı şeması (Stokastik gradyan inişi bölümüne bakın) ve dahası fonksiyon kesinlikle dışbükeydir, daha sonra yakınsama iyi bilinen sonuçta belirlenir Robbins ve Monro (1951), görmek Bertsekas ve Tsitsiklis (2006) Azalan öğrenme oranı şemasının daha az kısıtlayıcı sürümlerine genellemeler için. Bu sonuçların hiçbiri (dışbükey olmayan işlevler için) şu ana kadar başka bir optimizasyon algoritması için kanıtlanmamıştır.[kaynak belirtilmeli ]

Eyer noktalarından kaçınmak için: Örneğin, maliyet fonksiyonunun gradyanı Lipschitz sürekli ise ve biri <1 / L öğrenme oranıyla Standart GD seçiliyorsa, o zaman rastgele bir başlangıç ​​noktası seçimi ile (daha doğrusu, bir dizi Lebesgue ölçümü sıfır), oluşturulan dizi bir dejenere olmayan eyer noktası (kanıtlanmış Lee vd. (2016) ) ve daha genel olarak, inşa edilen dizinin dejenere bir eyer noktasına yakınsamayacağı da doğrudur (kanıtlanmıştır. Panageas ve Piliouras (2017) ). Gradyanın Lipschitz sürekliliği olduğu ve birinin Azalan öğrenme oranı şemasının kullanıldığı aynı varsayım altında (Stokastik gradyan iniş bölümüne bakınız), eyer noktalarından kaçınma Panageas, Piliouras ve Wang (2019).

Özel bir durum: (Standart) Stokastik gradyan inişi

Bir maliyet fonksiyonunun gradyanı Lipschitz sabiti L ile sürekli Lipschitz ise, o zaman sabit ve 1 / L boyutunda öğrenme oranı seçildiğinde, özel bir Backtracking satır araması durumu söz konusudur ( dereceli alçalma). Bu en azından kullanıldı Armijo (1966). Ancak bu şema, L için iyi bir tahminin yapılmasını gerektirir, aksi takdirde eğer öğrenme oranı çok büyükse (1 / L'ye göre) o zaman planın yakınsama garantisi yoktur. Maliyet fonksiyonu f (t) = | t | fonksiyonunun bir düzeltmesi (0 noktasına yakın) ise neyin yanlış gideceğini görebiliriz. Bununla birlikte, bu kadar iyi bir tahmin, büyük boyutlarda zor ve zahmetlidir. Ayrıca, fonksiyonun gradyanı global olarak Lipschitz sürekliliği değilse, bu şemanın yakınsama garantisi yoktur. Örneğin, bu bir alıştırmaya benzer Bertsekas (2016) maliyet fonksiyonu için ve hangi sabit öğrenme hızı seçilirse seçilsin, rastgele bir başlangıç ​​noktası ile bu özel şema tarafından oluşturulan sıra, global minimum 0'a yakınsamaz.

Öğrenme oranının 1 / L ile sınırlandırılması koşulu umursamazsa, bu özel şema en azından 1847'den beri çok daha eski kullanılmıştır. Cauchy Standart GD olarak adlandırılabilir (SGD ile ayırt etmek için). Stokastik ayarında (örn. Mini parti ayarında olduğu gibi Derin öğrenme ), Standart GD denir Stokastik gradyan inişi veya SGD.

Maliyet fonksiyonu küresel olarak sürekli bir eğime sahip olsa bile, Derin Öğrenmedeki maliyet fonksiyonları için Lipschitz sabitinin iyi bir tahmini, çok yüksek boyutlar göz önüne alındığında, uygulanabilir veya istenmeyebilir. Derin sinir ağları. Bu nedenle, Standart GD veya SGD'nin uygulanmasında öğrenme oranlarının ince ayarı için bir teknik vardır. Bunun bir yolu, bazı öğrenme oranlarının iyi sonuçlar verebileceği umuduyla, bir ızgara aramasından birçok öğrenme oranı seçmektir. (Ancak, kayıp fonksiyonunun global Lipschitz sürekli gradyanına sahip olmaması durumunda, örnek Yukarıdaki ızgara aramanın yardımcı olamayacağını göstermektedir.) Başka bir yol da uyarlanabilir Standart GD veya SGD'dir, bazı temsilciler Adam, Adadelta, RMSProp ve benzerleridir, bkz. Stokastik gradyan inişi. Uyarlanabilir Standart GD veya SGD'de, öğrenme hızlarının her yineleme adımında değişmesine izin verilir, ancak gradyan inişi için Backtracking hattı aramasından farklı bir şekilde. Görünüşe göre, Armijo'nun durumu karşılanana kadar bir döngü araması yapılması gerektiğinden, uyarlanabilir Standart GD veya SGD için döngü araması gerekmediğinden, gradyan inişi için Backtracking hattı aramasını kullanmak daha pahalı olacaktır. Bu uyarlanabilir Standart GD veya SGD'nin çoğu iniş özelliğine sahip değildir , tüm n için, degrade iniş için Backtracking hattı araması olarak. Sadece birkaçı bu özelliğe sahiptir ve iyi teorik özelliklere sahiptir, ancak bunlar, geri izleme hattı aramasının özel durumları veya daha genel olarak Armijo'nun durumu olarak ortaya çıkmaktadır. Armijo (1966). Birincisi, öğrenme oranının sabit <1 / L olarak seçilmesi, yukarıda belirtildiği gibi, iyi bir L tahminine sahip olunmasıdır. İkincisi, Diminshing öğrenme oranı olarak adlandırılır ve iyi bilinen makalede Robbins ve Monro (1951), eğer fonksiyon yine global olarak Lipschitz sürekli gradyanına sahipse (ancak Lipschitz sabiti bilinmeyebilir) ve öğrenme oranları 0'a yakınsar.

Özet

Özetle, Backtracking hattı araması (ve modifikasyonları) uygulaması kolay, çok genel işlevler için geçerli, çok iyi teorik garantiye sahip (hem kritik noktalara yakınsama hem de eyer noktalarından kaçınma için) ve pratikte iyi çalışan bir yöntemdir. Azalan öğrenme oranları veya öğrenme oranı <1 / L olan Standart GD gibi iyi teorik garantiye sahip diğer birkaç yöntem - her ikisi de objektif işlevin gradyanının Lipschitz sürekli olmasını gerektirir, özel bir Backtracking satır araması veya Armijo'nun durumunu tatmin edin. Öncelikli olarak, bu yöntemi uygulamak için maliyet fonksiyonunun sürekli olarak farklılaştırılabilir olmasına ihtiyaç duyulsa da, pratikte bu yöntem, yoğun bir açık alt kümede sürekli olarak farklılaştırılabilen fonksiyonlar için de başarılı bir şekilde uygulanabilir. veya . İkinci işlevler şurada görünür: Derin Sinir Ağları.

Ayrıca bakınız

Referanslar