Spektral filtreleme ile düzenleme - Regularization by spectral filtering - Wikipedia

Spektral düzenleme herhangi bir sınıf düzenleme kullanılan teknikler makine öğrenme gürültünün etkisini kontrol etmek ve önlemek aşırı uyum gösterme. Spektral düzenleme, görüntülerin hatalarının giderilmesinden e-postaların istenmeyen posta klasörü ve istenmeyen posta olmayan klasör olarak sınıflandırılmasına kadar çok çeşitli uygulamalarda kullanılabilir. Örneğin, e-posta sınıflandırma örneğinde, spektral düzenleme gürültünün etkisini azaltmak ve bir makine öğrenimi sistemi, bir spam ve istenmeyen e-postayı nasıl söyleyeceğini öğrenmek için etiketli bir e-posta kümesi üzerinde eğitilirken aşırı uyumu önlemek için kullanılabilir. ayrı.

Spektral düzenleme algoritmaları, başlangıçta tanımlanmış ve teoride incelenmiş yöntemlere dayanır. kötü pozlanmış ters problemler (örneğin bkz.[1]) muhtemelen kötü olan bir doğrusal operatörün (veya bir matrisin) ters çevrilmesine odaklanmak durum numarası veya sınırsız ters. Bu bağlamda, düzenlileştirme, orijinal işleci, bir düzenlileştirme parametresi tarafından kontrol edilen bir koşul numarasına sahip "düzenlileştirme işleci" adı verilen sınırlı bir işleçle ikame etmek anlamına gelir,[2] klasik bir örnek olmak Tikhonov düzenlenmesi. Kararlılığı sağlamak için, bu düzenleme parametresi gürültü seviyesine göre ayarlanır.[2] Spektral düzenlemenin arkasındaki ana fikir, her bir düzenlileştirme operatörünün, sorunu tanımlayan operatörün özdeğerleri üzerinde uygun bir filtre olarak spektral hesap kullanılarak tanımlanabilmesidir ve filtrenin rolü, "küçük özdeğerlere karşılık gelen salınım davranışını bastırmaktır". .[2] Bu nedenle, spektral düzenleme algoritmaları sınıfındaki her algoritma, uygun bir filtre fonksiyonu ile tanımlanır (bu özel algoritma için türetilmesi gerekir). Spektral filtrelemenin iyi çalışıldığı en yaygın kullanılan düzenleme algoritmalarından üçü Tikhonov regülarizasyonu, Landweber yinelemesi, ve kesik tekil değer ayrışımı (TSVD). Düzenlilik parametresini seçmeye gelince, bu parametreyi hesaplamak için aday yöntem örnekleri arasında genelleştirilmiş tutarsızlık ilkesi bulunur çapraz doğrulama ve L eğrisi kriteri.[3]

Makine öğrenimi bağlamında incelenen spektral filtreleme kavramının, ilgili literatüre yakından bağlı olduğu unutulmamalıdır. fonksiyon yaklaşımı (sinyal işlemede).

Gösterim

Eğitim seti şu şekilde tanımlanır: , nerede ... giriş matrisi ve çıktı vektörüdür. Mümkün olduğunda, çekirdek işlevi şu şekilde gösterilir: , ve çekirdek matrisi ile gösterilir girişleri olan ve gösterir Kernel Hilbert Uzayını Yeniden Oluşturmak (RKHS) çekirdekli . Düzenli hale getirme parametresi şu şekilde gösterilir: .

(Not: ve , ile ve Doğrusal, sürekli bir operatör verildiğinde Hilbert uzayları olmak varsayalım ki tutar. Bu ortamda, doğrudan sorun şunun için çözmek olacaktır: verilen ve tersi problem çözmektir. verilen . Çözüm mevcutsa, benzersiz ve kararlıysa, ters problem (yani çözme problemi) ) iyi pozlanmış; aksi takdirde kötüdür.)

Kötü pozlanmış ters problemler teorisiyle ilişki

Düzenlenmiş en küçük kareler (RLS) tahmin problemi (Tikhonov düzenlileştirme ayarı) ve yanlış ters problem teorisi arasındaki bağlantı, spektral regülasyon algoritmalarının kötü pozlanmış ters problem teorisi ile nasıl ilişkili olduğuna dair bir örnektir.

RLS tahmincisi çözer

ve RKHS, bu RLS tahmin edicisinin şu şekilde ifade edilmesine izin verir: nerede ile .[4] Ceza terimi, düzgünlüğü kontrol etmek ve fazla takmayı önlemek için kullanılır. Ampirik risk minimizasyonunun çözümü olarak yazılabilir öyle ki , ceza fonksiyonunun eklenmesi, sistemde çözülmesi gereken aşağıdaki değişikliğe karşılık gelir:[5]

Bu öğrenme ortamında, çekirdek matrisi şu şekilde ayrıştırılabilir: , ile

ve karşılık gelen özvektörlerdir. Bu nedenle, ilk öğrenme ortamında aşağıdakiler geçerlidir:

Bu nedenle, küçük özdeğerler için, verilerdeki küçük düzensizlikler bile çözümde önemli değişikliklere yol açabilir. Bu nedenle, problem kötü koşullandırılmıştır ve bu HBS problemini çözmek, muhtemelen kötü-koşullu ters problemler teorisinde incelenen, muhtemelen kötü koşullu bir matris ters çevirme problemini stabilize etmek anlamına gelir; Her iki problemde de temel endişe, sayısal istikrar konusunu ele almaktır.

Algoritmaların uygulanması

Spektral düzenleme algoritmaları sınıfındaki her algoritma, burada şu şekilde ifade edilen uygun bir filtre işlevi ile tanımlanır. . Kernel matrisi ile gösteriliyorsa , sonra küçük özdeğerlerin büyüklüğünü kontrol etmelidir . Bir filtreleme kurulumunda amaç, tahmin edicileri bulmaktır nerede . Bunu yapmak için bir skaler filtre işlevi çekirdek matrisinin öz ayrışması kullanılarak tanımlanır:

hangi sonuç verir

Tipik olarak, uygun bir filtre işlevi aşağıdaki özelliklere sahip olmalıdır:[5]

1. As sıfıra gider .

2. (daha küçük) özdeğerlerinin büyüklüğü tarafından kontrol edilir .

Yukarıdaki öğeler, tüm spektral düzenleme algoritmaları için filtre fonksiyonlarının genel özelliklerinin kaba bir karakterizasyonunu verirken, filtre fonksiyonunun türetilmesi (ve dolayısıyla onun tam formu), spektral filtrelemenin uygulandığı spesifik düzenleme yöntemine bağlı olarak değişir.

Tikhonov düzenlenmesi için filtre işlevi

Tikhonov düzenlileştirme ayarında, RLS için filtre işlevi aşağıda açıklanmıştır. Da gösterildiği gibi,[4] bu ortamda . Böylece,

İstenmeyen bileşenler, düzenleme kullanılarak filtrelenir:

  • Eğer , sonra .
  • Eğer , sonra .

Tikhonov düzenlemesine yönelik filtre işlevi bu nedenle şu şekilde tanımlanır:[5]

Landweber yinelemesi için filtre işlevi

Landweber yinelemesinin arkasındaki fikir, dereceli alçalma:[5]

Bu ortamda, eğer daha büyük en büyük özdeğer, yukarıdaki yineleme, seçilerek yakınsar adım boyutu olarak:[5] Yukarıdaki yineleme, en aza indirmeye eşdeğerdir (yani ampirik risk) gradyan iniş yoluyla; indüksiyon kullanılarak kanıtlanabilir. -th iterasyon, çözüm şu şekilde verilir: [5]

Bu nedenle, uygun filtre işlevi şu şekilde tanımlanır:

Bu filtre fonksiyonunun kesilmiş bir güç genişlemesine karşılık geldiği gösterilebilir. ;[5] bunu görmek için, ilişkinin , yine de tutar bir matris ile değiştirilir; bu nedenle, eğer (çekirdek matrisi) veya daha doğrusu , kabul edilir, aşağıdaki muhafazalar:

Bu ayarda, yineleme sayısı düzenlileştirme parametresini verir; kabaca konuşma, .[5] Eğer büyük, aşırı uyum bir sorun olabilir. Eğer küçükse, aşırı yumuşatma bir sorun olabilir. Bu nedenle, yinelemelerin erken durdurulması için uygun bir zamanın seçilmesi, bir düzenlilik etkisi sağlar.

TSVD için filtre işlevi

Öz ayrıştırma göz önüne alındığında TSVD ayarında ve önceden belirlenmiş bir eşik kullanarak Bu eşikten daha küçük olan tüm özdeğerler atılarak çekirdek matrisi için düzenli bir ters oluşturulabilir.[5]Böylece, TSVD için filtre işlevi şu şekilde tanımlanabilir:

TSVD'nin (kernel) kullanılarak verilerin (denetimsiz) projeksiyonuna eşdeğer olduğu gösterilebilir. Temel bileşenler Analizi (PCA) ve aynı zamanda öngörülen veriler üzerindeki ampirik riski en aza indirmeye eşdeğerdir (düzenleme olmadan).[5] Projeksiyon için tutulan bileşen sayısının buradaki tek ücretsiz parametre olduğuna dikkat edin.

Referanslar

  1. ^ H. W. Engl, M. Hanke ve A. Neubauer. Ters problemlerin düzenlenmesi. Kluwer, 1996.
  2. ^ a b c L. Lo Gerfo, L. Rosasco, F. Odone, E. De Vito ve A. Verri. Denetimli Öğrenme için Spektral Algoritmalar, Sinirsel Hesaplama, 20(7), 2008.
  3. ^ P. C. Hansen, J. G. Nagy ve D. P. O'Leary. Çapak Alma Görüntüler: Matrisler, Spektrumlar ve Filtreleme, Algoritmaların Temelleri 3, SIAM, Philadelphia, 2006.
  4. ^ a b L. Rosasco. 9.520 Ders Notları Ders 6: İstatistiksel Öğrenme Teorisi ve Uygulamaları. Massachusetts Teknoloji Enstitüsü, Güz 2013. Şuradan ulaşılabilir: https://www.mit.edu/~9.520/fall13/slides/class06/class06_RLSSVM.pdf
  5. ^ a b c d e f g h ben j L. Rosasco. 9.520 Ders Notlarının 7. Dersi: İstatistiksel Öğrenme Teorisi ve Uygulamaları. Massachusetts Teknoloji Enstitüsü, Güz 2013. Şuradan ulaşılabilir: https://www.mit.edu/~9.520/fall13/slides/class07/class07_spectral.pdf