Güçlendirme (makine öğrenimi) - Boosting (machine learning)

İçinde makine öğrenme, artırma bir topluluk meta algoritma öncelikle azaltmak için önyargı ve ayrıca varyans[1] içinde denetimli öğrenme ve zayıf öğrencileri güçlü olanlara dönüştüren bir makine öğrenimi algoritmaları ailesi.[2] Artırma şu soruya dayanır: Kearns ve Valiant (1988, 1989):[3][4] "Bir grup zayıf öğrenci, tek bir güçlü öğrenci yaratabilir mi?" Zayıf bir öğrenci, sınıflandırıcı bu, gerçek sınıflandırmayla yalnızca biraz ilişkilidir (örnekleri rastgele tahmin etmekten daha iyi etiketleyebilir). Buna karşılık, güçlü bir öğrenci, gerçek sınıflandırma ile keyfi olarak iyi ilişkilendirilen bir sınıflandırıcıdır.

Robert Schapire 1990 tarihli bir makaledeki olumlu cevabı[5] Kearns ve Valiant'ın sorusu, makine öğrenme ve İstatistik, en önemlisi, artırmanın gelişmesine yol açar.[6]

İlk tanıtıldığında, hipotez artırıcı problem basitçe zayıf bir öğrenciyi güçlü bir öğrenene dönüştürme sürecinden bahsediyordu. "Gayri resmi olarak, [hipotez güçlendirme] problemi, performansı rastgele tahmin etmekten yalnızca biraz daha iyi olan bir hipotez üreten etkili bir öğrenme algoritmasının […] [yani zayıf bir öğrenen], keyfi bir hipotez çıkaran etkili bir algoritmanın varlığını ima edip etmediğini sorar. doğruluk [yani güçlü bir öğrenci]. "[3] Hızla hipotez güçlendirme sağlayan algoritmalar basitçe "güçlendirme" olarak bilinmeye başladı. Freund ve Schapire'ın yayları (Yeniden Örnekleme ve Birleştirme [at] 'de Uyarla),[7] genel bir teknik olarak, güçlendirme ile aşağı yukarı eşanlamlıdır.[8]

Algoritmaları güçlendirmek

Arttırma algoritmik olarak kısıtlanmış olmasa da, çoğu yükseltme algoritması, bir dağıtıma göre zayıf sınıflandırıcıları yinelemeli olarak öğrenmekten ve bunları son bir güçlü sınıflandırıcıya eklemekten oluşur. Eklendiklerinde, zayıf öğrencilerin doğruluğu ile ilişkili bir şekilde ağırlıklandırılırlar. Zayıf bir öğrenci eklendikten sonra, veri ağırlıkları yeniden ayarlanır ve "yenidenağırlıklandırma ". Yanlış sınıflandırılmış girdi verileri daha fazla ağırlık kazanır ve doğru sınıflandırılan örnekler kilo verir.[not 1] Bu nedenle, gelecekteki zayıf öğrenciler, önceki zayıf öğrencilerin yanlış sınıflandırdığı örneklere daha çok odaklanır.

Paralel öğreniciler ve ağırlıklı veri kümesinden oluşan, artırma algoritmasının arkasındaki sezgiyi sunan bir illüstrasyon.

Pek çok yükseltme algoritması var. Orijinal olanlar, tarafından önerilen Robert Schapire (bir yinelemeli çoğunluk kapısı formülasyonu)[5] ve Yoav Freund (çoğunluk tarafından artırılır),[9] değildi uyarlanabilir ve zayıf öğrenenlerden tam olarak yararlanamadı. Schapire ve Freund daha sonra geliştirdi AdaBoost, prestijli olanı kazanan uyarlanabilir bir güçlendirme algoritması Gödel Ödülü.

Yalnızca kanıtlanabilir algoritmaları güçlendiren algoritmalar muhtemelen yaklaşık olarak doğru öğrenme formülasyon doğru bir şekilde çağrılabilir artırma algoritmaları. Özde benzer olan diğer algoritmalar[açıklama gerekli ] artırma algoritmaları bazen "kaldıraç algoritmaları" olarak adlandırılır, ancak bazen yanlış olarak artırma algoritmaları olarak da adlandırılırlar.[9]

Birçok artırma algoritması arasındaki ana varyasyon, ağırlıklandırma Eğitim verileri puan ve hipotezler. AdaBoost zayıf öğrenenlere uyum sağlayabilen ilk algoritma olduğu için çok popüler ve tarihsel olarak en önemlisidir. Genellikle, üniversite makine öğrenimi kurslarında hız artırmanın giriş kapsamının temelini oluşturur.[10] Gibi daha birçok yeni algoritma var LPBoost TotalBoost, BrownBoost, xgboost, MadaBoost, LogitBoost, ve diğerleri. Birçok artırma algoritması AnyBoost çerçevesine uyar,[9] bu, artırmanın performans gösterdiğini dereceli alçalma içinde işlev alanı kullanarak dışbükey maliyet fonksiyonu.

Bilgisayarla görmede nesne kategorizasyonu

Dünyadaki çeşitli bilinen nesneleri içeren görüntüler verildiğinde, bunlardan otomatik olarak bir sınıflandırıcı öğrenilebilir. sınıflandırmak gelecekteki görüntülerde nesneler. Bazılarına göre oluşturulmuş basit sınıflandırıcılar görüntü özelliği Nesnenin% 100'ü, sınıflandırma performansında zayıf olma eğilimindedir. Nesne kategorizasyonu için güçlendirme yöntemlerini kullanmak, genel sınıflandırma yeteneğini artırmak için zayıf sınıflandırıcıları özel bir şekilde birleştirmenin bir yoludur.

Nesne kategorizasyonu sorunu

Nesne kategorizasyonu tipik bir görevdir Bilgisayar görüşü bu, bir görüntünün belirli bir nesne kategorisi içerip içermediğini belirlemeyi içerir. Fikir, tanıma, tanımlama ve saptama ile yakından ilgilidir. Görünüme dayalı nesne kategorizasyonu tipik olarak şunları içerir: özellik çıkarma, öğrenme a sınıflandırıcı ve sınıflandırıcıyı yeni örneklere uygulama. Bir nesne kategorisini temsil etmenin birçok yolu vardır, örn. itibaren şekil analizi, kelime çantası modelleri veya yerel tanımlayıcılar, örneğin ELE vb. örnekleri denetimli sınıflandırıcılar vardır Naive Bayes sınıflandırıcılar, Vektör makineleri desteklemek, Gaussluların karışımları, ve nöral ağlar. Ancak, araştırma[hangi? ] resimlerdeki nesne kategorilerinin ve konumlarının bir denetimsiz tavır yanı sıra.[11]

Nesne kategorizasyonu için durum

Görüntülerde nesne kategorilerinin tanınması, Bilgisayar görüşü, özellikle kategori sayısı fazla olduğunda. Bunun nedeni, yüksek sınıf içi değişkenlik ve aynı kategorideki nesnelerin varyasyonları arasında genelleme ihtiyacından kaynaklanmaktadır. Bir kategorideki nesneler oldukça farklı görünebilir. Aynı nesne bile farklı bakış açılarından farklı görünebilir, ölçek, ve aydınlatma. Arka plandaki dağınıklık ve kısmi tıkanma da tanımaya zorluklar ekler.[12] İnsanlar binlerce nesne türünü tanıyabilirken, mevcut nesnelerin çoğu nesne tanıma sistemler yalnızca birkaç tanesini tanıyacak şekilde eğitilmiştir,[ölçmek ] Örneğin. insan yüzleri, arabalar, basit nesneler vb.[13][güncellenmesi mi gerekiyor? ] Araştırma, daha fazla kategoriyle başa çıkma ve yeni kategorilerin kademeli olarak eklenmesini sağlama konusunda çok aktif olmuştur ve genel sorun çözülmemiş olsa da, birkaç çok kategorili nesne dedektörü (yüzlerce veya binlerce kategoriye kadar)[14]) geliştirildi. Bir yöntem şudur: özellik paylaşma ve güçlendirme.

İkili kategorizasyon için güçlendirme

AdaBoost, bir örnek olarak yüz algılama için kullanılabilir. ikili kategorizasyon. İki kategori, arka plana karşı yüzlerdir. Genel algoritma aşağıdaki gibidir:

  1. Çok sayıda basit özellik oluşturun
  2. Egzersiz görüntüleri için ağırlıkları başlatın
  3. T turları için
    1. Ağırlıkları normalleştirin
    2. Setteki mevcut özellikler için, tek bir özelliği kullanarak bir sınıflandırıcı eğitin ve eğitim hatasını değerlendirin
    3. En düşük hataya sahip sınıflandırıcıyı seçin
    4. Egzersiz görüntülerinin ağırlıklarını güncelleyin: bu sınıflandırıcı tarafından yanlış sınıflandırılırsa artırın, doğru ise azaltın
  4. T sınıflandırıcılarının doğrusal kombinasyonu olarak son güçlü sınıflandırıcıyı oluşturun (eğitim hatası küçükse katsayı daha büyüktür)

Arttırmadan sonra, 200 özellikten oluşan bir sınıflandırıcı, bir yanlış pozitif oranı.[15]

İkili kategorizasyon için bir başka güçlendirme uygulaması, kullanan yayaları algılayan bir sistemdir. desenler hareket ve görünüm.[16] Bu çalışma, yürüyen bir kişiyi algılamak için hem hareket bilgisini hem de görünüm bilgisini özellikler olarak birleştiren ilk çalışma. Benzer bir yaklaşım gerektirir Viola-Jones nesne algılama çerçevesi.

Çok sınıflı kategorizasyon için güçlendirme

İkili kategorizasyon ile karşılaştırıldığında, çok sınıflı kategorizasyon kategoriler arasında aynı anda paylaşılabilecek ortak özellikleri arar. Daha genel olmaya dönüyorlar kenar özellikler gibi. Öğrenme sırasında her kategori için dedektörler ortaklaşa eğitilebilir. Ayrı ayrı eğitimle karşılaştırıldığında, genelleştirir daha iyi, daha az eğitim verisi gerektirir ve aynı performansı elde etmek için daha az özellik gerektirir.

Algoritmanın ana akışı ikili duruma benzer. Farklı olan, ortak eğitim hatası için bir ölçü önceden tanımlanacak olmasıdır. Her yineleme sırasında, algoritma tek bir özelliğin sınıflandırıcısını seçer (daha fazla kategori tarafından paylaşılabilen özellikler teşvik edilecektir). Bu, çok sınıflı sınıflandırmayı ikili olana dönüştürerek yapılabilir (diğerlerine karşı bir dizi kategori),[17] veya sınıflandırıcı özelliğine sahip olmayan kategorilerden bir ceza hatası getirerek.[18]

"Çok sınıflı ve çoklu görüntülü nesne tespiti için görsel özellikleri paylaşma" başlıklı makalede, A. Torralba ve ark. Kullanılmış GentleBoost güçlendirmek için ve eğitim verileri sınırlı olduğunda, özellikleri paylaşarak öğrenmenin paylaşmamaktan çok daha iyi bir iş çıkardığını gösterdi. Ayrıca, belirli bir performans seviyesi için, özellik paylaşım dedektörleri için gereken toplam özellik sayısının (ve dolayısıyla sınıflandırıcının çalışma süresi maliyetinin) yaklaşık olarak ölçeklendiği gözlemlenir. logaritmik olarak sınıf sayısıyla, yani daha yavaş doğrusal paylaşmama durumunda büyüme. Benzer sonuçlar, "Görsel bir şekil alfabesi kullanarak nesne dedektörlerinin artan öğrenimi" başlıklı makalede gösterilmektedir, ancak yazarlar AdaBoost artırmak için.

Dışbükey ve Dışbükey Olmayan Güçlendirme Algoritmaları

Yükseltme algoritmaları temel alabilir dışbükey veya dışbükey olmayan optimizasyon algoritmaları. Dışbükey algoritmalar, örneğin AdaBoost ve LogitBoost zayıf hipotezlerin temel ve öğrenilebilir kombinasyonlarını öğrenemeyecek şekilde rastgele gürültüyle "yenilebilir".[19][20] Bu sınırlama, Long & Servedio tarafından 2008'de belirtilmiştir. Bununla birlikte, 2009'a kadar, birden çok yazar, algoritmaların dışbükey olmayan optimizasyona dayalı olarak güçlendirildiğini göstermiştir. BrownBoost, gürültülü veri kümelerinden öğrenebilir ve özellikle Long – Servedio veri kümesinin temelindeki sınıflandırıcıyı öğrenebilir.

Ayrıca bakınız

Uygulamalar

  • Scikit-öğrenme için açık kaynak bir makine öğrenimi kitaplığı piton
  • turuncu, ücretsiz bir veri madenciliği yazılım paketi, modül Orange.ensemble
  • Weka AdaBoost ve LogitBoost gibi artırma algoritmalarının çeşitli uygulamalarını sunan bir makine öğrenimi araçları setidir
  • R paket GBM (Genelleştirilmiş Boosted Regresyon Modelleri), Freund ve Schapire'ın AdaBoost algoritmasına ve Friedman'ın gradyan artırma makinesine uzantılar uygular.
  • jboost; AdaBoost, LogitBoost, RobustBoost, Boostexter ve alternatif karar ağaçları
  • R paketi adabag: Multiclass AdaBoost.M1, AdaBoost-SAMME ve Torbalama uygular
  • R paketi xgboost: Doğrusal ve ağaç tabanlı modeller için bir gradyan artırma uygulaması.

Notlar

  1. ^ Bazı artırma tabanlı sınıflandırma algoritmaları aslında tekrar tekrar yanlış sınıflandırılan örneklerin ağırlığını azaltır; örneğin çoğunluk tarafından artırmak ve BrownBoost.

Referanslar

  1. ^ Leo Breiman (1996). "ÖNYLÜĞÜ, DEĞİŞİKLİK VE YAYIN SINIFLANDIRICILARI" (PDF). TEKNİK RAPOR. Arşivlenen orijinal (PDF) 2015-01-19 tarihinde. Alındı 19 Ocak 2015. Arcing [Boosting], varyans azaltmada torbalamadan daha başarılıdır
  2. ^ Zhou Zhi-Hua (2012). Topluluk Yöntemleri: Temeller ve Algoritmalar. Chapman ve Hall / CRC. s. 23. ISBN  978-1439830031. Güçlendirme terimi, zayıf öğrencileri güçlü öğrenenlere dönüştürebilen bir algoritma ailesini ifade eder.
  3. ^ a b Michael Kearns (1988); Hipotez Güçlendirme Üzerine Düşünceler, Yayınlanmamış el yazması (Machine Learning sınıf projesi, Aralık 1988)
  4. ^ Michael Kearns; Leslie Valiant (1989). Kritografik [sic] Boole formüllerini ve sonlu otomatayı öğrenmedeki sınırlamalar. Bilgisayar Teorisi Sempozyumu. 21. ACM. s. 433–444. doi:10.1145/73007.73049. ISBN  978-0897913072.
  5. ^ a b Schapire, Robert E. (1990). "Zayıf Öğrenilebilirliğin Gücü" (PDF). Makine öğrenme. 5 (2): 197–227. CiteSeerX  10.1.1.20.723. doi:10.1007 / bf00116037. Arşivlenen orijinal (PDF) 2012-10-10 tarihinde. Alındı 2012-08-23.
  6. ^ Leo Breiman (1998). "Arcing sınıflandırıcı (tartışma ve yazar tarafından bir yanıtla)". Ann. İstatistik. 26 (3): 801–849. doi:10.1214 / aos / 1024691079. Schapire (1990), artırmanın mümkün olduğunu kanıtladı. (Sayfa 823)
  7. ^ Yoav Freund ve Robert E. Schapire (1997); Çevrimiçi Öğrenmenin Karar-Teorik Genellemesi ve Arttırmaya Yönelik Bir Uygulama, Bilgisayar ve Sistem Bilimleri Dergisi, 55 (1): 119-139
  8. ^ Leo Breiman (1998); Arcing Sınıflandırıcı (Tartışma ve Yazarın Cevabı ile), İstatistik Yıllıkları, cilt. 26, hayır. 3, s. 801-849: "Zayıf öğrenme kavramı, zayıf ve güçlü öğrenilebilirliğin eşdeğer olup olmadığı sorusunu açık bırakan Kearns ve Valiant (1988, 1989) tarafından tanıtıldı. Soru, artırıcı sorun çünkü [bir çözüm, zayıf bir öğrencinin düşük doğruluğunu güçlü bir öğrencinin yüksek doğruluğuna yükseltmelidir]. Schapire (1990), artırmanın mümkün olduğunu kanıtladı. Bir artırma algoritması zayıf bir öğreneni alan ve onu güçlü bir öğrenene dönüştüren bir yöntemdir. Freund ve Schapire (1997), arc-fs'ye benzer bir algoritmanın güçlendiğini kanıtladı.
  9. ^ a b c Llew Mason, Jonathan Baxter, Peter Bartlett ve Marcus Frean (2000); Gradyan İnişi Olarak Algoritmaları GüçlendirmeS. A. Solla, T. K. Leen ve K.-R. Muller, editörler, Sinirsel Bilgi İşleme Sistemlerindeki Gelişmeler 12, s. 512-518, MIT Press
  10. ^ Emer, Eric. "Artırma (AdaBoost algoritması)" (PDF). MIT. Alındı 2018-10-10.
  11. ^ Sivic, Russell, Efros, Freeman & Zisserman, "Nesneleri ve görüntülerdeki yerlerini keşfetme", ICCV 2005
  12. ^ A. Opelt, A. Pinz, ve diğerleri, "Artırma ile Genel Nesne Tanıma", PAMI 2006'da IEEE İşlemleri
  13. ^ M. Marszalek, "Görsel Nesne Tanıma için Anlamsal Hiyerarşiler", 2007
  14. ^ "Büyük Ölçekli Görsel Tanıma Meydan Okuması". Aralık 2017.
  15. ^ P. Viola, M. Jones, "Sağlam Gerçek Zamanlı Nesne Algılama", 2001
  16. ^ Viola, P .; Jones, M .; Kar, D. (2003). Hareket ve Görünüm Modellerini Kullanarak Yayaları Algılama (PDF). ICCV.
  17. ^ A. Torralba, K. P. Murphy, et al., "Çok sınıflı ve çok görüntülü nesne algılama için görsel özelliklerin paylaşılması", PAMI 2006'da IEEE İşlemleri
  18. ^ A. Opelt, et al., "Görsel bir şekil alfabesi kullanarak nesne dedektörlerinin artımlı öğrenimi", CVPR 2006
  19. ^ P. Long ve R. Servedio. 25. Uluslararası Makine Öğrenimi Konferansı (ICML), 2008, s. 608–615.
  20. ^ Uzun, Philip M .; Servedio, Rocco A. (Mart 2010). "Rastgele sınıflandırma gürültüsü, tüm dışbükey potansiyel güçlendiricileri yener" (PDF). Makine öğrenme. 78 (3): 287–304. doi:10.1007 / s10994-009-5165-z. Alındı 2015-11-17.

daha fazla okuma

Dış bağlantılar