Yarı denetimli öğrenme - Semi-supervised learning

Yarı denetimli öğrenmede etiketlenmemiş verilerin etkisine bir örnek. Üst panel, yalnızca bir pozitif (beyaz daire) ve bir negatif (siyah daire) örneği gördükten sonra benimseyebileceğimiz bir karar sınırını gösterir. Alt panel, etiketli iki örneğe ek olarak, bize etiketlenmemiş verilerden (gri daireler) oluşan bir koleksiyon verildiğinde benimseyebileceğimiz bir karar sınırını gösterir. Bu performans olarak görülebilir kümeleme ve ardından kümeleri etiketli verilerle etiketlemek, karar sınırını yüksek yoğunluklu bölgelerden uzaklaştırmak veya verilerin bulunduğu temeldeki tek boyutlu bir manifoldu öğrenmek.

Yarı denetimli öğrenme bir yaklaşımdır makine öğrenme küçük bir miktarı birleştiren etiketli veriler eğitim sırasında büyük miktarda etiketlenmemiş veri ile. Yarı denetimli öğrenme, denetimsiz öğrenme (etiketli eğitim verisi olmadan) ve denetimli öğrenme (yalnızca etiketli eğitim verileriyle).

Etiketlenmemiş veriler, az miktarda etiketli veri ile birlikte kullanıldığında, öğrenme doğruluğunda önemli bir gelişme sağlayabilir. Bir öğrenme problemi için etiketlenmiş verilerin elde edilmesi, genellikle uzman bir insan aracı (örneğin, bir işitsel bölümü kopyalamak için) veya fiziksel bir deney (örneğin, bir proteinin 3B yapısının belirlenmesi veya belirli bir konumda yağ olup olmadığının belirlenmesi) gerektirir. Etiketleme süreciyle ilişkili maliyet bu nedenle büyük, tam olarak etiketlenmiş eğitim setlerini olanaksız hale getirebilirken, etiketlenmemiş verilerin edinilmesi nispeten ucuzdur. Bu gibi durumlarda, yarı denetimli öğrenme büyük pratik değer taşıyabilir. Yarı denetimli öğrenme, makine öğrenimine teorik olarak ilgi duyuyor ve insan öğrenimi için bir model olarak.

Bir dizi bağımsız olarak aynı şekilde dağıtılmış örnekler ilgili etiketlerle ve etiketsiz örnekler işlem görüyor. Yarı denetimli öğrenme, bu bilgileri birleştirerek sınıflandırma etiketlenmemiş verileri atarak ve denetimli öğrenme yaparak veya etiketleri atarak ve denetimsiz öğrenme yaparak elde edilebilecek performans.

Yarı denetimli öğrenme şunlardan birine atıfta bulunabilir: transdüktif öğrenme veya endüktif öğrenme.[1] Dönüştürücü öğrenmenin amacı, verilen etiketlenmemiş veriler için doğru etiketleri çıkarmaktır. sadece. Tümevarımlı öğrenmenin amacı, doğru haritalamayı aşağıdaki sonuçlardan çıkarmaktır: -e .

Sezgisel olarak, öğrenme problemi bir sınav olarak görülebilir ve veriler, başka bir problem setini çözmede yardımcı olarak öğretmenin sınıf için çözdüğü örnek problemler olarak etiketlenebilir. Dönüştürücü ortamda, bu çözülmemiş sorunlar sınav soruları olarak işlev görür. Endüktif ortamda, sınavı oluşturacak türden pratik problemler haline gelirler.

Gereksizdir (ve göre Vapnik ilkesi, tedbirsiz) tüm girdi alanı üzerinde bir sınıflandırma kuralı çıkararak transdüktif öğrenmeyi gerçekleştirmek; ancak pratikte, transdüksiyon veya indüksiyon için resmi olarak tasarlanmış algoritmalar genellikle birbirinin yerine kullanılır.

Varsayımlar

Etiketlenmemiş verilerin herhangi bir şekilde kullanılabilmesi için, verilerin temeldeki dağıtımıyla bir miktar ilişki olması gerekir. Yarı denetimli öğrenme algoritmaları aşağıdaki varsayımlardan en az birini kullanır:[2]

Süreklilik varsayımı

Birbirine yakın noktaların bir etiketi paylaşma olasılığı daha yüksektir. Bu aynı zamanda genellikle denetimli öğrenmede varsayılır ve geometrik olarak basit bir tercih sağlar. karar sınırları. Yarı denetimli öğrenme durumunda, pürüzsüzlük varsayımı ayrıca düşük yoğunluklu bölgelerde karar sınırları için bir tercih sağlar, bu nedenle birkaç nokta birbirine yakın ancak farklı sınıflardadır.

Küme varsayımı

Veriler ayrı kümeler oluşturma eğilimindedir ve aynı kümedeki noktaların bir etiketi paylaşma olasılığı daha yüksektir (bir etiketi paylaşan veriler birden çok kümeye yayılabilse de). Bu, düzgünlük varsayımının özel bir durumudur ve özellik öğrenme kümeleme algoritmaları ile.

Manifold varsayımı

Veriler yaklaşık olarak bir manifold girdi alanından çok daha düşük boyutta. Bu durumda, hem etiketli hem de etiketsiz verileri kullanarak manifoldu öğrenmek, boyutluluk laneti. Daha sonra öğrenme, manifold üzerinde tanımlanan mesafeleri ve yoğunlukları kullanarak devam edebilir.

Manifold varsayımı, yüksek boyutlu veriler, doğrudan modellemesi zor olabilecek, ancak yalnızca birkaç serbestlik derecesine sahip bazı işlemlerle üretildiğinde pratiktir. Örneğin, insan sesi birkaç ses kıvrımı tarafından kontrol edilir,[3] ve çeşitli yüz ifadelerinin görüntüleri birkaç kas tarafından kontrol edilir. Bu durumlarda, üretim probleminin doğal uzayındaki mesafeler ve pürüzsüzlük, sırasıyla tüm olası akustik dalgaların veya görüntülerin uzayını dikkate almaktan daha üstündür.

Tarih

Sezgisel yaklaşım kendi kendine eğitim (Ayrıca şöyle bilinir kendi kendine öğrenme veya kendi kendini etiketleme) tarihsel olarak yarı denetimli öğrenmeye yönelik en eski yaklaşımdır,[2] 1960'larda başlayan uygulama örnekleri ile.[4]

Dönüştürücü öğrenme çerçevesi resmi olarak Vladimir Vapnik 1970 lerde.[5] Üretken modelleri kullanan tümevarımlı öğrenmeye ilgi de 1970'lerde başladı. Bir muhtemelen yaklaşık olarak doğru öğrenme yarı denetimli öğrenimine bağlı Gauss karışım 1995 yılında Ratsaby ve Venkatesh tarafından gösterildi.[6]

Yarı denetimli öğrenme, büyük miktarda etiketlenmemiş verinin mevcut olduğu çeşitli problemler nedeniyle son zamanlarda daha popüler ve pratik olarak alakalı hale geldi - ör. web siteleri, protein dizileri veya resimlerdeki metinler.[7]

Yöntemler

Üretken modeller

İstatistiksel öğrenmeye yönelik üretken yaklaşımlar önce tahmin etmeye çalışır ,[tartışmalı ] her sınıfa ait veri noktalarının dağılımı. Olasılık bu belirli bir nokta etiketi var daha sonra orantılıdır tarafından Bayes kuralı. Yarı denetimli öğrenme üretken modeller denetimli öğrenmenin bir uzantısı olarak görülebilir (sınıflandırma artı ) veya denetimsiz öğrenmenin bir uzantısı olarak (kümeleme ve bazı etiketler).

Üretken modeller, dağıtımların belirli bir biçim aldığını varsayar vektör tarafından parametrelendirilmiş . Bu varsayımlar yanlışsa, etiketlenmemiş veriler, yalnızca etiketli verilerden elde edilenlere göre çözümün doğruluğunu gerçekten azaltabilir.[8] Bununla birlikte, varsayımlar doğruysa, etiketlenmemiş veriler mutlaka performansı artırır.[6]

Etiketsiz veriler, bireysel sınıf dağılımlarının bir karışımına göre dağıtılır. Karışım dağılımının etiketlenmemiş verilerden öğrenilebilmesi için tanımlanabilir olması, yani farklı parametrelerin farklı toplamlı dağılımlar vermesi gerekir. Gauss karışım dağılımları belirlenebilir ve genel olarak üretici modeller için kullanılır.

Parametreli ortak dağıtım olarak yazılabilir kullanarak zincir kuralı. Her parametre vektörü bir karar işleviyle ilişkilidir . Parametre daha sonra hem etiketli hem de etiketlenmemiş verilere uygunluğa göre seçilir. :

[9]

Düşük yoğunluklu ayırma

Başka bir ana yöntem sınıfı, birkaç veri noktası (etiketli veya etiketsiz) olan bölgelere sınırlar koymaya çalışır. En yaygın kullanılan algoritmalardan biri, transdüktif destek vektör makinesi veya TSVM (ismine rağmen endüktif öğrenme için de kullanılabilir). Buna karşılık Vektör makineleri desteklemek denetimli öğrenme için maksimal ile bir karar sınırı arayın marj etiketli veriler üzerinde, TSVM'nin amacı, etiketlenmemiş verilerin, karar sınırının tüm veriler üzerinde maksimum marjı olacak şekilde etiketlenmesidir. Standarda ek olarak menteşe kaybı etiketli veriler için bir kayıp işlevi etiketlenmemiş veriler üzerine, . TSVM daha sonra bir çekirdek Hilbert uzayını yeniden üretmek en aza indirerek Düzenlenmiş ampirik risk:

Olmaması nedeniyle kesin bir çözüm inatçıdır.dışbükey dönem , bu nedenle araştırma yararlı tahminlere odaklanır.[9]

Düşük yoğunluklu ayırmayı uygulayan diğer yaklaşımlar arasında Gauss süreci modelleri, bilgi düzenlileştirme ve entropi minimizasyonu (TSVM özel bir durumdur) bulunur.

Grafik tabanlı yöntemler

Yarı denetimli öğrenmeye yönelik grafik tabanlı yöntemler, her etiketli ve etiketsiz örnek için bir düğümle verilerin grafik gösterimini kullanır. Grafik, alan bilgisi veya örneklerin benzerliği kullanılarak oluşturulabilir; iki yaygın yöntem, her veri noktasını kendi en yakın komşular veya belli bir mesafedeki örneklere . Ağırlık arasında bir kenarın ve daha sonra .

Çerçevesinde manifold düzenlenmesi,[10][11] grafik, manifold için bir vekil görevi görür. Standarda bir terim eklenir Tikhonov düzenlenmesi çözümün manifolda göre (problemin iç uzayında) ve aynı zamanda ortam girdi uzayına göre düzgünlüğünü uygulama problemi. Minimizasyon sorunu şu hale gelir:

[9]

nerede üreme çekirdeğidir Hilbert uzayı ve verinin üzerinde bulunduğu manifolddur. Düzenlilik parametreleri ve sırasıyla ortam ve iç boşluklarda düzgünlüğü kontrol eder. Grafik, içsel düzenleme terimine yaklaşmak için kullanılır. Tanımlama grafik Laplacian nerede ve vektör , sahibiz

.

Laplacian, denetimli öğrenme algoritmalarını genişletmek için de kullanılabilir: düzenlenmiş en küçük kareler ve vektör makinelerini (SVM) yarı denetimli versiyonlar için Laplacian düzenlenmiş en küçük kareler ve Laplacian SVM'ye destek.

Sezgisel yaklaşımlar

Yarı denetimli öğrenmeye yönelik bazı yöntemler, özünde hem etiketlenmemiş hem de etiketlenmiş verilerden öğrenmeye yönelik değildir, bunun yerine denetimli bir öğrenme çerçevesi içinde etiketlenmemiş verileri kullanır. Örneğin, etiketli ve etiketsiz örnekler bir temsil seçimi hakkında bilgi verebilir, mesafe ölçüsü veya çekirdek veriler için denetimsiz bir ilk adımda. Daha sonra denetimli öğrenme yalnızca etiketli örneklerden devam eder.

Kendi kendine eğitim yarı denetimli öğrenme için bir sarmalayıcı yöntemidir.[12] İlk olarak, yalnızca etiketli verilere dayalı olarak denetimli bir öğrenme algoritması eğitilir. Bu sınıflandırıcı daha sonra, denetlenen öğrenme algoritması için girdi olarak daha fazla etiketli örnek oluşturmak için etiketlenmemiş verilere uygulanır. Genellikle her adımda yalnızca sınıflandırıcının en güvendiği etiketler eklenir.[13]

Ortak eğitim birden çok sınıflandırıcının farklı (ideal olarak ayrık) özellik kümeleri üzerinde eğitildiği ve birbirleri için etiketli örnekler ürettiği kendi kendine eğitimin bir uzantısıdır.[14]

İnsan bilişinde

Resmi yarı denetimli öğrenme problemlerine verilen insan tepkileri, etiketlenmemiş verilerin etki derecesi hakkında çeşitli sonuçlar vermiştir.[15] Daha doğal öğrenme sorunları, yarı denetimli öğrenmenin örnekleri olarak da görülebilir. Çoğu insan kavram öğrenme büyük miktarlarda etiketlenmemiş deneyimle (örneğin nesnelerin isimlendirilmeden veya sayılmadan veya en azından geri bildirim olmaksızın gözlemlenmesi) birlikte az miktarda doğrudan talimat (örneğin, çocukluk döneminde nesnelerin ebeveyn etiketlenmesi) içerir.

İnsan bebekleri, köpeklerin ve kedilerin veya erkek ve dişi yüzlerin görüntüleri gibi etiketlenmemiş doğal kategorilerin yapısına duyarlıdır.[16] Bebekler ve çocuklar yalnızca etiketlenmemiş örnekleri değil, aynı zamanda örnekleme etiketli örneklerin ortaya çıktığı süreç.[17][18]

Ayrıca bakınız

Referanslar

  1. ^ "Yarı Denetimli Öğrenim Literatürü Araştırması, Sayfa 5". 2007. CiteSeerX  10.1.1.99.9681. Alıntı dergisi gerektirir | günlük = (Yardım)
  2. ^ a b Chapelle, Schölkopf ve Zienin 2006.
  3. ^ Stevens, Kenneth N., 1924- (1998). Akustik fonetik. Cambridge, Mass .: MIT Press. ISBN  0-585-08720-2. OCLC  42856189.CS1 bakım: birden çok isim: yazarlar listesi (bağlantı)
  4. ^ Scudder, H. (Temmuz 1965). "Bazı uyarlanabilir örüntü tanıma makinelerinde hata olasılığı". Bilgi Teorisi Üzerine IEEE İşlemleri. 11 (3): 363–371. doi:10.1109 / TIT.1965.1053799. ISSN  1557-9654.
  5. ^ Vapnik, V .; Chervonenkis, A. (1974). Örüntü Tanıma Teorisi (Rusça). Moskova: Nauka. Atıf Chapelle, Schölkopf ve Zienin 2006, s. 3
  6. ^ a b Ratsaby, J .; Venkatesh, S. "Parametrik yan bilgilerle etiketli ve etiketlenmemiş örneklerin karışımından öğrenme" (PDF). içinde Hesaplamalı öğrenme teorisi üzerine sekizinci yıllık konferansın bildirileri - COLT '95. New York, New York, ABD: ACM Press. 1995. sayfa 412–417. doi:10.1145/225298.225348. ISBN  0-89791-723-5.. Atıf Chapelle, Schölkopf ve Zienin 2006, s. 4
  7. ^ Zhu, Xiaojin (2008). "Yarı denetimli öğrenim literatürü anketi" (PDF). Wisconsin-Madison Üniversitesi.
  8. ^ Fabio, Cozman; Ira, Cohen (2006-09-22), "Yarı Denetimli Öğrenmenin Riskleri: Etiketlenmemiş Veriler Üretken Sınıflandırıcıların Performansını Nasıl Düşürür?", Yarı Denetimli Öğrenim, The MIT Press, s. 56–72, doi:10.7551 / mitpress / 9780262033589.003.0004, ISBN  978-0-262-03358-9 İçinde: Chapelle, Schölkopf ve Zienin 2006
  9. ^ a b c Zhu, Xiaojin. Yarı Denetimli Öğrenim Wisconsin-Madison Üniversitesi.
  10. ^ M. Belkin; P. Niyogi (2004). "Riemann Manifoldlarında Yarı Denetimli Öğrenme". Makine öğrenme. 56 (Kümeleme Özel Sayısı): 209–239. doi:10.1023 / b: mach.0000033120.25363.1e.
  11. ^ M. Belkin, P. Niyogi, V. Sindhwani. Manifold Düzenlemede. AISTATS 2005.
  12. ^ Triguero, Isaac; Garcia, Salvador; Herrera, Francisco (2013-11-26). "Yarı denetimli öğrenme için kendinden etiketli teknikler: taksonomi, yazılım ve deneysel çalışma". Bilgi ve Bilgi Sistemleri. 42 (2): 245–284. doi:10.1007 / s10115-013-0706-y. ISSN  0219-1377.
  13. ^ Fazakis, Nikos; Karlos, Stamatis; Kotsiantis, Sotiris; Sgarbas, Kyriakos (2015-12-29). "Yarı Denetimli Öğrenim için Kendi Kendini Eğiten LMT". Hesaplamalı Zeka ve Sinirbilim. 2016: 3057481. doi:10.1155/2016/3057481. PMC  4709606. PMID  26839531.
  14. ^ Didaci, Luca; Fumera, Giorgio; Roli, Fabio (2012-11-07). Gimel'farb, Georgy; Hancock, Edwin; Imiya, Atsushi; Kuijper, Arjan; Kudo, Mineichi; Omachi, Shinichiro; Windeatt, Terry; Yamada, Keiji (editörler). Çok Küçük Eğitim Setleriyle Ortak Eğitim Algoritmasının Analizi. Bilgisayar Bilimlerinde Ders Notları. Springer Berlin Heidelberg. s. 719–726. doi:10.1007/978-3-642-34166-3_79. ISBN  9783642341656.
  15. ^ Zhu, Xiaojin (2009). Yarı denetimli öğrenmeye giriş. Goldberg, A.B. (Andrew B.). [San Rafael, Kaliforniya]: Morgan & Claypool Yayıncıları. ISBN  978-1-59829-548-1. OCLC  428541480.
  16. ^ Younger B. A .; D.D'den korkmak (1999). "Öğeleri Ayrı Kategorilere Ayrıştırma: Bebek Kategorizasyonunda Gelişimsel Değişim". Çocuk Gelişimi. 70 (2): 291–303. doi:10.1111/1467-8624.00022.
  17. ^ Xu, F. ve Tenenbaum, J. B. (2007). "Bayesci kelime öğrenmede örneklemeye duyarlılık". Gelişim Bilimi. 10 (3): 288–297. CiteSeerX  10.1.1.141.7505. doi:10.1111 / j.1467-7687.2007.00590.x. PMID  17444970.
  18. ^ Gweon, H., Tenenbaum J.B. ve Schulz L.E (2010). "Bebekler, endüktif genellemede hem örneği hem de örnekleme sürecini dikkate alırlar". Proc Natl Acad Sci U S A. 107 (20): 9066–71. Bibcode:2010PNAS..107.9066G. doi:10.1073 / pnas.1003095107. PMC  2889113. PMID  20435914.CS1 bakım: birden çok isim: yazarlar listesi (bağlantı)

Kaynaklar

  • Chapelle, Olivier; Schölkopf, Bernhard; Zien, İskender (2006). Yarı denetimli öğrenme. Cambridge, Mass .: MIT Press. ISBN  978-0-262-03358-9.

Dış bağlantılar