Kahverengi kümeleme - Brown clustering

Kahverengi kümeleme zor hiyerarşik aglomeratif kümeleme Peter Brown, William A. Brown, Vincent Della Pietra tarafından önerilen dağıtım bilgisine dayalı problem, Peter V. de Souza, Jennifer Lai ve Robert Mercer.[1] Tipik olarak metne uygulanır, kelimeleri benzer bağlamlara gömülmüş olmaları nedeniyle anlamsal olarak ilişkili olduğu varsayılan kümeler halinde gruplandırır.

Giriş

İçinde doğal dil işleme, Kahverengi kümeleme[2] veya IBM kümeleme[3] bir biçimdir hiyerarşik kümeleme Peter Brown, William A.Brown, Vincent Della Pietra, Peter de Souza, Jennifer Lai tarafından önerilen, içinde bulundukları bağlamlara dayanan kelimelerin Robert Mercer nın-nin IBM bağlamında dil modelleme.[1] Yöntemin arkasındaki sezgi şudur: sınıfa dayalı dil modeli (olarak da adlandırılır küme n-gram modeli[3]), yani kelimelerin olasılıklarının önceki kelimelerin sınıflarına (kümelerine) dayandığı bir kelime, Veri seyrekliği dil modellemesinin doğasında olan problem.

Jurafsky ve Martin bir örnek verir uçuş rezervasyon sistemi tahmin etmesi gereken olasılık Bigram'ın "Şangay'a" olduğunu, bunu bir eğitim setinde görmeden.[3] Sistem, "Şangay" ı diğer şehir isimleriyle birleştirebilirse iyi bir tahmin elde edebilir ve ardından "Londra'ya", "Pekin'e" ve "Denver'a" gibi ifadelerin olasılığına dayalı olarak tahminini yapabilir.

Teknik tanım

Kahverengi, öğeleri gruplar (ör. türleri ) dayalı bir ikili birleştirme kriteri kullanarak sınıflara log-olasılık sınıf tabanlı bir dil modeli altındaki bir metnin, yani kümelemeyi hesaba katan bir olasılık modeli. Böylece ortalama karşılıklı bilgi (AMI) optimizasyon işlevidir ve birleştirmeler, küresel ölçekte en az zararı verecek şekilde seçilir. karşılıklı bilgi.

Sonuç olarak, çıktı yalnızca bir ikili ağaç ama belki de tüm kelimelerin büyük bir sınıfıyla sona eren bir dizi birleştirme olarak daha yararlıdır. Bu model, bir gizli Markov modeli, Brown'un problem çözümünde bigram olasılıklarına indirgenmiştir. MI şöyle tanımlanır:

Veri olasılığını en üst düzeye çıkaran kümelemeyi bulmak, hesaplama açısından pahalıdır. Brown ve diğerleri tarafından önerilen yaklaşım. bir açgözlü sezgisel.

Çalışma ayrıca Brown kümelerinin basit bir bigram sınıf tabanlı dil modeli olarak kullanılmasını önermektedir. Verilen küme üyeliği göstergeleri cben jetonlar için wben bir metinde, kelime örneğinin olasılığı wben önceki kelime wi-1 tarafından verilir:[3]

Bu eleştirildi[kaynak belirtilmeli ] herhangi bir sınıfta yalnızca en yaygın kelimeyi tahmin ettiğinden ve bu nedenle sınırlı bir faydaya sahip olduğu için | c | kelime türleri; Bu, Brown ve bu modeli kullanırken bulunan şaşkınlıktaki görece düşük azalmada yansıtılmaktadır.

Varyasyonlar

Diğer çalışmalar, Brown kümeleme problemine yaklaşımlarında trigramları incelemiştir.[4]

Kahverengi kümeleme önerildiği gibi sabit sayıda çıktı sınıfı üretir. Göreve bağlı olan doğru sınıf sayısını seçmek önemlidir.[5] Brown kümelemesinden kaynaklanan kelimelerin küme üyelikleri, çeşitli makine öğrenimli doğal dil işleme görevleri.[2]

Algoritmanın bir genellemesi, 1992 versiyonunun kısa ve öz bir resmi tanımını ve ardından genel formu içeren 2016'daki AAAI konferansında yayınlandı.[6] Bunun özü, birleştirme için düşünülen sınıfların nihai çıktı sayısını temsil etmediği ve birleştirme için düşünülen sınıfların sayısının değiştirilmesinin nihai sonucun hızını ve kalitesini doğrudan etkilediği kavramıdır.

Brown ve diğerleri tarafından önerilen açgözlü buluşsal yöntem hakkında bilinen hiçbir teorik garanti yoktur. (Şubat 2018 itibariyle). Bununla birlikte, kümeleme problemi, temelde yatan sınıf temelli dil modelinin parametrelerini tahmin etmek olarak çerçevelendirilebilir: hafif varsayımlar altında bu model için tutarlı bir tahminciyi geliştirmek mümkündür.[7]

Ayrıca bakınız

Referanslar

  1. ^ a b Peter F. Brown; Peter V. de Souza; Robert L. Mercer; Vincent J. Della Pietra; Jenifer C. Lai (1992). "Sınıfa dayalı n-doğal dilin gram modelleri " (PDF). Hesaplamalı dilbilimleri. 18 (4).
  2. ^ a b Joseph Turian; Lev Ratinov; Yoshua Bengio (2010). Kelime gösterimleri: yarı denetimli öğrenme için basit ve genel bir yöntem (PDF). Hesaplamalı Dilbilim Derneği'nin 48. Yıllık Toplantısı Bildirileri.
  3. ^ a b c d Daniel Jurafsky; James H. Martin (2009). Konuşma ve Dil İşleme. Pearson Education International. s. 145–146.
  4. ^ Sven Martin; Jorg Liermann; Hermann Ney (1999). "Bigram ve trigram kelime kümeleme için algoritmalar". Konuşma iletişimi. 24 (1): 19–37. CiteSeerX  10.1.1.53.2354. doi:10.1016 / S0167-6393 (97) 00062-9.
  5. ^ Leon Derczynski; Sean Chester; Kenneth S. Bogh (2015). Kahverengi kümenizi ayarlayın, lütfen (PDF). Doğal Dil İşlemede Son Gelişmeler Konferansı Bildirileri.
  6. ^ Leon Derczynski; Sean Chester (2016). Genelleştirilmiş Kahverengi Kümeleme ve Toplayıcı Özellik Oluşturma. Otuzuncu AAAI Yapay Zeka Konferansı Bildirileri.
  7. ^ Karl Stratos; Do-kyum Kim; Michael Collins; Daniel Hsu (2014). Doğal Dilin Sınıf Tabanlı n-gram Modellerini Öğrenmek İçin Spektral Algoritma (PDF). 30. Yapay Zekada Belirsizlik Konferansı Bildirileri.

Dış bağlantılar