Word2vec - Word2vec

Word2vec için bir tekniktir doğal dil işleme. Word2vec algoritması bir sinir ağı kelime ilişkilerini öğrenmek için model metin külliyatı. Böyle bir model eğitildikten sonra, eşanlamlı kısmi bir cümle için kelimeler veya ek kelimeler önerin. Adından da anlaşılacağı gibi, word2vec, her bir farklı kelimeyi, a adı verilen belirli bir sayı listesi ile temsil eder. vektör. Vektörler, basit bir matematiksel fonksiyon ( kosinüs benzerliği vektörler arasında) seviyesini gösterir anlamsal benzerlik bu vektörlerle temsil edilen kelimeler arasında.

Yaklaşmak

Word2vec, bunları üretmek için kullanılan bir grup ilgili modeldir. kelime düğünleri. Bu modeller sığ, iki katmanlı nöral ağlar kelimelerin dilsel bağlamlarını yeniden yapılandırmak için eğitilmiş olanlar. Word2vec, girdi olarak büyük metin külliyatı ve bir vektör alanı, tipik olarak birkaç yüz boyutları, içindeki her benzersiz kelime ile külliyat uzayda karşılık gelen bir vektör atanmaktadır. Kelime vektörleri Korpustaki ortak bağlamları paylaşan sözcükler uzayda birbirine yakın olacak şekilde vektör uzayında konumlandırılmıştır.[1]

Tarih

Word2vec, liderliğindeki bir araştırma ekibi tarafından 2013 yılında oluşturuldu ve yayınlandı Tomas Mikolov -de Google.İki kağıtları[2][3] bilimsel literatürde sırasıyla 17231 ve 21670 kez alıntılanmıştır (Google Scholar, 2 Ağu 2020). Algoritma patentlidir.[4] Diğer araştırmacılar algoritmayı faydalı bir şekilde analiz edip açıkladılar.[5][6] Word2vec algoritması kullanılarak oluşturulan vektörleri gömmek, önceki algoritmalara kıyasla bazı avantajlara sahiptir.[1] gibi gizli anlamsal analiz.

CBOW ve gramları atla

Word2vec, iki model mimarisinden birini kullanarak bir dağıtılmış temsil Kelimelerin: sürekli kelime torbası (CBOW) veya sürekli gram atlama. Sürekli kelime torbası mimarisinde, model mevcut kelimeyi çevreleyen bağlam kelimelerinden oluşan bir pencereden tahmin eder. Bağlam kelimelerinin sırası tahmini etkilemez (kelime torbası Varsayım). Sürekli atlama gram mimarisinde, model çevreleyen bağlam kelimelerinin penceresini tahmin etmek için mevcut kelimeyi kullanır. Skip-gram mimarisi, yakındaki bağlam sözcüklerini daha uzak bağlam sözcüklerinden daha ağır bir şekilde tartar.[1][7] Yazarların notuna göre,[8] CBOW daha hızlıdır, gram atlama daha yavaştır ancak seyrek sözcükler için daha iyi bir iş çıkarır.

Parametrizasyon

Word2vec eğitiminin sonuçları hassas olabilir parametrelendirme. Aşağıdaki word2vec eğitiminde bazı önemli parametrelerdir.

Eğitim algoritması

Bir Word2vec modeli hiyerarşik olarak eğitilebilir softmax ve / veya negatif örnekleme. Yaklaşık olarak koşullu günlük olabilirlik bir model maksimize etmeye çalışır, hiyerarşik softmax yöntemi bir Huffman ağacı hesaplamayı azaltmak için. Negatif örnekleme yöntemi ise, maksimizasyon problemine, günlük olabilirlik örneklenmiş negatif örnekler. Yazarlara göre, hiyerarşik softmax seyrek kelimelerde daha iyi çalışırken, negatif örnekleme sık kelimelerde daha iyi ve düşük boyutlu vektörlerde daha iyi çalışıyor.[8] Eğitim dönemleri arttıkça, hiyerarşik softmax artık işe yaramaz.[9]

Alt örnekleme

Yüksek frekanslı kelimeler genellikle çok az bilgi sağlar. Belli bir eşiğin üzerinde frekansa sahip sözcükler, eğitim hızını artırmak için alt örnekleme alınabilir.[10]

Boyutluluk

Boyutsallık arttıkça kelime gömme kalitesi de artar. Ancak bir noktaya ulaştıktan sonra, marjinal kazanç azalacaktır.[1] Tipik olarak, vektörlerin boyutluluğu 100 ile 1.000 arasında olacak şekilde ayarlanır.

Bağlam penceresi

Bağlam penceresinin boyutu, verilen sözcüğün bağlam sözcükleri olarak belirli bir sözcükten önce ve sonra kaç sözcüğün dahil edileceğini belirler. Yazarların notuna göre, önerilen değer skip-gram için 10 ve CBOW için 5'tir.[8]

Uzantılar

Tüm belgelerden (tek tek sözcükler yerine) düğünler oluşturmak için bir word2vec uzantısı önerilmiştir.[11] Bu uzantı paragraf2vec veya doc2vec olarak adlandırılır ve C, Python'da uygulanmıştır.[12][13] ve Java / Scala[14] araçları (aşağıya bakın), Java ve Python sürümleri de yeni, görünmeyen belgeler üzerindeki belge yerleştirmelerinin çıkarımını destekler.

Biyoinformatik için kelime vektörleri: BioVectors

N-gram için kelime vektörlerinin bir uzantısı biyolojik diziler (ör. DNA, RNA, ve Proteinler ) için biyoinformatik uygulamalar Asgari ve Mofrad tarafından önerilmiştir.[15] Genel olarak proteinler (amino asit dizileri) için protein vektörleri (ProtVec) ve gen dizileri için gen vektörleri (GeneVec) ile biyolojik dizileri ifade etmek için adlandırılan biyo vektörler (BioVec), bu gösterim makine uygulamalarında yaygın olarak kullanılabilir proteomik ve genomikte öğrenme. Sonuçlar, BioVectors'ın biyolojik dizileri temelde yatan modellerin biyokimyasal ve biyofiziksel yorumları açısından karakterize edebileceğini göstermektedir.[15] Benzer bir varyant olan dna2vec, arasında bir korelasyon olduğunu göstermiştir. Needleman-Wunsch benzerlik puanı ve kosinüs benzerliği dna2vec kelime vektörleri.[16]

Radyoloji için kelime vektörleri: Akıllı Kelime Gömme (IWE)

Yapılandırılmamış radyoloji raporlarının yoğun bir vektör temsilini oluşturmak için kelime vektörlerinin bir uzantısı Banerjee ve diğerleri tarafından önerilmiştir.[17] Word2Vec ile ilgili en büyük zorluklardan biri, bilinmeyen veya kelime dışı (OOV) kelimelerin ve morfolojik olarak benzer kelimelerin nasıl ele alınacağıdır. Bu, özellikle, eşanlamlıların ve ilgili kelimelerin tercih edilen radyolog stiline bağlı olarak kullanılabildiği ve kelimelerin büyük bir külliyatta seyrek olarak kullanıldığı tıp gibi alanlarda bir sorun olabilir. Word2vec modeli daha önce belirli bir sözcükle karşılaşmadıysa, genellikle ideal temsilinden uzak olan rastgele bir vektör kullanmaya zorlanacaktır.

IWE, Word2vec'i anlamsal sözlük haritalama tekniğiyle birleştirerek aşağıdaki ana zorlukların üstesinden gelir: bilgi çıkarma serbest metin anlatım stilinin belirsizliğini, sözcük çeşitlemelerini, metinsel olmayan ve telgrafik aşamaların kullanımını, kelimelerin keyfi sıralanmasını ve sık sık kısaltma ve kısaltmaların ortaya çıkmasını içeren klinik metinlerden. Özellikle ilgi çekici olan, IWE modeli (tek bir kurumsal veri kümesi üzerinde eğitilmiş), yaklaşımın kurumlar arasında iyi genelleştirilebilirliğini gösteren farklı bir kurumsal veri kümesine başarıyla çevrilmiştir.

Petrol ve gaz endüstrisi için Portekizce kelime düğünleri: PetroVec

PetroVec, önceden eğitilmiş bir dizi kelime gömme modelidir. yağ ve gaz özel şirket: Petrolês[18]. Brezilya Portekizcesinde 85 milyondan fazla jeton içeren büyük bir özel petrol ve gaz topluluğu oluşturmak için önde gelen kurumlardan alanla ilgili kapsamlı bir belge koleksiyonu toplandı.

Analiz

Başarılı olmanın nedenleri kelime gömme word2vec çerçevesinde öğrenme yetersiz anlaşılmıştır. Goldberg ve Levy, word2vec objektif işlevinin, benzer bağlamlarda bulunan kelimelerin benzer yerleştirmelere sahip olmasına neden olduğuna işaret etmektedir ( kosinüs benzerliği ) ve bunun J.R. Firth's ile uyumlu olduğuna dikkat edin. dağılım hipotezi. Ancak, bu açıklamanın "çok dalgalı" olduğunu belirtiyorlar ve daha resmi bir açıklamanın tercih edileceğini savunuyorlar.[5]

Levy vd. (2015)[19] word2vec veya benzer yerleştirmelerin aşağı akış görevlerindeki üstün performansının çoğunun modellerin kendiliğinden değil, belirli hiperparametrelerin seçiminden kaynaklandığını gösterin. Bu hiperparametrelerin daha 'geleneksel' yaklaşımlara aktarılması, aşağı akış görevlerinde benzer performanslar sağlar. Arora vd. (2016)[20] word2vec ve ilgili algoritmaları basit bir üretken model loglinear konu modeline dayalı rastgele yürüyüş oluşturma sürecini içeren metin için. Bunu, analojileri çözmek için kullanımları da dahil olmak üzere, kelime düğünlerinin bazı özelliklerini açıklamak için kullanırlar.

Anlamsal ve sözdizimsel ilişkilerin korunması

Kelime gömme yaklaşımı, kelimeler arasında çok sayıda farklı benzerlik derecesini yakalayabilir. Mikolov vd. (2013)[21] anlamsal ve sözdizimsel kalıpların vektör aritmetiği kullanılarak yeniden üretilebileceğini buldu. “Erkek Kardeş olarak Kadına, Kardeş Kızdır” gibi desenler, bu kelimelerin vektör temsilleri üzerindeki cebirsel işlemlerle, “Kardeş” - ”Erkek” + “Kadın” ifadesinin vektör temsilinin en yakın sonucu verecek şekilde üretilebilir. modeldeki "Sister" vektör temsiline. Bu tür ilişkiler, bir dizi anlamsal ilişki (Ülke-Sermaye gibi) ve sözdizimsel ilişkiler (örneğin, şimdiki zaman-geçmiş zaman) için oluşturulabilir.

Bir modelin kalitesini değerlendirmek

Mikolov vd. (2013)[1] Yukarıda tartışılan anlambilimsel ve sözdizimsel kalıplardan yararlanan bir word2vec modelinin kalitesini değerlendirmek için bir yaklaşım geliştirmek. Bir modelin doğruluğunu test etmek için ölçüt olarak kullandıkları 8,869 semantik ilişki ve 10,675 sözdizimsel ilişki seti geliştirdiler. Bir vektör modelinin kalitesini değerlendirirken, bir kullanıcı word2vec'de uygulanan bu doğruluk testinden yararlanabilir,[22] veya modeli oluşturan kurum için anlamlı olan kendi test setlerini geliştirebilirler. Bu yaklaşım, belirli bir test kelimesine en çok benzeyen kelimelerin sezgisel olarak makul olduğunu tartışmaktan daha zorlu bir test sunar.[1]

Parametreler ve model kalitesi

Farklı model parametrelerinin ve farklı yapı boyutlarının kullanılması, word2vec modelinin kalitesini büyük ölçüde etkileyebilir. Doğruluk, model mimarisi seçimi (CBOW veya Skip-Gram), eğitim veri setini artırma, vektör boyutlarının sayısını artırma ve algoritma tarafından dikkate alınan kelimelerin pencere boyutunu artırma dahil olmak üzere çeşitli şekillerde iyileştirilebilir. Bu iyileştirmelerin her biri, artan hesaplama karmaşıklığı ve dolayısıyla artan model oluşturma süresinin maliyetiyle birlikte gelir.[1]

Büyük corpora ve çok sayıda boyut kullanan modellerde, gram atlama modeli en yüksek genel doğruluğu verir ve çoğu durumda en yüksek sözdizimsel doğruluğu vermenin yanı sıra anlamsal ilişkilerde tutarlı olarak en yüksek doğruluğu üretir. Bununla birlikte, CBOW hesaplama açısından daha ucuzdur ve benzer doğruluk sonuçları verir.[1]

Doğruluk, kullanılan kelimelerin sayısı arttıkça ve boyutların sayısı arttıkça genel olarak artar. Mikolov vd.[1] eğitim verisi miktarını iki katına çıkarmanın, hesaplama karmaşıklığında vektör boyutlarının sayısını ikiye katlamaya eşdeğer bir artışla sonuçlandığını bildirin.

Altszyler ve yardımcı yazarlar (2017), Word2vec performansını farklı külliyat boyutu için iki anlamsal testte inceledi.[23] Word2vec'in yüksek bir öğrenme eğrisi, başka bir kelime gömme tekniğinden daha iyi performans (LSA ) orta ila büyük külliyat boyutuyla eğitildiğinde (10 milyondan fazla sözcük). Bununla birlikte, küçük bir eğitim külliyatı ile LSA daha iyi performans göstermiştir. Ek olarak, en iyi parametre ayarının göreve ve eğitim külliyatına bağlı olduğunu gösterirler. Bununla birlikte, 50 boyutlu orta büyüklükte külliyatta eğitilmiş atlama gram modelleri için, 15 ve 10 negatif örnek pencere boyutu iyi bir parametre ayarı gibi görünmektedir.

Ayrıca bakınız

Referanslar

  1. ^ a b c d e f g h ben Mikolov, Tomas; et al. (2013). "Vektör Uzayında Kelime Temsillerinin Etkin Tahmini". arXiv:1301.3781 [cs.CL ].
  2. ^ Mikolov, Tomas; et al. (2013). "Vektör Uzayında Kelime Temsillerinin Etkin Tahmini". arXiv:1301.3781 [cs.CL ].
  3. ^ Mikolov, Tomas (2013). "Kelimelerin ve deyimlerin dağıtılmış gösterimleri ve bunların bileşimi". Sinirsel Bilgi İşleme Sistemlerindeki Gelişmeler. arXiv:1310.4546.
  4. ^ [1], "Yüksek boyutlu bir uzayda kelimelerin sayısal temsillerini hesaplama" 
  5. ^ a b Goldberg, Yoav; Levy, Ömer (2014). "word2vec Açıklandı: Mikolov ve diğerlerinin Negatif Örnekleme Kelime Gömme Yöntemi Türetilmesi". arXiv:1402.3722 [cs.CL ].
  6. ^ Şehůřek, Radim. Word2vec ve arkadaşları (Youtube videosu). Alındı 14 Ağustos 2015.
  7. ^ Mikolov, Tomas; Sutskever, Ilya; Chen, Kai; Corrado, Greg S .; Dean Jeff (2013). Kelimelerin ve cümlelerin dağıtılmış temsilleri ve bunların bileşimi. Sinirsel Bilgi İşleme Sistemlerindeki Gelişmeler. arXiv:1310.4546. Bibcode:2013arXiv1310.4546M.
  8. ^ a b c "Google Code Archive - Google Code Project Hosting için uzun vadeli depolama". code.google.com. Alındı 13 Haziran 2016.
  9. ^ "Parametre (hs & negatif)". Google Toplulukları. Alındı 13 Haziran 2016.
  10. ^ "T-SNE kullanarak Verileri Görselleştirme" (PDF). Makine Öğrenimi Araştırmaları Dergisi, 2008. Cilt. 9, sf. 2595. Alındı 18 Mart 2017.
  11. ^ Le, Quoc; et al. (2014). "Cümle ve Belgelerin Dağıtık Temsilleri". arXiv:1405.4053 [cs.CL ].
  12. ^ "Gensim kullanarak Doc2Vec öğreticisi". Alındı 2 Ağustos 2015.
  13. ^ "IMDB duyarlılık analizi için Doc2vec". Alındı 18 Şubat 2016.
  14. ^ "Sınıflandırma için Doc2Vec ve Paragraf Vektörleri". Alındı 13 Ocak 2016.
  15. ^ a b Asgari, Ehsaneddin; Mofrad, Mohammad R.K. (2015). "Derin Proteomik ve Genomik için Biyolojik Dizilerin Sürekli Dağıtılmış Temsili". PLOS ONE. 10 (11): e0141287. arXiv:1503.05140. Bibcode:2015PLoSO..1041287A. doi:10.1371 / journal.pone.0141287. PMC  4640716. PMID  26555596.
  16. ^ Ng, Patrick (2017). "dna2vec: Değişken uzunluklu k-merlerin tutarlı vektör gösterimleri". arXiv:1701.06279 [q-bio.QM ].
  17. ^ Banerjee, Imon; Chen, Matthew C .; Lungren, Matthew P .; Rubin Daniel L. (2018). "Akıllı kelime yerleştirme kullanarak radyoloji raporu ek açıklaması: Çok kurumlu göğüs BT kohortuna uygulandı". Biyomedikal Bilişim Dergisi. 77: 11–20. doi:10.1016 / j.jbi.2017.11.012. PMC  5771955. PMID  29175548.
  18. ^ Gomes, Diogo da Silva Magalhães; Cordeiro, Fábio Corrêa; Consoli, Bernardo Scapini; Santos, Nikolas Lacerda; Moreira, Viviane Pereira; Vieira, Renata; Moraes, Silvia; Evsukoff, Alexandre Gonçalves (Ocak 2021). "Petrol ve gaz endüstrisi için Portekizce kelime düğünleri: Geliştirme ve değerlendirme". Endüstride Bilgisayarlar. 124: 103347. doi:10.1016 / j.compind.2020.103347.
  19. ^ Levy, Ömer; Goldberg, Yoav; Dagan, İdo (2015). "Kelime Gömülerinden Çıkarılan Derslerle Dağıtımsal Benzerliği İyileştirme". Hesaplamalı Dilbilim Derneği İşlemleri. Hesaplamalı Dilbilim Derneği İşlemleri. 3: 211–225. doi:10.1162 / tacl_a_00134.
  20. ^ Arora, S; et al. (Yaz 2016). "PMI Tabanlı Kelime Gömmelerine Gizli Değişken Model Yaklaşımı". Doç. Comp. Dilbilim. 4: 385–399. doi:10.1162 / tacl_a_00106 - ACLWEB aracılığıyla.
  21. ^ Mikolov, Tomas; Yih, Wen-tau; Zweig, Geoffrey (2013). "Sürekli Uzay Kelime Temsillerinde Dilsel Düzenlemeler". HLT-Naacl: 746–751.
  22. ^ "Gensim - word2vec ile derin öğrenme". Alındı 10 Haziran 2016.
  23. ^ Altszyler, E .; Ribeiro, S .; Sigman, M .; Fernández Slezak, D. (2017). "Rüya anlamının yorumlanması: Küçük bir metin külliyatında Gizli Anlamsal Analiz kullanarak belirsizliği çözme". Bilinç ve Biliş. 56: 178–187. arXiv:1610.01520. doi:10.1016 / j.concog.2017.09.004. PMID  28943127. S2CID  195347873.

Dış bağlantılar

Uygulamalar