BERT (dil modeli) - BERT (language model)

Transformatörlerden Çift Yönlü Enkoder Gösterimleri (BERT) bir Trafo tabanlı makine öğrenme için teknik doğal dil işleme (NLP) tarafından geliştirilen ön eğitim Google. BERT, 2018 yılında Jacob Devlin ve Google'dan meslektaşları tarafından oluşturuldu ve yayınlandı.[1][2] 2019 itibariyleGoogle, kullanıcı aramalarını daha iyi anlamak için BERT'den yararlanıyor.[3]

Orijinal İngilizce BERT modeli, önceden eğitilmiş iki genel türle birlikte gelir:[1] (1) BERTTABAN model, 12 katmanlı, 768 gizli, 12 kafalı, 110M parametreli sinir ağı mimarisi ve (2) BERTBÜYÜK model, 24 katmanlı, 1024 gizli, 16 kafalı, 340M parametreli bir sinir ağı mimarisi; her ikisi de eğitildi Kitaplar[4] 800 milyon kelime ve İngilizce Wikipedia 2.500 milyon kelime ile.

Verim

BERT yayınlandığında, ustalık derecesi bir dizi performans doğal dil anlayışı görevler:[1]

Analiz

BERT'lerin nedenleri ustalık derecesi bunlarla ilgili performans doğal dil anlayışı görevler henüz tam olarak anlaşılmadı.[5][6] Mevcut araştırma, dikkatle seçilmiş girdi dizilerinin bir sonucu olarak BERT'nin çıktısının arkasındaki ilişkiyi araştırmaya odaklanmıştır[7][8] dahili analiz vektör gösterimleri sınıflandırıcıları araştırarak,[9][10] ve temsil ettiği ilişkiler Dikkat ağırlıklar.[5][6]

Tarih

BERT'in kökeni eğitim öncesi bağlamsal temsillere dayanmaktadır: Yarı denetimli Sıralı Öğrenme,[11] Üretken Ön Eğitim, ELMo,[12] ve ULMFit.[13] Önceki modellerden farklı olarak, BERT, yalnızca düz bir metin külliyatını kullanarak önceden eğitilmiş, son derece çift yönlü, denetimsiz bir dil temsilidir. Bağlamdan bağımsız modeller word2vec veya Eldiven Kelime dağarcığındaki her kelime için tek bir kelime gömme temsili üretir; burada BERT, belirli bir kelimenin her bir oluşumu için bağlamı dikkate alır. Örneğin, "koşma" vektörü, "Bir şirketi yönetiyor" ve "Bir maraton koşuyor" cümlelerinde her iki oluşum için de aynı word2vec vektör temsiline sahipken, BERT, bağlamsallaştırılmış bir yerleştirme sağlayacaktır. cümleye göre farklı.

25 Ekim 2019'da, Google arama BERT modellerini uygulamaya başladıklarını duyurdu. ingilizce dili içindeki arama sorguları BİZE.[14] 9 Aralık 2019'da, BERT'nin Google Arama tarafından 70'ten fazla dil için kabul edildiği bildirildi.[15] Ekim 2020'de neredeyse her bir İngilizce tabanlı sorgu BERT tarafından işlendi.[16]

Tanıma

BERT, 2019 Kuzey Amerika Bölümü Yıllık Konferansı'nda En İyi Uzun Kağıt Ödülünü kazandı. Hesaplamalı Dilbilim Derneği (NAACL).[17]

Ayrıca bakınız

Referanslar

  1. ^ a b c Devlin, Jacob; Chang, Ming-Wei; Lee, Kenton; Toutanova, Kristina (11 Ekim 2018). "BERT: Dil Anlamak için Derin Çift Yönlü Transformatörlerin Ön Eğitimi". arXiv:1810.04805v2 [cs.CL ].
  2. ^ "Açık Kaynak Kullanımı BERT: Doğal Dil İşleme için Son Teknoloji Ön Eğitim". Google AI Blogu. Alındı 2019-11-27.
  3. ^ "Aramaları her zamankinden daha iyi anlama". Google. 2019-10-25. Alındı 2019-11-27.
  4. ^ Zhu, Yukun; Kiros, Ryan; Zemel, Zengin; Salakhutdinov, Ruslan; Urtasun, Raquel; Torralba, Antonio; Fidler, Sanja (2015). "Kitapları ve Filmleri Hizalama: Film İzleyerek ve Kitap Okuyarak Hikaye Gibi Görsel Açıklamalara Doğru". s. 19–27. arXiv:1506.06724 [cs.CV ].
  5. ^ a b Kovaleva, Olga; Romanov, Alexey; Rogers, Anna; Rumshisky, Anna (Kasım 2019). "BERT'in Karanlık Sırlarını Açığa Çıkarmak". Doğal Dil İşlemede Ampirik Yöntemler 2019 Konferansı ve 9. Uluslararası Doğal Dil İşleme Ortak Konferansı (EMNLP-IJCNLP) Bildirileri. sayfa 4364–4373. doi:10.18653 / v1 / D19-1445. S2CID  201645145.
  6. ^ a b Clark, Kevin; Khandelwal, Urvashi; Levy, Ömer; Manning, Christopher D. (2019). "BERT Neye Bakıyor? BERT'in Dikkatinin Analizi". 2019 ACL Workshop BlackboxNLP Bildirileri: NLP için Sinir Ağlarını Analiz ve Yorumlama. Stroudsburg, PA, ABD: Hesaplamalı Dilbilim Derneği: 276-286. doi:10.18653 / v1 / w19-4828.
  7. ^ Khandelwal, Urvashi; O, O; Qi, Peng; Jurafsky, Dan (2018). "Yakın, Bulanık Çok Uzak: Sinirsel Dil Modelleri Bağlamı Nasıl Kullanıyor". Hesaplamalı Dilbilim Derneği'nin 56. Yıllık Toplantısı Bildirileri (Cilt 1: Uzun Makaleler). Stroudsburg, PA, ABD: Hesaplamalı Dilbilim Derneği: 284-294. arXiv:1805.04623. Bibcode:2018arXiv180504623K. doi:10.18653 / v1 / p18-1027. S2CID  21700944.
  8. ^ Gulordava, Kristina; Bojanowski, Piotr; Mezar, Edouard; Linzen, Tal; Baroni, Marco (2018). "Renksiz Yeşil Tekrarlayan Ağlar Hiyerarşik Düşler". Hesaplamalı Dilbilim Derneği Kuzey Amerika Bölümü 2018 Konferansı Bildirileri: İnsan Dili Teknolojileri, Cilt 1 (Uzun Makaleler). Stroudsburg, PA, ABD: Hesaplamalı Dilbilim Derneği: 1195–1205. arXiv:1803.11138. Bibcode:2018arXiv180311138G. doi:10.18653 / v1 / n18-1108. S2CID  4460159.
  9. ^ Giulianelli, Mario; Harding, Jack; Mohnert, Florian; Hupkes, Dieuwke; Zuidema, Willem (2018). "Başlık Altında: Dil Modellerinin Sözleşme Bilgilerini Nasıl İzlediğini İncelemek ve İyileştirmek İçin Teşhis Sınıflandırıcılarını Kullanma". 2018 EMNLP Çalıştayı BlackboxNLP Bildirileri: NLP için Sinir Ağlarını Analiz ve Yorumlama. Stroudsburg, PA, ABD: Hesaplamalı Dilbilim Derneği: 240–248. arXiv:1808.08079. Bibcode:2018arXiv180808079G. doi:10.18653 / v1 / w18-5426. S2CID  52090220.
  10. ^ Zhang, Kelly; Bowman, Samuel (2018). "Dil Modellemesi Size Çeviriden Daha Fazlasını Öğretir: Yardımcı Sözdizimsel Görev Analizi Yoluyla Öğrenilen Dersler". 2018 EMNLP Çalıştayı BlackboxNLP Bildirileri: NLP için Sinir Ağlarını Analiz ve Yorumlama. Stroudsburg, PA, ABD: Hesaplamalı Dilbilim Derneği: 359-361. doi:10.18653 / v1 / w18-5448.
  11. ^ Dai, Andrew; Le, Quoc (4 Kasım 2015). "Yarı denetimli Sıralı Öğrenme". arXiv:1511.01432 [cs.LG ].
  12. ^ Peters, Matthew; Neumann, Mark; İyyer, Mohit; Gardner, Matt; Clark, Christopher; Lee, Kenton; Luke, Zettlemoyer (15 Şubat 2018). "Bağlamsallaştırılmış kelime temsilleri". arXiv:1802.05365v2 [cs.CL ].
  13. ^ Howard, Jeremy; Ruder, Sebastian (18 Ocak 2018). "Evrensel Dil Modeli Metin Sınıflandırması için İnce Ayar". arXiv:1801.06146v5 [cs.CL ].
  14. ^ Nayak, Pandu (25 Ekim 2019). "Aramaları her zamankinden daha iyi anlama". Google Blogu. Alındı 10 Aralık 2019.
  15. ^ Montti, Roger (10 Aralık 2019). "Google'ın BERT'si Dünya Çapında Çıkıyor". Arama Motoru Dergisi. Arama Motoru Dergisi. Alındı 10 Aralık 2019.
  16. ^ "Google: BERT artık neredeyse her İngilizce sorguda kullanılıyor". Arama Motoru Arazisi. 2020-10-15. Alındı 2020-11-24.
  17. ^ "En İyi Kağıt Ödülleri". NAACL. 2019. Alındı 28 Mart 2020.

daha fazla okuma

  • Rogers, Anna; Kovaleva, Olga; Rumshisky, Anna (2020). "BERTolojide Bir Primer: BERT'nin nasıl çalıştığı hakkında bildiklerimiz". arXiv:2002.12327. Alıntı dergisi gerektirir | günlük = (Yardım)

Dış bağlantılar