Transformer (makine öğrenimi modeli) - Transformer (machine learning model)

Trafo bir derin öğrenme 2017 yılında tanıtılan model, öncelikle alanında doğal dil işleme (NLP).[1]

Sevmek tekrarlayan sinir ağları (RNN'ler), Transformers gibi görevler için doğal dil gibi sıralı verileri işlemek üzere tasarlanmıştır. tercüme ve metin özetleme. Ancak, RNN'lerden farklı olarak, Transformatörler sıralı verilerin sırayla işlenmesini gerektirmez. Örneğin, giriş verileri doğal bir dil cümlesiyse, Transformer'in sonundan önce başlangıcını işlemesine gerek yoktur. Bu özellik sayesinde Transformer çok daha fazlasına izin verir paralelleştirme RNN'lerden daha fazla ve dolayısıyla daha kısa eğitim süreleri.[1]

Transformers, piyasaya sürülmelerinden bu yana, NLP'deki birçok problemin üstesinden gelmek için tercih edilen model haline geldi ve bu gibi eski tekrarlayan sinir ağı modellerinin yerini aldı. uzun kısa süreli hafıza (LSTM). Transformer modeli eğitim sırasında daha fazla paralelleştirmeyi kolaylaştırdığı için, tanıtılmadan önce mümkün olandan daha büyük veri kümeleri üzerinde eğitim sağlamıştır. Bu, gelişmesine yol açtı önceden eğitilmiş sistemler gibi BERT (Transformatörlerden Çift Yönlü Enkoder Gösterimleri) ve GPT (Üretken Önceden Eğitilmiş Transformatör), çok büyük genel dil veri kümeleriyle eğitilmiştir ve belirli dil görevlerine göre hassas bir şekilde ayarlanabilir.[2][3]

Arka fon

Transformatörlerin piyasaya sürülmesinden önce, en son teknoloji NLP sistemleri, kapılı tekrarlayan sinir ağları (RNN'ler), örneğin LSTM'ler ve kapılı tekrarlayan birimler (GRU'lar), eklenmiş dikkat mekanizmaları. Transformer, bir RNN yapısı kullanmadan bu dikkat teknolojileri üzerine inşa edildi ve tek başına dikkat mekanizmalarının, tekrarlayan sıralı işleme olmaksızın, RNN'lerin performansını dikkatle elde edecek kadar güçlü olduğu gerçeğini vurguladı.

Geçitli RNN'ler, her belirteçten sonra görülen verilerin bir temsilini içeren bir durum vektörünü koruyarak jetonları sırayla işler. İşlemek için belirteç, model cümleyi temsil eden durumu belirtene kadar birleştirir yeni bir durum oluşturmak için yeni jetonun bilgisiyle, cümleyi belirtene kadar temsil eder . Teorik olarak, bir belirteçten alınan bilgiler, eğer durum belirteç hakkındaki bilgileri her noktada kodlamaya devam ederse, sıranın çok aşağısına kadar gelişigüzel yayılabilir. Ancak pratikte bu mekanizma kusurludur: kısmen kaybolan gradyan sorunu, modelin uzun bir cümlenin sonundaki durumu genellikle erken belirteçler hakkında kesin, çıkarılabilir bilgiler içermez.

Bu sorun, dikkat mekanizmalarının ortaya çıkmasıyla giderildi. Dikkat mekanizmaları, bir modelin cümlenin daha önceki herhangi bir noktasındaki duruma doğrudan bakmasına ve durumdan yararlanmasına izin verir. Dikkat katmanı, önceki tüm durumlara erişebilir ve bunları mevcut belirteçle ilgili bazı öğrenilmiş alaka ölçülerine göre tartarak, uzaktaki ilgili belirteçler hakkında daha keskin bilgiler sağlar. Dikkatin faydasının açık bir örneği çeviride. İngilizceden Fransızcaya çeviri sisteminde, Fransızca çıktısının ilk sözcüğü büyük olasılıkla büyük ölçüde İngilizce girdinin başlangıcına bağlıdır. Bununla birlikte, klasik bir kodlayıcı-kod çözücü LSTM modelinde, Fransızca çıktının ilk kelimesini üretmek için modele yalnızca son İngilizce kelime. Teorik olarak, bu vektör tüm İngilizce cümle hakkındaki bilgileri kodlayarak modele gerekli tüm bilgileri verebilir, ancak pratikte bu bilgi genellikle iyi korunmaz. Bir dikkat mekanizması getirilirse, model bunun yerine Fransızca çıktısının başlangıcını üretirken erken İngilizce belirteçlerinin durumlarına katılmayı öğrenebilir ve bu da ona çevirdiği şeyin çok daha iyi bir konseptini verir.

RNN'lere eklendiğinde, dikkat mekanizmaları performansta büyük kazanımlar sağlamıştır. Transformer'in tanıtımı, dikkat mekanizmalarının kendi içlerinde güçlü olduğu ve RNN'lerin performans kazanımlarını dikkatle elde etmek için verilerin ardışık olarak tekrarlanan işlenmesinin gerekli olmadığı gerçeğini gün ışığına çıkardı. Transformer, RNN olmadan bir dikkat mekanizması kullanır, tüm tokenleri aynı anda işler ve aralarındaki dikkat ağırlıklarını hesaplar. Transformatörlerin sıralı işlemeye güvenmemesi ve paralelleştirmeye çok kolay izin vermesi, Transformatörlerin daha büyük veri kümeleri üzerinde daha verimli bir şekilde eğitilmesine olanak tanır.

Mimari

Daha önce icat edilen modeller gibi, Transformer bir kodlayıcı-kod çözücü mimarisidir. Kodlayıcı, girdiyi birbiri ardına yinelemeli olarak işleyen bir dizi kodlama katmanından oluşur ve kod çözücü, kodlayıcının çıkışına aynı şeyi yapan bir dizi kod çözme katmanından oluşur.

Her kodlayıcı katmanının işlevi, girdinin hangi bölümlerinin birbiriyle ilgili olduğu hakkında bilgi içeren kodlamalar oluşturmak için girdisini işlemektir. Kodlama kümesini bir sonraki kodlayıcı katmanına girdi olarak iletir. Her kod çözücü katmanı, bir çıktı dizisi oluşturmak için birleşik bağlamsal bilgileri kullanarak tüm kodlamaları alarak ve bunları işleyerek tam tersini yapar.[4] Bunu başarmak için, her kodlayıcı ve kod çözücü katmanı, her giriş için diğer tüm girdilerin alaka düzeyini tartan ve çıktıyı üretmek için bunlardan uygun şekilde bilgi alan bir dikkat mekanizmasından yararlanır.[5] Her kod çözücü katmanı ayrıca, kod çözücü katmanı kodlamalardan bilgi çekmeden önce önceki kod çözücülerin çıktılarından bilgi çeken ek bir dikkat mekanizmasına sahiptir. Hem kodlayıcı hem de kod çözücü katmanlarında bir ileri beslemeli sinir ağı çıktıların ek işlenmesi için ve artık bağlantılar ve katman normalleştirme adımlarını içerir.[5]

Ölçekli nokta-ürün dikkati

Transformer'in temel yapı taşları ölçeklendirilmiş nokta-ürün dikkat birimleridir. Transformer modeline bir cümle aktarıldığında, aynı anda her belirteç arasında dikkat ağırlıkları hesaplanır. Dikkat birimi, yalnızca jetonun kendisi hakkında bilgi değil, aynı zamanda dikkat ağırlıklarıyla ağırlıklandırılan diğer ilgili simgelerin ağırlıklı bir kombinasyonunu içeren bağlamdaki her simge için yerleştirmeler üretir.

Somut olarak, her dikkat birimi için Transformer modeli üç ağırlık matrisi öğrenir; sorgu ağırlıkları , anahtar ağırlıklar ve değer ağırlıkları . Her jeton için , girdi kelime gömme bir sorgu vektörü oluşturmak için üç ağırlık matrisinin her biriyle çarpılır , bir anahtar vektör ve bir değer vektörü . Dikkat ağırlıkları, sorgu ve temel vektörler kullanılarak hesaplanır: dikkat ağırlığı belirteçten belirtmek için arasındaki iç çarpım ve . Dikkat ağırlıkları, anahtar vektörlerin boyutunun kareköküne bölünür, , eğitim sırasında gradyanları stabilize eden ve bir softmax toplanacak ağırlıkları normalleştiren . Gerçeği ve farklı matrisler dikkatin simetrik olmamasına izin verir: jetona katılır (yani büyük), bu, jetonun jetona katılacak (yani büyük). Belirteç için dikkat biriminin çıktısı tüm simgelerin değer vektörlerinin ağırlıklı toplamıdır. dikkat her belirteç için.

Tüm belirteçler için dikkat hesaplaması, matris işlemlerinin hesaplanmasını hızlı hale getiren hesaplamalı matris işlem optimizasyonları nedeniyle eğitim için yararlı olan tek bir büyük matris hesaplaması olarak ifade edilebilir. Matrisler , ve matrisler olarak tanımlanır, burada inci satırlar vektörlerdir , , ve sırasıyla.

Çok kafalı dikkat

Bir set matrislere bir dikkat başıve Transformer modelindeki her katmanın birden fazla dikkat yönü vardır. Bir dikkat başkanı, her bir belirteçle ilgili belirteçlere katılırken, çok sayıda dikkat başıyla model, "alaka düzeyinin" farklı tanımları için bunu yapmayı öğrenebilir. Araştırmalar, Transformers'daki pek çok dikkatin, insanlar tarafından yorumlanabilen alaka düzeyi ilişkilerini kodladığını göstermiştir. Örneğin, her işaret için, çoğunlukla bir sonraki kelimeye ya da esas olarak fiillerden doğrudan nesnelerine odaklanan dikkat kafaları vardır.[6] Transformer modelleri birden fazla dikkat kafasına sahip olduğu için, yüzey seviyesinden anlamsallığa kadar pek çok düzey ve türdeki alaka ilişkisini yakalama olasılığına sahiptirler. Çok başlı dikkat katmanının çoklu çıktıları, ileri beslemeli sinir ağı katmanlarına geçmek için birleştirilir.

Kodlayıcı

Her kodlayıcı iki ana bileşenden oluşur: bir öz-dikkat mekanizması ve bir ileri beslemeli sinir ağı. Öz-dikkat mekanizması, önceki kodlayıcıdan bir dizi girdi kodlaması alır ve bir dizi çıktı kodlaması oluşturmak için bunların birbiriyle olan ilişkisini tartar. İleri beslemeli sinir ağı daha sonra her çıktı kodlamasını ayrı ayrı işler. Bu çıktı kodlamaları nihayet girdi olarak sonraki kodlayıcıya ve kod çözücülere aktarılır.

İlk kodlayıcı konum bilgilerini alır ve Gömme giriş dizisinin kodlamalar yerine girdi olarak kullanılması. Transformatörün sekans sırasını kullanması için konum bilgisi gereklidir, çünkü Transformer'in başka hiçbir parçası bunu kullanmaz.[1]

Kod çözücü

Her kod çözücü üç ana bileşenden oluşur: bir öz-dikkat mekanizması, kodlamalar üzerinde bir dikkat mekanizması ve bir ileri beslemeli sinir ağı. Kod çözücü, kodlayıcıya benzer bir şekilde işlev görür, ancak bunun yerine kodlayıcılar tarafından üretilen kodlamalardan ilgili bilgileri çeken ek bir dikkat mekanizması eklenir.[1][5]

İlk kodlayıcı gibi, ilk kod çözücü de konum bilgilerini ve çıktı dizisinin yerleştirmelerini kodlamalar yerine girdi olarak alır. Transformatör bir çıktıyı tahmin etmek için mevcut veya gelecekteki çıktıyı kullanmaması gerektiğinden, bu ters bilgi akışını önlemek için çıktı dizisi kısmen maskelenmelidir.[1] Son kod çözücünün ardından bir son doğrusal dönüşüm ve softmax katmanı, kelime dağarcığı üzerinden çıktı olasılıklarını üretmek.

Alternatifler

Eğitim Transformatör tabanlı mimariler, özellikle uzun cümleler için çok pahalı olabilir.[7] Alternatif mimariler arasında hesaplama yükünü azaltan Reformer bulunur. -e , nerede dizinin uzunluğudur. Bu kullanılarak yapılır yerellik duyarlı hashing ve tersinir katmanlar.[8][9]

Eğitim

Transformatörler tipik olarak yarı denetimli öğrenme içeren denetimsiz ön eğitim ve ardından denetimli ince ayar. Ön eğitim, etiketli eğitim verilerinin sınırlı kullanılabilirliği nedeniyle tipik olarak ince ayardan çok daha büyük bir veri kümesi üzerinde yapılır. Ön eğitim ve ince ayar görevleri genellikle şunları içerir:

Uygulamalar

Transformer modeli, aşağıdaki gibi büyük derin öğrenme çerçevelerinde uygulanmıştır. TensorFlow ve PyTorch. Aşağıda, "vanilya" transformatörü olarak bilinen Transformer varyantının bir uygulaması için sözde kod bulunmaktadır:

def vanilla_transformer(enc_inp, dec_inp):    "" "" Vanilya "transformatörü olarak bilinen transformatör çeşidi." ""    x = gömme(enc_inp) * sqrt(d_m)    x = x + pos_encoding(x)    x = bırakmak(x)    için _ içinde Aralık(n_enc_layers):        attn = multi_head_attention(x, x, x, Yok)        attn = bırakmak(attn)        attn = layer_normalization(x + attn)        x = point_wise_ff(attn)        x = layer_normalization(x + attn)    # x bu noktada kodlayıcının çıktısıdır    enc_out = x    x = gömme(dec_inp) * sqrt(d_m)    x = x + pos_encoding(x)    x = bırakmak(x)    maske = nedensel_maske(x)    için _ içinde Aralık(n_dec_layers):        attn1 = multi_head_attention(x, x, x, maske)        attn1 = layer_normalization(attn1 + x)        attn2 = multi_head_attention(attn1, enc_out, enc_out, Yok)        attn2 = bırakmak(attn2)        attn2 = layer_normalization(attn1 + attn2)        x = point_wise_ff(attn2)        x = layer_normalization(attn2 + x)    dönüş yoğun(x)

Başvurular

Transformer, uygulamalarının çoğunu alanında bulur doğal dil işleme (NLP), örneğin aşağıdaki görevler makine çevirisi ve zaman serisi tahmini.[11] Birçok önceden eğitilmiş model GPT-3, GPT-2, BERT, XLNet ve RoBERTa, Transformatörlerin çok çeşitli NLP ile ilgili görevleri gerçekleştirme ve gerçek dünya uygulamaları bulma potansiyeline sahip olma becerisini gösterir.[2][3][12] Bunlar şunları içerebilir:

2020'de, transformatör mimarisinin, daha özel olarak GPT-2'nin, satranç oynamak için ince ayarlanabileceği gösterildi.[17]

Referanslar

  1. ^ a b c d e Polosukhin, Illia; Kaiser, Lukasz; Gomez, Aidan N .; Jones, Llion; Uszkoreit, Jakob; Parmar, Niki; Shazeer, Noam; Vaswani, Ashish (2017/06/12). "Tek İhtiyacınız Olan Dikkat". arXiv:1706.03762 [cs.CL ].
  2. ^ a b c "Açık Kaynak Kullanımı BERT: Doğal Dil İşleme için Son Teknoloji Ön Eğitim". Google AI Blogu. Alındı 2019-08-25.
  3. ^ a b c "Daha İyi Dil Modelleri ve Etkileri". OpenAI. 2019-02-14. Alındı 2019-08-25.
  4. ^ "Yapay Sinir Ağları ile Dizi Modelleme (Bölüm 2): Dikkat Modelleri". Indico. 2016-04-18. Alındı 2019-10-15.
  5. ^ a b c Alammar, Jay. "Resimli Transformatör". jalammar.github.io. Alındı 2019-10-15.
  6. ^ Clark, Kevin; Khandelwal, Urvashi; Levy, Ömer; Manning, Christopher D. (Ağustos 2019). "BERT Neye Bakıyor? BERT'in Dikkatinin Analizi". 2019 ACL Workshop BlackboxNLP Bildirileri: NLP için Sinir Ağlarını Analiz ve Yorumlama. Floransa, İtalya: Hesaplamalı Dilbilim Derneği: 276–286. doi:10.18653 / v1 / W19-4828.
  7. ^ Kitaev, Nikita; Kaiser, Łukasz; Levskaya, Anselm (2020). "Reformer: The Efficient Transformer". arXiv:2001.04451 [cs.LG ].
  8. ^ "Uzun sıralı görev".
  9. ^ "Reformer: Verimli Transformatör". Google AI Blogu. Alındı 2020-10-22.
  10. ^ a b Wang, Alex; Singh, Amanpreet; Michael, Julian; Hill, Felix; Levy, Ömer; Bowman, Samuel (2018). "GLUE: Doğal Dili Anlamak için Çok Görevli Bir Kıyaslama ve Analiz Platformu". 2018 EMNLP Çalıştayı BlackboxNLP Bildirileri: NLP için Sinir Ağlarını Analiz ve Yorumlama. Stroudsburg, PA, ABD: Hesaplamalı Dilbilim Derneği: 353-355. arXiv:1804.07461. doi:10.18653 / v1 / w18-5446. S2CID  5034059.
  11. ^ Allard, Maxime (2019-07-01). "Transformer nedir?". Orta. Alındı 2019-10-21.
  12. ^ Yang, Zhilin Dai, Zihang Yang, Yiming Carbonell, Jaime Salakhutdinov, Ruslan Le, Quoc V. (2019-06-19). XLNet: Dili Anlamak için Genelleştirilmiş Otomatik Aşamalı Ön Eğitim. OCLC  1106350082.CS1 bakimi: birden çok ad: yazarlar listesi (bağlantı)
  13. ^ Canavarlar, Veri (2017-09-26). "Doğal Dil İşlemede Yapay Sinir Ağlarının 10 Uygulaması". Orta. Alındı 2019-10-21.
  14. ^ Rives, Alexander; Goyal, Siddharth; Meier, Joshua; Guo, Demi; Ott, Myle; Zitnick, C. Lawrence; Anne, Jerry; Fergus, Rob (2019). "Biyolojik yapı ve işlev, denetimsiz öğrenmenin 250 milyon protein dizisine ölçeklenmesinden ortaya çıkıyor". bioRxiv  10.1101/622803.
  15. ^ Nambiar, Ananthan; Heflin, Maeve; Liu, Simon; Maslov, Sergei; Hopkins, Mark; Ritz, Anna (2020). "Yaşam Dilini Dönüştürmek: Protein Tahmin Görevleri için Trafo Sinir Ağları". doi:10.1145/3388440.3412467. Alıntı dergisi gerektirir | günlük = (Yardım)
  16. ^ Rao, Roshan; Bhattacharya, Nicholas; Thomas, Neil; Duan, Yan; Chen, Xi; Canny, John; Abbeel, Pieter; Şarkı, Yun S. (2019). "TAPE ile Protein Transfer Öğreniminin Değerlendirilmesi". bioRxiv  10.1101/676825.
  17. ^ Hayır, David; Ciolino, Matt; Kalin, Josh (2020-08-21). "Satranç Transformatörü: Üretken Dil Modellerini Kullanarak Oyunda Ustalaşma". arXiv:2008.04057 [cs.AI ].