Kneser-Ney yumuşatma - Kneser–Ney smoothing - Wikipedia

Kneser-Ney yumuşatma öncelikle hesaplamak için kullanılan bir yöntemdir olasılık dağıtımı n-gramlar içinde belge geçmişlerine göre.[1] Yaygın olarak en etkili yöntem olarak kabul edilir. yumuşatma Olasılığın düşük mertebeden şartlarından sabit bir değer çıkararak mutlak indirgeme kullanması nedeniyle n-daha düşük frekanslı gramlar. Bu yaklaşım, hem yüksek hem de düşük mertebede eşit derecede etkili kabul edilmiştir. n-gramlar. Yöntem, Reinhard Kneser, Ute Essen ve Hermann Ney [de ].[2]

Bu yöntemin arkasındaki kavramı gösteren yaygın bir örnek, Bigram "San Francisco ". Bir eğitimde birkaç kez görünüyorsa külliyat, frekansı unigram "Francisco" da yüksek olacak. Frekanslarını tahmin etmek için sadece unigram frekansına güvenmek n-gramlar çarpık sonuçlara yol açar;[3] ancak Kneser-Ney düzgünleştirme, kendinden önceki olası kelimelere göre unigramın sıklığını dikkate alarak bunu düzeltir.

Yöntem

İzin Vermek kelimenin geçtiği yerlerin sayısı ardından kelime külliyatta.

Bigram olasılıkları için denklem aşağıdaki gibidir:

[4]

Unigram olasılığı nerede kelimeyi görmenin ne kadar olası olduğuna bağlıdır başka bir kelimeden sonra görünme sayısının, külliyatta birbirini izleyen farklı kelime çiftlerinin sayısına bölünmesiyle tahmin edilen alışılmadık bir bağlamda:

Bunu not et yukarıdaki şekilde tanımlanan değerler negatif olmadığından ve toplamı bir olduğundan uygun bir dağılımdır.

Parametre her n-gramın sayısından çıkarılan iskonto değerini ifade eden bir sabittir, genellikle 0 ile 1 arasındadır.

Normalleştirme sabitinin değeri koşullu olasılıkların toplamını yapmak için hesaplanır her şeyden önce bire eşit. Buna dikkat edin (sağlanan ) her biri için bağlamında en az bir kez meydana gelen külliyatta, olasılığı tam olarak aynı sabit tutarda indirgiyoruz , bu nedenle toplam indirim doğrusal olarak benzersiz kelimelerin sayısına bağlıdır sonra ortaya çıkabilir Bu toplam indirim, herkese yayabileceğimiz bir bütçedir. orantılı olarak Değerleri olarak toplamı bire, basitçe tanımlayabiliriz bu toplam indirime eşit olacak şekilde:

Bu denklem n-grama kadar uzatılabilir. İzin Vermek ol önceki kelimeler :

[5]

Bu model, daha yüksek ve daha düşük seviyeli dil modellerinden gelen bilgileri içeren mutlak indirgeme interpolasyonu kavramını kullanır. Daha düşük dereceden n-gramlar için terimin eklenmesi, daha yüksek dereceden n-gramların sayımı sıfır olduğunda genel olasılığa daha fazla ağırlık ekler.[6] Benzer şekilde, n-gram sayısı sıfır olmadığında, düşük dereceden modelin ağırlığı azalır.

Kneser-Ney yumuşatma modifiye edilmiş

Bu yöntemin modifikasyonu da mevcuttur.[7]

Referanslar

  1. ^ 'Yorumlanmış Kneser-Ney NUS Bilgisayar Okulu Teknik Raporunun Bayesçi Bir Yorumu TRA2 / 06'
  2. ^ Ney, Hermann; Essen, Ute; Kneser, Reinhard (Ocak 1994). "Stokastik dil modellemesinde olasılıksal bağımlılıkların yapılandırılması üzerine". Bilgisayar Konuşma ve Dili. 8 (1): 1–38. doi:10.1006 / csla.1994.1001.
  3. ^ 'Brown Üniversitesi: Hesaplamalı Dilbilime Giriş'
  4. ^ 'Kneser Ney Pürüzsüzleştirici Açıklaması'
  5. ^ 'NLP Eğitimi: Yumuşatma'
  6. ^ 'Dil modelleme için yumuşatma tekniklerinin deneysel bir çalışması'
  7. ^ Dil Modelleme için Düzeltme Tekniklerinin Ampirik Bir Çalışması s 21