WaveNet - WaveNet

WaveNet derin sinir ağı ham ses üretmek için. Londra merkezli yapay zeka firmasındaki araştırmacılar tarafından oluşturuldu. Derin Düşünce. Eylül 2016'da bir makalede özetlenen teknik,[1] bir kullanarak dalga formlarını doğrudan modelleyerek nispeten gerçekçi kulağa insan benzeri sesler üretebilir. sinir ağı gerçek konuşma kayıtları ile eğitilmiş yöntem. ABD İngilizcesi ve Mandarin ile yapılan testlerin, sistemin Google'ın mevcut en iyi performansından daha iyi performans gösterdiğini bildirildi. konuşma metni (TTS) sistemleri, 2016 itibariyle metinden konuşmaya sentezi hala gerçek insan konuşmasından daha az ikna ediciydi.[2] WaveNet'in ham dalga formları oluşturma yeteneği, müzik dahil her türlü sesi modelleyebileceği anlamına gelir.[3]

Tarih

Apple'ınki gibi yazılımların popülerliği sayesinde metinden konuşma üretmek giderek yaygınlaşan bir görevdir. Siri, Microsoft'un Cortana, Amazon Alexa ve Google Asistan.[4]

Bu tür sistemlerin çoğu, tanınabilir sesler ve sözcükler oluşturmak için bir araya getirilmiş ses parçalarını içeren bir tekniğin bir varyasyonunu kullanır.[5] Bunlardan en yaygın olanı sıralı TTS olarak adlandırılır.[6] Tek bir konuşmacıdan kaydedilen ve daha sonra tam sözcükler ve sesler üretmek için birleştirilen geniş konuşma parçaları kitaplığından oluşur. Sonuç, tuhaf bir ritim ve tonla doğal görünmüyor.[7] Kaydedilmiş bir kitaplığa güvenilmesi de sesi değiştirmeyi veya değiştirmeyi zorlaştırır.[8]

Parametrik TTS olarak bilinen başka bir teknik,[9] Daha sonra kelimeler ve cümleler halinde bir araya getirilen sesleri yeniden oluşturmak için matematiksel modeller kullanır. Sesleri oluşturmak için gerekli bilgiler modelin parametrelerinde saklanır. Çıkış konuşmasının özellikleri, modele girişler aracılığıyla kontrol edilirken, konuşma tipik olarak, bir ses sentezleyici kullanılarak oluşturulur. ses kodlayıcı. Bu aynı zamanda doğal olmayan sese neden olabilir.

Tasarım ve devam eden araştırma

Arka fon

WaveNet bir tür ileri beslemeli sinir ağı derin olarak bilinir evrişimli sinir ağı (CNN). WaveNet'te CNN, girdi olarak ham bir sinyal alır ve her seferinde bir örnek olmak üzere bir çıktıyı sentezler. Bunu, bir softmax (yani kategorik ) kullanılarak kodlanan bir sinyal değerinin dağılımı μ kanunu kapsamlı dönüşüm ve nicelleştirilmiş 256 olası değere.[10]

İlk konsept ve sonuçlar

Orijinal Eylül 2016 DeepMind araştırma belgesine göre WaveNet: Ham Ses için Üretken Bir Model[11]ağ, İngilizce ve Mandarin dilinde gerçek konuşma dalga biçimleriyle beslendi. Bunlar ağdan geçerken, ses dalga biçiminin zaman içinde nasıl geliştiğini açıklayan bir dizi kural öğrenir. Eğitimli ağ daha sonra saniyede 16.000 örnekte yeni konuşma benzeri dalga biçimleri oluşturmak için kullanılabilir. Bu dalga biçimleri gerçekçi nefesler ve dudak şapırtıları içerir - ancak herhangi bir dile uymaz.[12]

WaveNet, çıktıyla ilişkili girdinin vurgusu ve tonu ile farklı sesleri doğru bir şekilde modelleyebilir. Örneğin, Almanca ile eğitilmişse, Almanca konuşma üretir.[13] Yetenek aynı zamanda WaveNet'in müzik gibi diğer girişlerle beslenmesi durumunda çıkışının müzikal olacağı anlamına gelir. Piyasaya sürüldüğü sırada DeepMind, WaveNet'in aşağıdaki gibi ses veren dalga biçimleri üretebileceğini gösterdi. klasik müzik.[14]

İçerik (ses) değişimi

Haziran 2018 gazetesine göre Çözülmüş Sıralı Otomatik kodlayıcı[15]DeepMind, WaveNet'i ses ve ses içeriğiyle ilgili olarak da "içerik değiştirme" için başarıyla kullandı; bu, temel olarak, herhangi bir ses kaydındaki sesin, metin ve diğer özellikler korunurken önceden var olan herhangi bir sesle değiştirilebileceği anlamına gelir. orijinal kayıt. "Ayrıca ses dizisi verilerini de deniyoruz. Çözülmüş sunumumuz, konuşmanın içeriği üzerinde koşullandırırken konuşmacı kimliklerini birbirine dönüştürmemize izin veriyor." (s. 5) "Ses için bu, bir erkek konuşmacıyı bir kadın konuşmacıya dönüştürmemizi sağlar ve bunun tersi de geçerlidir. [...]. "(s. 1) Makaleye göre, programın öğrenmesi için hem kaynak hem de hedef sese ait önceden var olan konuşma kayıtlarının iki basamaklı minimum miktarı (yaklaşık 50 saat) WaveNet'e beslenmelidir. bir sesten diğerine dönüşümü tatmin edici bir kalitede gerçekleştirmeden önce onların bireysel özellikleri. Yazarlar şunu vurguluyor "[a]Modelin avantajı, dinamik özellikleri statik özelliklerden ayırmasıdır. [...]. "(s. 8), yani WaveNet, bir yandan bir sesten diğerine dönüşüm sırasında sürdürmek için konuşulan metin ve iletim modları (modülasyon, hız, perde, ruh hali, vb.) arasında ayrım yapabilir ve hem kaynak hem de hedef seslerin birbiri üzerinde değiştirilmesi gereken temel özellikleri.

Ocak 2019 takip raporu WaveNet otomatik kodlayıcıları kullanarak denetimsiz konuşma temsili öğrenimi[16] Daha güvenilir hale getirmek için, "içerik değişimi" için dinamik ve statik özellikler arasında uygun otomatik tanıma ve ayrımcılığı başarılı bir şekilde geliştirmek için bir yöntemi ayrıntılarıyla anlatır. Başka bir takip kağıdı, Örnek Verimli Uyarlanabilir Metinden Konuşmaya[17], Eylül 2018 tarihli (en son revizyon Ocak 2019), DeepMind'ın WaveNet aracılığıyla mevcut bir sesi örneklemek için gereken minimum gerçek yaşam kayıt miktarını, yüksek kaliteli sonuçları korurken "yalnızca birkaç dakikalık ses verilerine" başarıyla düşürdüğünü belirtir.

Yeteneği sesleri klonla WaveNet'in canlı ve ölü kişilerin seslerini taklit etme yeteneği hakkında etik kaygılar uyandırdı. 2016'ya göre BBC makale, benzer ses klonlama teknolojileri üzerinde çalışan şirketler (örneğin Adobe Voco ) sahteciliği önlemek için insanlara duyulamayacak şekilde filigran eklemeye niyetlenirken, bu ses klonlamasının tatmin edici olduğunu korurken, örneğin eğlence endüstrisi amaçlarının çok daha düşük bir karmaşıklığa sahip olacağını ve adli kanıtlama yöntemlerini ve elektronik kimliği kandırmak için gerekenden farklı yöntemler kullanacağını cihazlar, böylece eğlence endüstrisi amacıyla klonlanan doğal sesler ve sesler, teknolojik analizlerle kolayca ayırt edilebilir.[18]

Başvurular

DeepMind, piyasaya sürüldüğü sırada WaveNet'in gerçek dünya uygulamalarında kullanılmak için çok fazla hesaplama işlem gücü gerektirdiğini söyledi.[19] Ekim 2017 itibarıyla Google, daha iyi ses kalitesiyle birlikte 1000 katlık bir performans artışı duyurdu. WaveNet daha sonra oluşturmak için kullanıldı Google Asistan tüm Google platformlarında ABD İngilizcesi ve Japonca için sesler.[20] Kasım 2017'de DeepMind araştırmacıları, "Olasılık Yoğunluğu Damıtma" adı verilen "gerçek zamanlıdan 20 kat daha hızlı yüksek kaliteli konuşma örnekleri oluşturma" için önerilen bir yöntemi detaylandıran bir araştırma makalesi yayınladı.[21] Yıllık I / O geliştirici konferansı Mayıs 2018'de, WaveNet tarafından yeni Google Asistan seslerinin kullanıma sunulduğu ve mümkün hale getirildiği duyuruldu; WaveNet, seslendirme sanatçısı örneklerinin ham sesini modelleyerek bir ses modeli oluşturmak için gereken ses kayıtlarının sayısını büyük ölçüde azalttı.[22]

Referanslar

  1. ^ van den Oord, Aaron; Dieleman, Sander; Zen, Heiga; Simonyan, Karen; Vinyals, Oriol; Graves, Alex; Kalchbrenner, Nal; Kıdemli, Andrew; Kavukçuoğlu, Koray (2016-09-12). "WaveNet: Ham Ses için Üretken Bir Model". 1609. arXiv:1609.03499. Bibcode:2016arXiv160903499V. Alıntı dergisi gerektirir | günlük = (Yardım)
  2. ^ Kahn, Jeremy (2016-09-09). "Google'ın DeepMind, Konuşma Oluşturma Atılımına Ulaştı". Bloomberg.com. Alındı 2017-07-06.
  3. ^ Meyer, David (2016-09-09). "Google'ın DeepMind, Sentezlenmiş Konuşmada Büyük İlerleme İddiası". Servet. Alındı 2017-07-06.
  4. ^ Kahn, Jeremy (2016-09-09). "Google'ın DeepMind, Konuşma Oluşturma Atılımına Ulaştı". Bloomberg.com. Alındı 2017-07-06.
  5. ^ Condliffe Jamie (2016/09/09). "Bu bilgisayar konuştuğunda, gerçekten dinlemek isteyebilirsiniz". MIT Technology Review. Alındı 2017-07-06.
  6. ^ Hunt, A. J .; Black, A.W. (Mayıs 1996). Büyük bir konuşma veri tabanı kullanan bir ardışık konuşma sentez sisteminde birim seçimi (PDF). 1996 IEEE Uluslararası Akustik, Konuşma ve Sinyal İşleme Konferansı Bildirileri. 1. s. 373–376. CiteSeerX  10.1.1.218.1335. doi:10.1109 / ICASSP.1996.541110. ISBN  978-0-7803-3192-1.
  7. ^ Coldewey, Devin (2016-09-09). "Google'ın WaveNet'i, ürkütücü şekilde ikna edici konuşma ve müzik üretmek için sinir ağlarını kullanıyor". TechCrunch. Alındı 2017-07-06.
  8. ^ van den Oord, Aäron; Dieleman, Sander; Zen, Heiga (2016/09/08). "WaveNet: Ham Ses için Üretken Bir Model". Derin Düşünce. Alındı 2017-07-06.
  9. ^ Zen, Heiga; Tokuda, Keiichi; Siyah Alan W. (2009). "İstatistiksel parametrik konuşma sentezi". Konuşma iletişimi. 51 (11): 1039–1064. CiteSeerX  10.1.1.154.9874. doi:10.1016 / j.specom.2009.04.004.
  10. ^ Oord, Aaron van den; Dieleman, Sander; Zen, Heiga; Simonyan, Karen; Vinyals, Oriol; Graves, Alex; Kalchbrenner, Nal; Kıdemli, Andrew; Kavukçuoğlu, Koray (2016-09-12). "WaveNet: Ham Ses için Üretken Bir Model". 1609. arXiv:1609.03499. Bibcode:2016arXiv160903499V. Alıntı dergisi gerektirir | günlük = (Yardım)
  11. ^ Oord vd. (2016). WaveNet: Ham Ses için Üretken Bir Model, Cornell University, 19 Eylül 2016
  12. ^ Gershgorn, Dave (2016/09/09). "Bir insanla konuştuğunuzdan emin misiniz? Robotların sesi ürkütücü bir şekilde gerçeğe yakın olmaya başlıyor". Kuvars. Alındı 2017-07-06.
  13. ^ Coldewey, Devin (2016-09-09). "Google'ın WaveNet'i, ürkütücü şekilde ikna edici konuşma ve müzik üretmek için sinir ağlarını kullanıyor". TechCrunch. Alındı 2017-07-06.
  14. ^ van den Oord, Aäron; Dieleman, Sander; Zen, Heiga (2016/09/08). "WaveNet: Ham Ses için Üretken Bir Model". Derin Düşünce. Alındı 2017-07-06.
  15. ^ Li ve Mand (2016). Dağıtılmış Sıralı Otomatik Kodlayıcı, 12 Haziran 2018, Cornell University
  16. ^ Chorowsky vd. (2019). WaveNet otomatik kodlayıcıları kullanarak denetimsiz konuşma temsili öğrenimi, 25 Ocak 2019, Cornell University
  17. ^ Chen vd. (2018). Örnek Verimli Uyarlanabilir Metinden Konuşmaya, 27 Eylül 2018, Cornell University. Ayrıca bu makalenin en son Ocak 2019 revizyonu.
  18. ^ Adobe Voco 'Ses için Photoshop' endişeye neden oluyor, 7 Kasım 2016, BBC
  19. ^ "Adobe Voco 'Ses için Photoshop' endişeye neden oluyor". BBC haberleri. 2016-11-07. Alındı 2017-07-06.
  20. ^ WaveNet, Google Asistan'da başlıyor
  21. ^ Oord vd. (2017): Paralel WaveNet: Hızlı Yüksek Kaliteli Konuşma Sentezi, Cornell University, 28 Kasım 2017
  22. ^ Martin, Taylor (9 Mayıs 2018). "Yepyeni Google Asistan seslerini şimdi deneyin". CNET. Alındı 10 Mayıs, 2018.

Dış bağlantılar