MuZero - MuZero

MuZero bir bilgisayar programı tarafından geliştirilmiş yapay zeka Araştırma şirketi Derin Düşünce kuralları hakkında hiçbir şey bilmeden oyunlarda ustalaşmak.[1][2][3] 2019'daki ilk sürümü, performansının karşılaştırmalarını içeriyordu. Git, satranç, Shogi ve standart bir paket Atari oyunlar. algoritma benzer bir yaklaşım kullanır AlphaZero AlphaZero'nun satranç ve shogi'deki performansıyla eşleşti, Git (yeni bir dünya rekoru kırıyor) ve görsel olarak karmaşık bir alan olan 57 Atari oyunundan (Arcade Öğrenme Ortamı) oluşan bir takımda ustalaşma konusunda en son teknolojiyi geliştirdi.

MuZero, kurallara, açılış kitaplarına veya oyunsonu masalarına erişimi olmayan kendi kendine oynama ve AlphaZero'ya karşı oynama yoluyla eğitildi. Eğitimli algoritma, AlphaZero ile aynı evrişimli ve artık algoritmaları kullandı, ancak arama ağacındaki düğüm başına% 20 daha az hesaplama adımı kullandı.[4]

Tarih

19 Kasım 2019'da DeepMind ekibi bir ön baskı MuZero'nun tanıtımı.

AlphaZero'dan türetme

MuZero (MZ), AlphaZero'nun (AZ) yüksek performanslı planlamasının bir kombinasyonudur. algoritma modelsiz pekiştirmeli öğrenme yaklaşımları ile. Kombinasyon, Go gibi klasik planlama rejimlerinde daha verimli eğitime izin verirken, aynı zamanda görsel video oyunları gibi her aşamada çok daha karmaşık girdilere sahip alanları ele alır.

MuZero, doğrudan AZ kodundan türetilmiştir ve aramayı ayarlama kurallarını paylaşır hiperparametreler. Yaklaşımlar arasındaki farklılıklar şunları içerir:[5]

  • AZ'nin planlama süreci bir simülatör (oyunun kurallarını bilen ve bir insan tarafından açıkça programlanması gereken) ve bir sinir ağı (gelecekteki bir pozisyonun politikasını ve değerini tahmin eden) kullanır. Oyun kurallarının mükemmel bilgisi, arama ağacındaki durum geçişlerinin modellenmesinde, her düğümde mevcut olan eylemlerde ve ağacın bir dalının sonlandırılmasında kullanılır. MZ'nin mükemmel bir kural setine erişimi yoktur ve onu yukarıda bahsedilen modelleme için kullanılan öğrenilmiş sinir ağları ile değiştirir.
  • AZ'nin oyun için tek bir modeli vardır (yönetim kurulu durumundan tahminlere); MZ'nin aşağıdakiler için ayrı modelleri vardır: temsil mevcut durumun (yönetim kurulu durumundan dahili gömülmesine), dinamikler durumların sayısı (eylemler kurul devletlerinin temsillerini nasıl değiştirir) ve tahmin politika ve gelecekteki bir pozisyonun değeri (bir devletin temsili verildiğinde).
  • MZ'nin gizli modeli karmaşık olabilir ve içinde hesaplamayı önbelleğe alabilir; Başarılı bir şekilde eğitilmiş MZ örneğinde gizli bir modelin ayrıntılarını keşfetmek, gelecekteki keşifler için bir yoldur.
  • MZ, kazananların hepsini aldığı iki oyunculu bir oyun beklemiyor. Sürekli ara ödüllere sahip, muhtemelen keyfi büyüklükte ve zaman içinde indirimlerle tek aracılı ortamlar dahil olmak üzere standart pekiştirmeli öğrenme senaryoları ile çalışır. AZ, kazanılabilen, çekilebilen veya kaybedilebilen iki oyunculu oyunlar için özel olarak tasarlanmıştır.

R2D2 ile Karşılaştırma

Atari oyunlarının paketini oynamayı öğrenmek için kullanılan önceki son teknoloji, Tekrarlayan Tekrar Dağıtılmış DQN olan R2D2 idi.[6]

MuZero, R2D2'nin hem ortalama hem de ortalama performansını oyun paketinde aştı, ancak her oyunda daha iyi sonuç vermedi.

Eğitim ve sonuçlar

MuZero, 16 üçüncü nesil kullandı tensör işleme birimleri [TPU'lar] eğitim için ve kendi kendine oynamak için 1000 TPU'da (tahta oyunları için, adım başına 800 simülasyonla) ve eğitim için 8 TPU ve kendi kendine oyun için 32 TPU'da (Atari oyunları için, adım başına 50 simülasyonla).

AlphaZero, eğitim için 64 birinci nesil TPU ve kendi kendine oynatmak için 5000 ikinci nesil TPU kullandı. TPU tasarımı geliştikçe (üçüncü nesil yongalar, ikinci nesil yongalar kadar ayrı ayrı 2 kat daha güçlüdür ve bir bölmedeki yongalar arasında bant genişliğinde ve ağda daha fazla ilerlemeyle), bunlar oldukça benzer eğitim kurulumlarıdır.

R2D2, 2M eğitim adımlarıyla 5 gün boyunca eğitildi.

Ön sonuçlar

MuZero, yaklaşık 1 milyon eğitim adımından sonra AlphaZero'nun satranç ve Shogi'deki performansıyla eşleşti. AZ'nin 500 bin eğitim adımından sonra Go'daki performansıyla eşleşti ve 1 milyon adım aştı. 500 bin eğitim adımından sonra R2D2'nin ortalama ve ortalama performansıyla Atari oyun setinde eşleşti ve bunu 1 milyon adım aştı; ancak süitteki 6 maçta hiç iyi performans göstermedi.[5]

Tepkiler ve ilgili çalışma

MuZero, AlphaZero'ya göre önemli bir gelişme olarak görülüyordu,[7] ve denetimsiz öğrenme tekniklerinde genelleştirilebilir bir adım.[8][9] Çalışma, sistemlerin daha küçük bileşenlerden nasıl oluşturulacağına dair ilerleyen anlayış olarak görülüyordu, sistem düzeyinde bir geliştirme, salt makine öğrenimi geliştirmeden daha fazlası.[10]

Geliştirme ekibi tarafından yalnızca sözde kod serbest bırakılırken, Werner Duvaud buna dayalı bir açık kaynaklı uygulama üretti.[11]

MuZero, diğer çalışmalarda, örneğin model tabanlı davranış oluşturmanın bir yolu olarak, bir referans uygulama olarak kullanılmıştır.[12]

Ayrıca bakınız

Referanslar

  1. ^ Wiggers, Kyle. "DeepMind's MuZero, Atari'de, satrançta, shogi'de ve Go'da nasıl kazanılacağını kendisine öğretiyor". VentureBeat. Alındı 22 Temmuz 2020.
  2. ^ Friedel, Frederic. "MuZero satrancı, kuralları ve her şeyi çözüyor". ChessBase GmbH. Alındı 22 Temmuz 2020.
  3. ^ Rodriguez, Tanrım. "DeepMind Satranç, Shogi, Atari'de Uzmanlaşan ve Kuralları Bilmeden Devam Eden Yeni Bir Ajan MuZero'yu Tanıttı". KDnuggets. Alındı 22 Temmuz 2020.
  4. ^ Schrittwieser, Julian; Antonoglou, Ioannis; Hubert, Thomas; Simonyan, Karen; Sifre, Laurent; Schmitt, Simon; Guez, Arthur; Lockhart, Edward; Hassabis, Demis; Graepel, Thore; Lillicrap, Timothy (2019-11-19). "Öğrenilmiş Bir Modelle Planlayarak Atari, Go, Satranç ve Shogi'de Ustalaşmak". arXiv:1911.08265 [cs.LG ].
  5. ^ a b Gümüş, David; Hubert, Thomas; Schrittwieser, Julian; Antonoglou, Ioannis; Lai, Matthew; Guez, Arthur; Lanctot, Marc; Sifre, Laurent; Kumaran, Dharshan; Graepel, Thore; Lillicrap, Timothy; Simonyan, Karen; Hassabis, Demis (5 Aralık 2017). "Genel Takviyeli Öğrenme Algoritması ile Kendi Kendine Oyunla Satranç ve Shogi'de Ustalaşma". arXiv:1712.01815 [cs.AI ].
  6. ^ Kapturowski, Steven; Ostrovski, Georg; Quan, John; Munos, Remi; Dabney, Will. DAĞITILAN GÜÇLENDİRMELİ ÖĞRENMEDE TEKRARLANAN DENEYİM. ICLR 2019 - Açık İnceleme yoluyla.
  7. ^ Kısaltın Connor (2020-01-18). "Alfa'nın Evrimi MuZero'ya Git". Orta. Alındı 2020-06-07.
  8. ^ "[AN # 75]: Öğrenilmiş oyun modelleri ve bir MIRI çalışanının düşünceleriyle Atari ve Go'yu çözme - LessWrong 2.0". www.lesswrong.com. Alındı 2020-06-07.
  9. ^ Wu, Jun. "Takviyeli Öğrenme, Derin Öğrenmenin Ortağı". Forbes. Alındı 2020-07-15.
  10. ^ "Makine Öğrenimi ve Robotik: (önyargılı) 2019 Alanımın Durumu". cachestocaches.com. Alındı 2020-07-15.
  11. ^ Duvaud, Werner (2020-07-15), werner-duvaud / muzero-general, alındı 2020-07-15
  12. ^ van Seijen, Harm; Nekoei, Hadi; Racah, Evan; Chandar, Sarath (2020-07-06). "LoCA Pişmanlığı: Pekiştirmeli Öğrenmede Modele Dayalı Davranışı Değerlendirmek İçin Tutarlı Bir Metrik". arXiv:2007.03158 [cs.stat ].

Dış bağlantılar