Sinir modelleme alanları - Neural modeling fields

Sinir modelleme alanı (NMF) matematiksel bir çerçevedir makine öğrenme fikirleri birleştiren nöral ağlar, Bulanık mantık, ve model tabanlı tanıma. Aynı zamanda modelleme alanları, modelleme alanları teorisi (MFT), Maksimum olasılık yapay sinir ağları (MLANS).[1][2][3][4][5][6]Bu çerçeve, Leonid Perlovsky -de AFRL. NMF, zihin mekanizmalarının matematiksel bir açıklaması olarak yorumlanır. kavramlar, duygular, içgüdüler, hayal gücü, düşünme, ve anlayış. NMF, çok seviyeli, hetero-hiyerarşik bir sistemdir. NMF'deki her seviyede, bilgiyi özetleyen kavram modelleri vardır; giriş, aşağıdan yukarıya sinyallerle etkileşime girerek yukarıdan aşağıya sinyaller üretirler. Bu etkileşimler, giriş, aşağıdan yukarıya sinyallere daha iyi uyuşma için kavram-model öğrenmeyi, uyarlamayı ve yeni konsept modellerin oluşumunu yönlendiren dinamik denklemler tarafından yönetilir.

Kavram modelleri ve benzerlik ölçüleri

Genel durumda, NMF sistemi çoklu işlem seviyelerinden oluşur. Her seviyede, çıkış sinyalleri giriş, aşağıdan yukarıya sinyallerde tanınan (veya bunlardan oluşan) kavramlardır. Giriş sinyalleri, modellere ve bu seviyeye göre kavramlarla ilişkilendirilir (veya tanınır veya gruplanır). Öğrenme sürecinde, kavram modelleri giriş sinyallerinin daha iyi gösterimi için uyarlanır, böylece kavram modelleri ve sinyaller arasındaki benzerlik artar. Benzerlikteki bu artış, bir bilgi içgüdüsünün tatmini olarak yorumlanabilir ve şu şekilde hissedilir: estetik duygular.

Her hiyerarşik seviye, n = 1,2..N indeksi ile numaralandırılan N "nöron" dan oluşur. Bu nöronlar giriş, aşağıdan yukarıya sinyaller alır, X (n), işleme hiyerarşisindeki alt düzeylerden. X(n), daha düşük seviyedeki nöronlardan gelen, aşağıdan yukarıya nöronal sinaptik aktivasyonların bir alanıdır. Her nöronun bir dizi sinapsı vardır; genel olarak, her nöron aktivasyonu bir dizi sayı olarak tanımlanır,

burada D, bireysel nöronun aktivasyonunu tanımlamak için gereken sayı veya boyuttur.

Bu nöronlara yukarıdan aşağıya veya başlangıç ​​sinyalleri konsept modellerle gönderilir, Mm(Sm, n)

, M modellerin sayısıdır. Her model kendi parametreleri ile karakterizedir, Sm; beynin nöron yapısında sinaptik bağlantıların gücü ile kodlanırlar, matematiksel olarak bir dizi sayı ile verilirler,

, burada A, bireysel modeli tanımlamak için gerekli boyutların sayısıdır.

Modeller, sinyalleri aşağıdaki şekilde temsil eder. Bu sinyali varsayalım X (n) m nesnesi tarafından aktive edilen duyusal nöronlardan gelir, bu, parametrelerle karakterize edilir Sm. Bu parametreler, m nesnesinin konumunu, yönünü veya ışıklandırmasını içerebilir. Modeli Mm(Sm, n) bir değeri tahmin eder X(n) nörondaki bir sinyalin Örneğin, görsel algılama sırasında görsel korteksteki bir nöron bir sinyal alır. X(n) retinadan ve a hazırlama sinyal Mm(Sm, n) bir nesne-kavram-modelinden m. Nöron n Hem alt seviye girişinden gelen aşağıdan yukarıya sinyal hem de yukarıdan aşağıya priming sinyali güçlü ise etkinleştirilir. Çeşitli modeller, aşağıdan yukarıya sinyallerde kanıt için rekabet ederken, parametrelerini aşağıda açıklandığı gibi daha iyi eşleşme için uyarlar. Bu, algının basitleştirilmiş bir tanımıdır. En iyi huylu günlük görsel algı, retinadan nesne algılamaya kadar birçok seviyeyi kullanır. NMF öncülü, aynı yasaların her seviyede temel etkileşim dinamiklerini tanımlamasıdır. Küçük özelliklerin veya günlük nesnelerin algılanması veya karmaşık soyut kavramların kavranması, aşağıda açıklanan aynı mekanizmadan kaynaklanmaktadır. Algılama ve biliş, kavram modelleri ve öğrenmeyi içerir. Algılamada kavram modelleri nesnelere karşılık gelir; biliş modellerinde ilişkiler ve durumlara karşılık gelir.

Öğrenme, algı ve bilişin önemli bir parçasıdır ve NMF teorisinde, öğrenmeyi artıran dinamikler tarafından yönlendirilir. benzerlik ölçüsü model ve sinyal grupları arasında, L ({X},{M}). Benzerlik ölçüsü, model parametrelerinin bir fonksiyonudur ve giriş aşağıdan yukarıya sinyalleri ile yukarıdan aşağıya, konsept model sinyalleri arasındaki ilişkidir. Benzerlik ölçüsünün matematiksel bir tanımını oluştururken, iki prensibi kabul etmek önemlidir:

İlk, görme alanı içeriği algı oluşmadan önce bilinmiyor
İkinci, herhangi bir sayıda nesneyi içerebilir. Aşağıdan yukarıya herhangi bir sinyalde önemli bilgiler bulunabilir;

Bu nedenle, benzerlik ölçüsü, tüm aşağıdan yukarıya sinyalleri hesaba katacak şekilde oluşturulmuştur, X(n),

    (1)

Bu ifade, kısmi benzerliklerin bir ürününü içerir, l (X(n)), tüm aşağıdan yukarıya sinyallerin üzerinden; bu nedenle NMF sistemini her sinyali hesaba katmaya zorlar (üründeki bir terim sıfır olsa bile, ürün sıfırdır, benzerlik düşüktür ve bilgi içgüdüsü tatmin edilmez); bu, birinci ilkenin bir yansımasıdır. İkincisi, algı oluşmadan önce zihin, hangi nesnenin belirli bir retina nöronundan bir sinyale yol açtığını bilmez. Bu nedenle, her bir giriş nöron sinyali için her modeli bir alternatif (kavram modellerine göre bir toplam) olarak ele alacak şekilde kısmi bir benzerlik ölçüsü oluşturulur. Kurucu unsurları, sinyal arasındaki koşullu kısmi benzerliklerdir X(n) ve model Mm, l (X(n) | m). Bu ölçü, m nesnesinin mevcut olması için "koşulludur", bu nedenle, bu miktarları genel benzerlik ölçüsü L ile birleştirirken, bunlar, m nesnesinin gerçekte mevcut olmasının olasılık ölçüsünü temsil eden r (m) ile çarpılır. Bu unsurları yukarıda belirtilen iki ilkeyle birleştirerek, aşağıdaki gibi bir benzerlik ölçüsü oluşturulur:

   (2)

Yukarıdaki ifadenin yapısı, olasılık teorisinin standart ilkelerini izler: alternatiflerin bir toplamı alınır, m ve çeşitli kanıt parçaları, n, çarpılır. Bu ifade mutlaka bir olasılık değildir, ancak olasılıkçı bir yapıya sahiptir. Öğrenme başarılıysa, olasılıksal tanıma yaklaşır ve optimal Bayesçi kararlara yol açar. L için "koşullu kısmi benzerlik" adı (X(n) | m) (veya basitçe l (n | m)) olasılık terminolojisini izler. Öğrenme başarılıysa, l (n | m) koşullu bir olasılık yoğunluğu işlevi haline gelir, n nöronundaki sinyalin m nesnesinden kaynaklandığı olasılıksal bir ölçüdür. O halde L, sinyalleri gözlemlemenin toplam olasılığıdır {X(n)} kavram-model tarafından tanımlanan nesnelerden gelen {Mm}. Olasılık teorisinde öncelik olarak adlandırılan r (m) katsayıları, ön yanlılıkları veya beklentileri içerir, beklenen nesneler m nispeten yüksek r (m) değerlerine sahiptir; gerçek değerleri genellikle bilinmemektedir ve diğer parametreler gibi öğrenilmesi gerekir Sm.

Olasılık teorisinde, bir olasılık ürününün genellikle kanıtın bağımsız olduğunu varsaydığını unutmayın. L ifadesi n'nin üzerinde bir çarpım içerir, ancak çeşitli sinyaller arasında bağımsızlık varsaymaz X(n). Kavram modelleri nedeniyle sinyaller arasında bir bağımlılık vardır: her model Mm(Sm, n) birçok nöronda beklenen sinyal değerlerini tahmin eder n.

Öğrenme süreci boyunca konsept modeller sürekli olarak değiştirilir. Genellikle modellerin fonksiyonel formları, Mm(Sm, n) hepsi sabittir ve öğrenme-uyarlama sadece model parametrelerini içerir, Sm. Zaman zaman bir sistem yeni bir konsept oluştururken, eskisini de koruyor; alternatif olarak, bazen eski kavramlar birleştirilir veya ortadan kaldırılır. Bu, benzerlik ölçüsü L'de bir değişiklik gerektirir; Bunun nedeni, daha fazla modelin her zaman modeller ve veriler arasında daha iyi uyum sağlamasıdır. Bu iyi bilinen bir sorundur, "şüpheci ceza işlevi" kullanılarak benzerlik L'nin azaltılmasıyla ele alınır (Ceza yöntemi ) M modellerinin sayısıyla büyüyen p (N, M) ve bu büyüme daha küçük miktarda veri N için daha hızlıdır.Örneğin, asimptotik olarak tarafsız bir maksimum olasılık tahmini çarpımsal p (N, M) = exp ( -Neşit/ 2), burada Neşit tüm modellerde toplam uyarlanabilir parametreler sayısıdır (bu ceza işlevi olarak bilinir Akaike bilgi kriteri, daha fazla tartışma ve referans için bkz (Perlovsky 2001)).

Dinamik mantık algoritması kullanarak NMF'de öğrenme

Öğrenme süreci, model parametrelerinin tahmin edilmesinden oluşur S ve benzerlik L'yi maksimize ederek sinyalleri kavramlarla ilişkilendirme. Tüm olası sinyal ve model kombinasyonlarının L için ifadede (2) hesaba katıldığına dikkat edin. Bu, bir toplamı genişleterek ve M ile sonuçlanan tüm terimleri çarparak görülebilir.N öğeler, çok sayıda. Bu, tüm sinyaller (N) ve tüm modeller (M) arasındaki kombinasyonların sayısıdır. Bu, NMF'de fikrini kullanarak çözülen Kombinatoryal Karmaşıklığın kaynağıdır. dinamik mantık,.[7][8] Dinamik mantığın önemli bir yönü benzerlik ölçülerinin belirsizliğini veya belirsizliğini modellerin belirsizliğiyle eşleştirmek. Başlangıçta, parametre değerleri bilinmemektedir ve modellerin belirsizliği yüksektir; benzerlik ölçülerinin belirsizliği de öyle. Öğrenme sürecinde modeller daha doğru hale gelir ve benzerlik daha net ölçülür, benzerliğin değeri artar.

Benzerlik L'nin maksimizasyonu aşağıdaki gibi yapılır. İlk olarak, bilinmeyen parametreler {Sm} rastgele başlatılır. Daha sonra ilişkilendirme değişkenleri f (m | n) hesaplanır,

    (3).

F (m | n) denklemi, posteriori olasılıklar için Bayes formülüne benziyor; öğrenme sonucunda l (n | m) koşullu olasılıklar haline gelirse, f (m | n) m nesnesinden kaynaklanan n sinyali için Bayes olasılıkları olur. NMF'nin dinamik mantığı aşağıdaki gibi tanımlanır:

    (4).
    (5)

Aşağıdaki teorem kanıtlanmıştır (Perlovsky 2001):

Teoremi. Denklemler (3), (4) ve (5), maksimum {S ile tanımlanan sabit durumlara sahip yakınsak dinamik bir NMF sistemi tanımlar.m} L.

Bir MF sisteminin durağan durumlarının maksimum benzerlik durumları olduğu sonucu çıkar. Kısmi benzerlikler olasılık yoğunluk fonksiyonları (pdf) veya olasılıklar olarak belirtildiğinde, parametrelerin durağan değerleri {Sm}, bu parametrelerin asimptotik olarak tarafsız ve verimli tahminleridir.[9] Dinamik mantığın hesaplama karmaşıklığı N'de doğrusaldır.

Pratik olarak, denklemleri ardışık yinelemelerle çözerken, f (m | n), artımlı formül (5) yerine (3) kullanılarak her yinelemede yeniden hesaplanabilir.

Yukarıdaki teoremin kanıtı, L benzerliğinin her yinelemede arttığına dair bir kanıt içerir. Bu, bilgiyi artırma içgüdüsünün her adımda tatmin edildiğine dair psikolojik bir yoruma sahiptir ve olumlu duygularla sonuçlanır: NMF-dinamik mantık sistemi duygusal olarak öğrenmekten hoşlanır.

Dinamik mantık işlemlerine örnek

Gürültünün altında kalıp bulmak son derece karmaşık bir problem olabilir. Kesin bir desen şekli bilinmiyorsa ve bilinmeyen parametrelere bağlıysa, bu parametreler desen modelini verilere uydurarak bulunmalıdır. Bununla birlikte, modellerin konumları ve yönleri bilinmediğinde, uydurma için veri noktalarının hangi alt kümesinin seçilmesi gerektiği açık değildir. Bu tür problemleri çözmek için standart bir yaklaşım, çoklu hipotez testidir (Singer ve diğerleri, 1974). Alt küme ve modellerin tüm kombinasyonları kapsamlı bir şekilde araştırıldığından, bu yöntem kombinatoryal karmaşıklık sorunuyla karşı karşıyadır. Mevcut örnekte, gürültülü "gülümseme" ve "kaşlarını çatma" kalıpları aranmaktadır. Şekil 1a'da gürültü olmadan ve Şekil 1b'de gerçekte ölçüldüğü gibi gürültü ile gösterilmiştir. Gerçek desen sayısı 3'tür ve bu bilinmemektedir. Bu nedenle, 3 modelin en iyi uyduğuna karar vermek için verilere en az 4 model uymalıdır. Bu örnekteki görüntü boyutu 100x100 = 10.000 puntodur. 10.000 veri noktasının tüm alt kümelerine 4 model sığdırılmaya çalışılırsa, karmaşıklığın hesaplanması, MN ~ 106000. Parametre uzayında arama yaparak alternatif bir hesaplama, daha düşük karmaşıklık sağlar: her bir model 3 parametreli bir parabolik şekil ile karakterize edilir. Bir kaba kuvvet testi ile 4x3 = 12 parametrenin 100x100 ızgaraya yerleştirilmesi yaklaşık 10 sürer32 10'a kadar40 İşlemler, hala engelleyici bir hesaplama karmaşıklığı. NMF ve dinamik mantığı bu probleme uygulamak için, beklenen modellerin parametrik uyarlanabilir modellerinin geliştirilmesi gerekir. Bu vaka için modeller ve koşullu kısmi benzerlikler aşağıdaki bölümlerde ayrıntılı olarak açıklanmıştır:[10] gürültü için tek tip bir model, son derece bulanık, kötü çözümlenmiş modeller için Gauss blobları ve "gülümsemeler" ve "kaşlar" için parabolik modeller. Bu örnekteki bilgisayar işlemlerinin sayısı yaklaşık 10'du10. Böylece, kombinatoryal karmaşıklık nedeniyle çözülemeyen bir problem dinamik mantık kullanılarak çözülebilir hale gelir.

Bir adaptasyon süreci sırasında, başlangıçta bulanık ve belirsiz modeller giriş sinyallerindeki yapılarla ilişkilendirilir ve bulanık modeller, ardışık yinelemelerle daha kesin ve net hale gelir. Modellerin türü, şekli ve sayısı, sistem içindeki dahili gösterimin giriş sinyallerine benzer olması için seçilir: NMF konsept modelleri, sinyallerdeki yapı nesnelerini temsil eder. Aşağıdaki şekil dinamik mantık işlemlerini göstermektedir. Şekil 1 (a) 'da gerçek' gülümseme 've' kaşlarını çatma 'kalıpları gürültü olmadan gösterilmiştir; (b) tanıma için mevcut olan gerçek görüntü (sinyal gürültünün altında, sinyal-gürültü oranı –2dB ile –0.7dB arasındadır); (c) bir başlangıç ​​bulanık modeli, büyük bir bulanıklık bilginin belirsizliğine karşılık gelir; (d) ile (m) arasındaki çeşitli yineleme aşamalarında (toplam 22 yineleme) geliştirilmiş modelleri gösterir. Her beş yinelemede, algoritma model sayısını artırmaya veya azaltmaya çalıştı. (D) ve (e) yinelemeleri arasında algoritma, "en iyi" uyum için üç Gauss modeline ihtiyaç duyduğuna karar verdi.

Birkaç model türü vardır: gürültüyü açıklayan tek tip bir model (gösterilmemiştir) ve değişken sayıda blob modeli ve parabolik modeller; sayıları, konumları ve eğriliği verilerden tahmin edilir. Algoritma (g) aşamasına kadar basit blob modellerini kullandı, (g) ve ötesinde, algoritma verileri tanımlamak için daha karmaşık parabolik modellere ihtiyaç duyduğuna karar verdi. Benzerlik artmayı bıraktığında yinelemeler (h) 'de durdu.

Şekil 1. Gürültüde "gülümseme" ve "kaşlarını çatma" kalıplarını bulmak, dinamik mantık işlemine bir örnek: (a) gerçek "gülümseme" ve "kaşlarını çatma" kalıpları gürültü olmadan gösterilir; (b) tanıma için mevcut gerçek görüntü (sinyal gürültünün altındadır, sinyal-gürültü oranı –2dB ile –0.7dB arasındadır); (c) bir başlangıç ​​bulanık damla modeli, belirsizlik bilginin belirsizliğine karşılık gelir; (d) ile (m) arası çeşitli yineleme aşamalarında (toplam 22 yineleme) geliştirilmiş modelleri gösterir. (D) ve (e) aşamaları arasında algoritma, verileri birden fazla modelle uydurmaya çalıştı ve verilerin içeriğini "anlamak" için üç blob modeline ihtiyaç duyduğuna karar verdi. Birkaç model türü vardır: gürültüyü açıklayan tek tip bir model (gösterilmemiştir) ve sayı, konum ve eğrilik verilerden tahmin edilen değişken sayıda blob modelleri ve parabolik modeller. Algoritma (g) ve ötesinde, basit blob modelleri açısından 'düşünce' aşamasına (g) gelinceye kadar, algoritma, verileri tanımlamak için daha karmaşık parabolik modellere ihtiyaç duyduğuna karar verdi. Benzerlik L artmayı bıraktığında yinelemeler (m) 'de durdu. Bu örnek, (Linnehan ve diğerleri 2003) 'te daha ayrıntılı olarak tartışılmaktadır.

Sinir modelleme alanları hiyerarşik organizasyon

Yukarıda, hiyerarşik bir NMF sisteminde tek bir işlem seviyesi açıklanmıştır. Her hiyerarşi düzeyinde, benzerlikteki değişiklikler olarak tanımlanan alt düzeylerden, modellerden, benzerlik ölçülerinden (L), duygulardan ve eylemlerden gelen giriş sinyalleri vardır; eylemler arasında adaptasyon, bilgi içgüdüsünü tatmin eden davranış - benzerliğin maksimizasyonu bulunur. Her seviyeye bir giriş, bir dizi sinyaldir X(n) veya nöral terminolojide, nöronal aktivasyonların bir girdi alanı. Belirli bir seviyede sinyal işlemenin sonucu, aktifleştirilmiş modeller veya giriş sinyallerinde n tanınan kavramlardır; Bu modeller, karşılık gelen içgüdüsel sinyaller ve duygularla birlikte davranış modellerini harekete geçirebilir ve bu düzeyde davranış oluşturabilir.

Etkinleştirilmiş modeller diğer eylemleri başlatır. Daha genel konsept modellerinin tanındığı veya yaratıldığı bir sonraki işleme seviyesine giriş sinyalleri olarak hizmet ederler. Belirli bir seviyeden bir sonraki seviyeye giriş görevi gören çıkış sinyalleri, model aktivasyon sinyalleridir, birm, olarak tanımlandı

am = ∑n = 1..N f (m | n).

Hiyerarşik NMF sistemi Şekil 2'de gösterilmektedir. Zihin hiyerarşisi içinde, her kavram-model “zihinsel” anlamını ve amacını daha yüksek bir seviyede bulur (diğer amaçlara ek olarak). Örneğin, konsept model bir "sandalye" düşünün. Oturma davranışını başlatmak için “davranışsal” bir amacı vardır (eğer oturmak vücut tarafından gerekliyse), bu aynı hiyerarşik düzeydeki “bedensel” amaçtır. Buna ek olarak, hiyerarşide daha yüksek bir seviyede "tamamen zihinsel" bir amaca sahiptir, daha genel bir kavramı, örneğin bir modeli sıralı sandalye içeren bir "konser salonu" gibi daha genel bir kavramın tanınmasına yardımcı olma amacına sahiptir.

İncir. 2. Hiyerarşik NMF sistemi. Bir hiyerarşinin her seviyesinde modeller, benzerlik ölçüleri ve eylemler vardır (adaptasyon, bilgi içgüdüsünü maksimize etme - benzerlik dahil). Yüksek düzeyde kısmi benzerlik ölçüleri, belirli bir düzeyde tanınan kavramlara karşılık gelir. Kavram aktivasyonları bu seviyedeki çıkış sinyalleridir ve bilgiyi hiyerarşiye yayarak bir sonraki seviyeye giriş sinyalleri haline gelirler.

Zaman zaman bir sistem yeni bir konsept oluşturur veya eskisini ortadan kaldırır. Her seviyede, NMF sistemi her zaman belirsiz (bulanık) inaktif konsept modellerinden oluşan bir rezerv tutar. Parametreleri verilere uyarlanmadığı için etkisizdirler; bu nedenle sinyallere olan benzerlikleri düşüktür. Yine de, büyük bir belirsizlik (kovaryans) nedeniyle benzerlikler tam olarak sıfır değildir. Yeni bir sinyal etkin modellerin hiçbirine tam olarak uymadığında, etkin olmayan modellere olan benzerliği otomatik olarak artar (çünkü ilk olarak, her veri parçası hesaba katılır ve ikincisi, etkin olmayan modeller belirsizdir ve potansiyel olarak her şeyi "yakalayabilir" daha spesifik, daha az bulanık, aktif modellere uymayan sinyal. Aktivasyon sinyali am etkin olmayan bir model için, m, belirli bir eşiği aşarsa, model etkinleştirilir. Benzer şekilde, belirli bir model için bir aktivasyon sinyali bir eşiğin altına düştüğünde, model devre dışı bırakılır. Etkinleştirme ve devre dışı bırakma için eşikler, genellikle daha yüksek bir hiyerarşik düzeyde var olan bilgilere (önceki bilgiler, sistem kaynakları, çeşitli türlerdeki etkinleştirilmiş modellerin sayısı, vb.) Dayalı olarak belirlenir. Belirli bir seviyedeki aktif modeller için aktivasyon sinyalleri {am } daha soyut ve daha genel kavramların oluştuğu bir sonraki seviyeye giriş sinyalleri olarak hizmet eden bir "nöronal alan" oluşturur.

Referanslar

  1. ^ [1]: Perlovsky, L.I. 2001. Sinir Ağları ve Zeka: model tabanlı kavramları kullanma. New York: Oxford University Press
  2. ^ Perlovsky, L.I. (2006). Zihnin Fiziğine Doğru: Kavramlar, Duygular, Bilinç ve Semboller. Phys. Life Rev. 3 (1), s. 22-55.
  3. ^ [2]: Deming, R.W., Maksimum olabilirlik uyarlamalı sinir sistemi (MLANS) kullanarak otomatik gömülü mayın algılama, Proceedings of Akıllı Kontrol (ISIC), 1998. IEEE International Symposium on Computational Intelligence in Robics and Automation (CIRA), Intelligent Systems and Semiotics (ISAS)
  4. ^ [3]: MDA Teknoloji Uygulamaları Programı web sitesi
  5. ^ [4]: Cangelosi, A .; Tikhanoff, V .; Fontanari, J.F .; Hourdakis, E., Integrating Language and Cognition: A Cognitive Robotics Approach, Computational Intelligence Magazine, IEEE, Volume 2, Issue 3, Ağustos 2007 Sayfa: 65 - 70
  6. ^ [5]: Sensors and Command, Control, Communications and Intelligence (C3I) Technologies for Homeland Security and Homeland Defense III (Proceedings Volume), Editör (ler): Edward M. Carapezza, Tarih: 15 Eylül 2004,ISBN  978-0-8194-5326-6, Bölüme bakın: Terörle mücadele tehdit tahmin mimarisi
  7. ^ Perlovsky, L.I. (1996). Zekanın Matematiksel Kavramları. Proc. Dünya Sinir Ağları Kongresi, San Diego, CA; Lawrence Erlbaum Associates, NJ, s.1013-16
  8. ^ Perlovsky, L.I. (1997). Zihnin Fiziksel Kavramları. Proc. Rusya Bilimler Akademisi, 354 (3), ss. 320-323.
  9. ^ Cramer, H. (1946). İstatistiksel İstatistik Yöntemleri, Princeton University Press, Princeton NJ.
  10. ^ Linnehan, R., Mutz, Perlovsky, L.I., C., Weijers, B., Schindler, J., Brockett, R. (2003). Görüntülerde Dağınıklığın Altındaki Desenlerin Algılanması. Int. Conf. Bilgi Yoğun Çoklu Aracı Sistemlerinin Entegrasyonu Üzerine, Cambridge, MA 1-3 Ekim 2003.

İlişkili