Mesterséges neurális hálók illesztése

Leírás

Ebben a kísérletben több mesterséges neurális hálót tanító algoritmust hasonlítunk össze bináris osztályozási feladat esetén a Spambase adatállományon. Meghatározzuk a kapott osztályozóknak az adatállományon mért osztályozási pontosságát és áttekintjük a kapcsolódó grafikonok értelmezését.

Bemenet

Spambase [UCI MLR]

A modellek illesztése előtt az adatállományt partícionáljuk a Data Partition operátorral 60/20/20 százalékos arányban tanuló/ellenőrző/teszt állományokra.

Kimenet

Először standard mesterséges neurális hálót illesztünk a NeuralNetwork operátorral, ahol a háló topológiáját úgy állítjuk be, hogy többrétegű perceptron legyen, egy rejtett réteget és azon belül 3 rejtett neuront adva meg. A kapott modell illeszkedésének jóságát a szokásos statisztikai mutatókkal (téves osztályozási arány, tévesen osztályozott esetek száma) és grafikus eszközökkel (válasz és lift görbe) ellenőrizhetjük.

19.9. ábra - A többrétegű perceptron illeszkedési statisztikái

A többrétegű perceptron illeszkedési statisztikái

19.10. ábra - A többrétegű perceptron tévesztési mátrixa

A többrétegű perceptron tévesztési mátrixa

19.11. ábra - A többrétegű perceptron modell kumulatív lift görbéje

A többrétegű perceptron modell kumulatív lift görbéje

A szokásos illeszkedésvizsgálati eszközök mellett kapunk olyan, csak a mesterséges neurális hálókra értelmezhető eredményeket is, mint a neuronok súlyait megjelenítő grafikont és a háló tanításának történetét mutató grafikon, ahol a téves osztályozási arány alakulását láthatjuk az iteráció függvényében a tanuló és az ellenőrző adatállományon.

19.12. ábra - A többrétegű perceptron neuronjainak súlyai

A többrétegű perceptron neuronjainak súlyai

19.13. ábra - A többrétegű perceptron tanulási görbéje

A többrétegű perceptron tanulási görbéje

Hasonló grafikonokat kapunk a másik két neurális háló illesztési operátorra, a DMNeural és a AutoNeural operátorokra. Az elsőnél kivétel ez alól az alábbi lépésenkénti optimalizációs statisztika.

19.14. ábra - Lépésenkénti optimalizációs statisztika a DMNeural operátorra

Lépésenkénti optimalizációs statisztika a DMNeural operátorra

19.15. ábra - Az AutoNeural operátorral kapott háló neuronjainak súlyai

Az AutoNeural operátorral kapott háló neuronjainak súlyai

Végezetül, a három modellt a Model Comparison operátorral tudjuk összehasonlítani. Ennek eredményeképpen az alábbi statisztikákat és grafikonokat kapjuk.

19.16. ábra - A neurális hálók illeszkedési statisztikái

A neurális hálók illeszkedési statisztikái

19.17. ábra - Az osztályozási mátrixok oszlopdiagramjai

Az osztályozási mátrixok oszlopdiagramjai

19.18. ábra - A neurális hálók kumulatív lift görbéi

A neurális hálók kumulatív lift görbéi

19.19. ábra - A neurális hálók ROC görbéi

A neurális hálók ROC görbéi

Az eredmények értékelése

A fenti ábrák és statisztikák világosan mutatják, hogy a legjobb modell az első mesterséges neurális háló többrétegű perceptron architektúrával, ahol egy rejtett réteg van 3 neuronnal.

Videó

Folyamat

sas_ann_svm_exp2.xml

Kulcsszavak

mesterséges neurális háló
felügyelt tanulás
osztályozás

Operátorok

Data Source
Model Comparison
Neural Network
Data Partition