Studi Komparasi Terhadap Kapabilitas Generalisasi dari Jaringan Saraf Tiruan Berbasis Incremental Projection Learning

Authors

  • Hendri Murfi Jurusan Matematika FMIPA - Universitas Indonesia, Depok 16424|e-mail: <a href=" mailto:kusumo@cs.ui.ac.id" >hendri@makara.cso.ui.ac.id</a>| Fakultas Ilmu Komputer - Universitas Indonesia, Depok 16424|e-mail: <a href=" mailto:kusumo@cs.ui.ac.id" >kusumo@c
  • Benyamin Kusumoputro Jurusan Matematika FMIPA - Universitas Indonesia, Depok 16424|e-mail: <a href=" mailto:kusumo@cs.ui.ac.id" >hendri@makara.cso.ui.ac.id</a>| Fakultas Ilmu Komputer - Universitas Indonesia, Depok 16424|e-mail: <a href=" mailto:kusumo@cs.ui.ac.id" >kusumo@c

:

https://doi.org/10.9744/jte.1.2.

Abstract

One of the essences of supervised learning in neural network is generalization capability. It is an ability to give an accurate result for data that are not learned in learning process. One of supervised learning method that theoretically guarantees the optimal generalization capability is incremental projection learning. This paper will describe an experimental evaluation of generalization capability of the incremental projection learning in neural networks%2C called projection generalizing neural networks%2C for solving function approximation problem. Then%2C Make comparison with other general used neural networks%2C i.e. back propagation networks and radial basis function networks. Base on our experiment%2C projection generalizing neural networks doesn%5C%27t always give better generalization capability than the two other neural networks. It gives better generalization capability when the number of learning data is small enough or the noise variance of learning data is large enough. Otherwise%2C it does not always give better generalization capability. Even though%2C In case the number of learning data is big enough and the noise variance of learning data is small enough%2C projection generalizing neural networks gives worse generalization capability than back propagation networks
Abstract in Bahasa Indonesia :

Salah satu hal yang penting dari suatu metode pembelajaran pada jaringan saraf tiruan adalah kapabilitas generalisasi. Yaitu kemampuan untuk memberikan hasil yang akurat terhadap data yang tidak diajarkan pada tahap pembelajaran. Salah satu metode pembelajaran yang memberikan jaminan secara teori diperolehnya kapabilitas generalisasi yang optimal adalah projection learning. Pada tulisan ini kami akan melakukan evaluasi eksperimental terhadap kapabilitas generalisasi dari jaringan saraf tiruan berbasis projection learning yang bersifat incremental%2C yang disebut projection generalizing neural networks%2C untuk memecahkan masalah aproksimasi fungsi. Kemudian melakukan studi komparasi dengan jaringan saraf tiruan yang sudah umum digunakan%2C yaitu back propagation networks dan radial basis functions networks. Berdasarkan hasil uji coba komputasi yang kami lakukan%2C projection generalizing neural networks tidak selalu memberikan kapabilitas generalisasi yang lebih baik. projection generalizing neural networks memberikan kapabilitas generalisasi yang lebih baik ketika jumlah data pembelajaran cukup kecil atau variansi noise dari data pembelajaran cukup besar. Selain dari dua kondisi tersebut%2C projection generalizing neural networks tidak selalu memberikan kapabilitas generalisasi yang lebih baik. Bahkan%2C untuk kondisi dimana jumlah data pembelajaran cukup besar dan variansi noise cukup kecil%2C projection generalizing neural networks memberikan kapabilitas generalisasi yang lebih buruk dari back propagation networks. supervised+learning%2C+incremental+projection+learning%2C+generalization+capability%2C+artificial+neural+networks%2C+function+approximation+problem

Downloads

Published

2006-04-05