3 research outputs found
A comparison of extreme learning machines and back-propagation trained feed-forward networks processing the MNIST database
This paper compares the classification performance and training times of feed-forward neural networks with one hidden layer trained with the two network weight optimisation methods. The first weight optimisation method used the extreme learning machine (ELM) algorithm. The second weight optimisation method used the back-propagation (BP) algorithm. Using identical network topologies the two weight optimization methods were directly compared using the MNIST handwritten digit recognition database. Our results show that, while the ELM weight optimization method was much faster to train for a given network topology, a much larger number of hidden units were required to provide a comparable performance level to the BP algorithm. When the extra computation due to larger number of hidden units was taken in to account for the ELM network, the computation times of the two methods to achieve a similar performance level was not so different
Peramalan Harga Saham Menggunakan Metode Extreme Learning Machine (ELM) Studi Kasus Saham Bank Mandiri
Saham adalah salah satu jenis investasi yang dapat menghasilkan
keuntungan terbesar. Salah satu masalah yang ada pada investasi saham adalah
sulitnya meramal harga saham sehingga menimbulkan keraguan untuk membeli
atau menjual suatu saham. Metode ELM diimplementasikan untuk peramalan
harga saham dengan studi kasus saham harian Bank Mandiri. Metode ini memiliki
keunggulan berupa waktu pelatihan yang cepat dan nilai error yang rendah. Proses
yang dilakukan adalah melakukan normalisasi terhadap data saham harian Bank
Mandiri, membangkitkan bobot input dan bobot bias, melakukan tahap pelatihan,
melakukan tahap pengujian, melakukan denormalisasi terhadap data hasil
peramalan, dan melakukan evaluasi model menggunakan Mean Absolute
Percentage Error (MAPE). Fitur berupa harga Open, High dan Low akan digunakan
untuk meramal harga saham harian Bank Mandiri. Dari hasil pengujian, didapatkan
nilai MAPE terendah sebesar 1.016% dengan menggunakan fungsi aktivasi
sigmoid, jumlah neuron pada hidden layer sebanyak empat buah neuron dan data
yang digunakan adalah data satu tahun terakhir