Langsung ke konten utama

Artificial Neural Network

          Selamat siang pemirsa,mumpung lagi males lihat koding kerjaan siang ini saya coba sempatin buat coretan di sini. Mumpung lagi giat giatnya kerjain skripsi saya yang kebetulan bahas tentang jaringan syaraf tiruan, maka kali ini dan mungkin coretan coretan saya selanjutnya akan membahas tentang jaringan syaraf tiruan beserta jajarannya ( jenis jenis,contoh perhitungan dan kalo sempet sekalian kodingnya juga ).
         Artificial Neural Network atau Jaringan syaraf tiruan merupakan suatu konsep rekayasa pengetahuan dalam bidang kecerdasan buatan uang didesain dengan mengadopsi system saraf manusia, yang pemrosesan utamanya ada diotak. Bagian terkecil dari otak manusia adalah sel syaraf yang disebut unit dasar pemrosesan informasi atau neuron. Ada sekitar 10 miliar neuron dalam otak manusia dan sekitar 60 triliun koneksi (disebut sinaps [synapse]) antar neuron dalam otak manusia ( Shhepred dan Koch, 1990 ). Dengan menggunakan neuron – neuron tersebut secara simultan. Otak manusia dapat memproses informasi secara pararel dan cepat, bahkan lebih cepat dari computer tercepat saat ini. 
         Sebuah neuron terdiri dari atas elemen – elemen berikut : badan sel (disebut soma), sejumlah serat yang menyalurkan informasi ke neuron (disebut dendrit), dan sebuah serat tunggal yang keluar dari neuron (disebut akson). Setiap sinyal luar yang diterima oleh dendrite akan melewati sinaps untuk diteruskan ke neuron, kemudian diproses di dalam soma. Setelah selesai akan dikeluarkan melalui akson untuk di proses kembali oleh neuron yang lain ataupun keluar sebagai sinyal hasil proses di otak.(Prasetyo, 2012)  

     Di atas adalah desain umum dari model Jaringan syaraf tiruan, vector masukan (data dalam data mining) terdiri atas sejumlah nilai yang diberikan sebagai nilai masukan pada ANN. Vektor masukan tersebut mempunyai tiga nilai (x1, x2, x3) sebagai fitur dalam data yang akan dip roses di ANN. Masing – masing nilai masukan melewati sebuah hubungan berbobot w, kemudian semua nilai digabungkan. Nilai gabungan tersebut kemudian diproses oleh fungsi aktivasi untuk menghasilkan sinyal y sebagai keluaran. Fungsi aktivasi menggunakan sebuah nilai ambang batas (threshold) untuk membatasi nilai keluaran agar selalu dalam batas nilai yang ditetapkan. (Prasetyo, 2012)  
       ANN menggunakan fungsi aktivasi yang dipakai untuk membatasi keluaran dari neuron agar sesuai dengan batasan sinyal/nilai keluarannya. Secara umum, ada empat macam fungsi aktifasi yang dipakai diberbagai jenis ANN, yaitu (Prasetyo, 2012)  

Fungsi Aktivasi
1.      Fungsi aktivasi linear
       Fungsi aktivasi ini biasanya digunakan untuk keluaran ANN yang nilai keluarannya diskret. Jika v adalah nilai gabungan dari semua vector oleh penambah, sinyal keluaran y didapatkan dengan memberikan nilai v apa adanya untuk menjadi nilai keluaran. Nilai y diformulasikan dengan (Prasetyo, 2012).

Y = sign(v)
keterangan :
v = hasil perkalian input dan bobot
 

2.      Fungsi aktivasi undak (step)
         Jika v adalah nilai gabungan dari semua vector oleh penambah. Keluaran y didapatkan dengan melakukan pengambang ( thresholding ) pada nilai v berdasarkan nilai T yang diberikan. Nilai y diformulasikan dengan

Bentuk diatas disebut juga threshold bipolar, ada juga yang berbentuk step/threshold biner. Formulasinya seperti berikut (Prasetyo, 2012)

3.  Fungsi aktivasi sigmoid biner 
         ANN dengan nilai keluaran kontinu biasanya menggunakan fungsi aktivasi sigmaoid. Nilai sinyal keluaran, y dihitung fungsi sigmoid kurva sigmoid dengan interval nilai keluaran mulai dari 0 sampai 1. Nilai y diformulasikan dengan 



      Parameter a adalah parameter meniringan ( slope ) pada kurva sigmoid yang dihasilkan. Semakin besar nilai a, semakin tegak kurva yang diberikan, dan semakin kecil nilainya, semakin landai kurva diberikan. Umumnya nilai a yang digunakan adalah 1 sehingga formula yang umum digunakan menjadi.( Prasetyo, 2012)


4.      Fungsi aktivasi sigmoid bipolar
       Fungsi aktivasi ini sebenarnya sama dengan sigmoid biner. Hanya saja batas nilai keluaran yang diberikan adalah -1 sampai 1. Fungsi aktivasi ini sangat baik digunakan untuk proses klasifikasi karena lebih tangguh dalam menangani data – data yang banyak didominasi oleh nilai nol. Nilai y diformulasikan dengan. (Prasetyo, 2012).




Nilai parameter a yang digunakan umumnya 1 sehingga formula di atas berubah menjadi.






Sementara sekian dulu ya coretan tentang gambaran umum Jaringan syaraf tiruan ini. Lain kali saya tambahin buat coretan tentang jenis jenis algoritma JST beserta contoh perhitungannya.Sampai jumpa.

referensi saya dapat dari buku Data mining karangan Bpk Eko Prasetyo yang kebetulan saya pakai untuk isi di BAB 3 skripsi saya.
http://www.bukabuku.com/browses/product/9789792932829/data-mining-konsep-dan-aplikasi-menggunakan-matlab.html

Komentar

Postingan populer dari blog ini

Contoh Perhitungan Algoritma Perceptron

      Melanjutkan tulisan saya sebelumnya tentang algoritma perceptron,kali ini saya akan menulis tentang conto perhitungan manual algoritma perceptron. Untuk contoh kasusnya saya menggunakan data logika AND. Cekidot.... Algoritma      Data yang kita gunakan sebagai contoh adalah data logika AND sebagai berikut: x1 x2 target 0 0 0 0 1 0 1 0 0 1 1 1       tentukan bobot awal secara acak, saya pakai contoh w1 = 0,w2 =0, learning rate = 1, bias = 0,maksimal epoh = 10. Disini saya memakai fungsi aktivasi undak biner. Epoh ke 1 Data ke satu x = {0,0}, bobot w = {0,0},b=0,target = 0 y_in = (x1*w1)+(x2*w2)+b = (0*0)+(0*0)+0 = 0 y = sign(0) = 1 karena y != target maka hitung error dan update bobot  error = target - y = 0 - 1 = -1 w1_baru = w1_lama +(learning_rate*error*x1)                = 0 ...

Contoh Perhitungan Algoritma Learning Vector Quantization

Melanjutkan tulisan saya tentang algoritma Learning Vector Quantization yang lalu, kali ini saya akan melanjutkan dengan contoh perhitungan manual. Berikut ini contoh data yang akan kita hitung. No X1 X2 X3 X4 target 1 0 1 1 0 0 2 0 0 1 1 1 3 1 1 1 1 0 4 1 0 0 1 1 pada contoh di atas, saya menggunakan 4 data sebagai data training beserta target yang bertujuan untuk mendapatkan bobot yang akan digunakan pada proses klasifikasi. Bobot awal adalah { 1, 1, 1, 0} dan { 1, 0, 1, 1} dengan learning rate 0,05 dengan fungsi pembelajaran = 0,1. Pelatihan Iterasi ke 1 1. Data ke 1 { 0, 1, 1, 0} dengan target 0, bobot = {{ 1, 1, 1, 0},{ 1, 0, 1, 1}}      - menghitung bobot untuk masing masing output :          kelas 0 = sqrt(((0-1)^2)+((1-1)^2)+((1-1)^2)+((0-...

Part 7 : Normalisasi Histogram

Menyambung tulisan saya yang sebelumnya tentang pengolahan citra khususnya histogram,kali ini saya lanjutkan tentang Normalisasi histogram.Sebelumnya saya harap agan sudah mengerti tentang histogram.Jika belum bisa di baca dulu di tulisan saya sebelumnya di sini . Normalisasi Histogram adalah menskalakan nilai piksel secara linear untuk menggunakan secara penuh jangkauan yang tersedia. Rumus :  Keterangan : n k= nilai grayscale dari piksel ke k(k = 0,1,2,3....) min = nilai grayscale terkecil yang diperoleh dari histogram max = nilai grayscale terbesar L = range nilai grayscale citra Contoh perhitungan : dari tabel di atas,nilai min adalah 2 yaitu nilai grayscale terkecil dari citra dan max adalah 5 s = 0 - 2 /5 - 2 =0 (untuk n = 0)  hasil = 0 x 7(nilai maksimal grayscale) = 0 sk = 3 - 2 /5 - 2 = 0.333  (untuk n = 3) hasil = 0.333 x 7 = 2 keterangan : 7 adalah range grayscale dari citra,dan untuk banyak kasus biasanya memakai 255. Tujuan Normalisasi...