Langsung ke konten utama

Contoh Perhitungan Algoritma Perceptron

      Melanjutkan tulisan saya sebelumnya tentang algoritma perceptron,kali ini saya akan menulis tentang conto perhitungan manual algoritma perceptron. Untuk contoh kasusnya saya menggunakan data logika AND. Cekidot....

  1. Algoritma

     Data yang kita gunakan sebagai contoh adalah data logika AND sebagai berikut:

x1 x2 target
0 0 0
0 1 0
1 0 0
1 1 1
      tentukan bobot awal secara acak, saya pakai contoh w1 = 0,w2 =0, learning rate = 1, bias = 0,maksimal epoh = 10. Disini saya memakai fungsi aktivasi undak biner.

Epoh ke 1

Data ke satu x = {0,0}, bobot w = {0,0},b=0,target = 0

y_in = (x1*w1)+(x2*w2)+b = (0*0)+(0*0)+0 = 0
y = sign(0) = 1

karena y != target maka hitung error dan update bobot
 error = target - y = 0 - 1 = -1
w1_baru = w1_lama +(learning_rate*error*x1)
               = 0 + (1*(-1)*0) = 0
w2_baru = w2_lama +(learning_rate*error*x2)
               = 0+(1*(-1)*0) = 0
bias_baru = bias_lama + (learning_rate*error)
                = 0 +(1*(-1)) = -1

maka didapat bobot baru w = {0,0},b = -1 dan lanjutkan untuk data yang ke dua

Data ke dua x = {0,1},w = {0,0} ,b=-1,target = 0


y_in = (x1*w1)+(x2*w2)+b = (0*0)+(1*0)+(-1) = -1
y = sign(-1) = 0

karena y == target maka tidak perlu dilakukan perbaikan bobot dan lanjutkan untuk data yang ke tiga

Data ke tiga x = {1,0},w = {0,0},b = -1 target = 0


y_in = (x1*w1)+(x2*w2) +b= (1*0)+(0*0)+(-1) = -1
y = sign(-1) = 0

karena y == target maka tidak perlu dilakukan perbaikan bobot dan lanjutkan untuk data yang ke empat

Data ke empat x = {1,1} w = {0,0},b = -1 target = 1

y_in = (x1*w1)+(x2*w2)+b = (1*0)+(1*0)+(-1) = -1
y = sign(-1) = 0

karena y != target maka hitung error dan update bobot
 error = target - y = 1 - 0 = 1
w1_baru = w1_lama +(learning_rate*error*x1)
               = 0 + (1*(1)*1) = 1
w2_baru = w2_lama +(learning_rate*error*x2)
               = 0+(1*(1)*1) = 1
bias_baru = bias_lama + (learning_rate*error)
                = -1 +(1*1) = 0

maka didapat bobot baru w = {1,1},b = 0 dan lanjutkan untuk data selanjutnya

karena di epoh pertama masih ada eror, maka perhitungan di lanjutkan ke epoh berikutnya

Epoh ke dua

Data ke satu dengan x = {0,0},w = {1,1},b=0,target = 0

y_in = (x1*w1)+(x2*w2)+b = (0*1)+(0*1)+0 = 0
y = sign(0) = 1

karena y != target maka hitung error dan update bobot
 error = target - y = 0 - 1 = -1
w1_baru = w1_lama +(learning_rate*error*x1)
               = 1 + (1*(-1)*0) = 1
w2_baru = w2_lama +(learning_rate*error*x2)
               = 1+(1*(-1)*0) = 1
bias_baru = bias_lama + (learning_rate*error)
                = 0 +(1*(-1)) = -1
maka didapat bobot baru w = {1,1},b=-1 dan lanjutkan untuk data yang ke dua

Data ke dua dengan x = {0,1},w = {1,1},b=-1,target = 0

y_in = (x1*w1)+(x2*w2)+b = (0*1)+(1*1)+(-1) = 0
y = sign(0) = 1

karena y != target maka hitung error dan update bobot
 error = target - y = 0 - 1 = -1
w1_baru = w1_lama +(learning_rate*error*x1)
               = 1 + (1*(-1)*0) = 1
w2_baru = w2_lama +(learning_rate*error*x2)
               = 1+(1*(-1)*1) = 0
bias_baru = bias_lama + (learning_rate*error)
                = -1 +(1*(-1)) = -2
maka didapat bobot baru w = {1,0},b=-2 dan lanjutkan untuk data yang ke tiga

Data ke tiga dengan x = {1,0}, w = {1,0}, b=-2, target = 0

y_in = (x1*w1)+(x2*w2)+b = (1*1)+(0*0)+(-2) = -1
y = sign(-1) = 0

karena y == target maka tidak perlu dilakukan perbaikan bobot dan lanjutkan untuk data yang ke empat

Data ke empat dengan x ={1,1},w ={1,0},b=-2, target = 1

y_in = (x1*w1)+(x2*w2)+b = (1*1)+(1*0)+(-2) = -1
y = sign(-1) = 0

karena y != target maka hitung error dan update bobot
 error = target - y = 1 - 0 = 1
w1_baru = w1_lama +(learning_rate*error*x1)
               = 1 + (1*1*1) = 2
w2_baru = w2_lama +(learning_rate*error*x2)
               = 0+(1*1*1) = 1
bias_baru = bias_lama + (learning_rate*error)
                = -2 +(1*1) = -1

maka didapat bobot baru w = {2,1},b=-1. Karena di epoh ke dua masih ada error,maka di lanjut ke epoh selanjutnya.

Epoh ke tiga

Data ke satu dengan x = {0,0},w = {2,1},b=-1,target = 0

y_in = (x1*w1)+(x2*w2)+b = (0*2)+(0*1)+(-1) = -1
y = sign(-1) = 0

karena y == target maka tidak perlu dilakukan perbaikan bobot dan lanjutkan untuk data yang ke dua

Data ke dua dengan x = {0,1},w = {2,1},b=-1,target = 0

y_in = (x1*w1)+(x2*w2)+b = (0*2)+(1*1)+(-1) = 0
y = sign(0) = 1

karena y != target maka hitung error dan update bobot
 error = target - y = 0 - 1 = -1
w1_baru = w1_lama +(learning_rate*error*x1)
               = 2 + (1*(-1)*0) = 2
w2_baru = w2_lama +(learning_rate*error*x2)
               = 1+(1*(-1)*1) = 0
bias_baru = bias_lama + (learning_rate*error)
                = -1 +(1*(-1)) = -2
maka didapat bobot baru w = {2,0},b=-2 dan lanjutkan untuk data yang ke tiga

Data ke tiga dengan x = {1,0}, w = {2,0}, b=-2, target = 0

y_in = (x1*w1)+(x2*w2)+b = (1*2)+(0*0)+(-2) = 0
y = sign(0) = 1

karena y != target maka hitung error dan update bobot
 error = target - y = 0 - 1 = -1
w1_baru = w1_lama +(learning_rate*error*x1)
               = 2 + (1*(-1)*1) = 1
w2_baru = w2_lama +(learning_rate*error*x2)
               = 0+(1*(-1)*0) = 0
bias_baru = bias_lama + (learning_rate*error)
                = -2 +(1*(-1)) = -3
maka didapat bobot baru w = {1,0},b=-3 dan lanjutkan untuk data yang ke empat

Data ke empat dengan x ={1,1},w ={1,0},b=-3, target = 1

y_in = (x1*w1)+(x2*w2)+b = (1*1)+(1*0)+(-3) = -2
y = sign(-2) = 0

karena y != target maka hitung error dan update bobot
 error = target - y = 1 - 0 = 1
w1_baru = w1_lama +(learning_rate*error*x1)
               = 1 + (1*1*1) = 2
w2_baru = w2_lama +(learning_rate*error*x2)
               = 0+(1*1*1) = 1
bias_baru = bias_lama + (learning_rate*error)
                = -3 +(1*1) = -2

maka didapat bobot baru w = {2,1},b=-2. Karena di epoh ke dua masih ada error,maka di lanjut ke epoh selanjutnya.

Epoh ke empat

Data ke satu dengan x = {0,0},w = {2,1},b=-2,target = 0

y_in = (x1*w1)+(x2*w2)+b = (0*2)+(0*1)+(-2) = -2
y = sign(-2) = 0

karena y == target maka tidak perlu dilakukan perbaikan bobot dan lanjutkan untuk data yang ke dua

Data ke dua dengan x = {0,1},w = {2,1},b=-2,target = 0

y_in = (x1*w1)+(x2*w2)+b = (0*2)+(1*1)+(-2) = -1
y = sign(-1) = 0

karena y == target maka tidak perlu dilakukan perbaikan bobot dan lanjutkan untuk data yang ke tiga

Data ke tiga dengan x = {1,0}, w = {2,1}, b=-2, target = 0

y_in = (x1*w1)+(x2*w2)+b = (1*2)+(0*1)+(-2) = 0
y = sign(0) = 1

karena y != target maka hitung error dan update bobot
 error = target - y = 0 - 1 = -1
w1_baru = w1_lama +(learning_rate*error*x1)
               = 2 + (1*(-1)*1) = 1
w2_baru = w2_lama +(learning_rate*error*x2)
               = 1+(1*(-1)*0) = 1
bias_baru = bias_lama + (learning_rate*error)
                = -2 +(1*(-1)) = -3
maka didapat bobot baru w = {1,1},b=-3 dan lanjutkan untuk data yang ke empat

Data ke empat dengan x ={1,1},w ={1,1},b=-3, target = 1

y_in = (x1*w1)+(x2*w2)+b = (1*1)+(1*1)+(-3) = -1
y = sign(-1) = 0

karena y != target maka hitung error dan update bobot
 error = target - y = 1 - 0 = 1
w1_baru = w1_lama +(learning_rate*error*x1)
               = 1 + (1*1*1) = 2
w2_baru = w2_lama +(learning_rate*error*x2)
               = 1+(1*1*1) = 2
bias_baru = bias_lama + (learning_rate*error)
                = -3 +(1*1) = -2

maka didapat bobot baru w = {2,2},b=-2. Karena di epoh ke dua masih ada error,maka di lanjut ke epoh selanjutnya sampai tidak ada error untuk setiap data dalam satu iterasi atau epoh mencapai maksimal epoh.

Setelah iterasi berhenti,entah itu karena tidak ada error atau jumlah epoh terpenuhi,maka nilai bobot w dan bias b di gunakan dalam proses klasifikasi dengan rumus : 

y_in = (input_1*bobot_1)+(input_2*bobot_2)+......(input_n*bobot_n)+b
output = sign(y_in)

Sementara cukup sekian tulisan saya kali ini. Untuk tulisan selanjutnya akan saya beri contoh program sederhana implementasi dari algoritma perceptron ini. See you.

Komentar

  1. Trims gan... sangat mencerahkan...

    BalasHapus
  2. Data ke berapa yg dimasukkan klasifikasinya? Trus kalau sudah d klasifikasikan, apa penjelasannya? Mohon bantuannya terimakasih

    BalasHapus
    Balasan
    1. data yang di klasifikasikan adalah data uji, jadi di awal data dibagi menjadi dua yaitu data latih dan data uji. Data uji dipakai untuk mendapatkan nilai akurasi dari sistem yang dibuat

      Hapus
  3. Bang aktivasi undak biner itu kan 0 jika X<=0 dan 1 jika X>0 kan ?kenapa diatas jika 0 maka aktivasinya 1 ? Lalu jika data logika nya XOR berarti jika nilai sama berarti False ? Kebalikan dr yg diatas ?

    BalasHapus
    Balasan
    1. kalau gak salah, algoritma perceptron gak bisa dipakai buat kasus yg tidak linear ky logika XOR, jadi untuk logika XOR dan kasus tidak linear yg lain biasanya pakai backpropagation atau pakai ANN Learning Vector Quantization, atau pakai ANN Voted Perceptron

      Hapus
  4. Komentar ini telah dihapus oleh pengarang.

    BalasHapus
  5. Cara menghitung AND Dalam Format Hipolar dengan Methods Perception gmn? Ada Yg tau gk, kalau Ada yg tau silhkn Kontak Saya Di IG @evanjaya09

    BalasHapus
  6. untuk rumus sqgmoid bagaimana perhitungan/rumusnya min?

    BalasHapus
    Balasan
    1. sigmoid nya jika y >=0 maka outputnya 1, jika tidak outputnya 0

      Hapus
  7. Karkalau learning rate nya 0,6 gimans

    BalasHapus

Posting Komentar

Postingan populer dari blog ini

Contoh Perhitungan Algoritma Learning Vector Quantization

Melanjutkan tulisan saya tentang algoritma Learning Vector Quantization yang lalu, kali ini saya akan melanjutkan dengan contoh perhitungan manual. Berikut ini contoh data yang akan kita hitung. No X1 X2 X3 X4 target 1 0 1 1 0 0 2 0 0 1 1 1 3 1 1 1 1 0 4 1 0 0 1 1 pada contoh di atas, saya menggunakan 4 data sebagai data training beserta target yang bertujuan untuk mendapatkan bobot yang akan digunakan pada proses klasifikasi. Bobot awal adalah { 1, 1, 1, 0} dan { 1, 0, 1, 1} dengan learning rate 0,05 dengan fungsi pembelajaran = 0,1. Pelatihan Iterasi ke 1 1. Data ke 1 { 0, 1, 1, 0} dengan target 0, bobot = {{ 1, 1, 1, 0},{ 1, 0, 1, 1}}      - menghitung bobot untuk masing masing output :          kelas 0 = sqrt(((0-1)^2)+((1-1)^2)+((1-1)^2)+((0-0)^2)) = 1         kelas 1 = sqrt(((0-1)^2)+((1-0)^2)+((1-

Pemrograman Berorientasi Object - Overloading dan Overriding

       Function atau method overloading dan override adalah fitur yang sangat mendasar dan berguna dari bahasa OOP manapun. Dalam tutorial ini kita akan membahas implementasi metode overloading dan override di php. Di sini pertama kita akan membahas dasar-dasar overloading dan override. Setelah eksplorasi dasar kita akan menerapkan overloading dan override di php. Sebelum melangkah lebih jauh, saya mengasumsikan bahwa Anda memiliki pengetahuan dasar tentang class dan pewarisan di php. Anda juga memiliki pemahaman tentang magic method di php. Magic method karena overloading di php bisa di implmentasikan dengan menggunakan magic method. Overriding        Arti dasar dari overriding di OOP sama dengan arti kata sebenarnya. Dalam arti kata sebenarnya dari overriding adalah menggantikan perilaku orang tua yang sama pada anak. Ini sama dengan override method di OOP. Dalam arti OOP, override adalah mengganti method class induk di class anak. Atau dengan method kata kunci sederhana yang me