9. Jaringan CNNJaringan CNNJaringan.pptx

bensastra 1 views 15 slides Oct 29, 2025
Slide 1
Slide 1 of 15
Slide 1
1
Slide 2
2
Slide 3
3
Slide 4
4
Slide 5
5
Slide 6
6
Slide 7
7
Slide 8
8
Slide 9
9
Slide 10
10
Slide 11
11
Slide 12
12
Slide 13
13
Slide 14
14
Slide 15
15

About This Presentation

Jaringan CNNJaringan CNNJaringanJaringan CNNJaringan CNNJaringanJaringan CNNJaringan CNNJaringanJaringan CNNJaringan CNNJaringanJaringan CNNJaringan CNNJaringanJaringan CNNJaringan CNNJaringanJaringan CNNJaringan CNNJaringanJaringan CNNJaringan CNNJaringanJaringan CNNJaringan CNNJaringanJaringan CNN...


Slide Content

Jaringan Saraf Tiruan (Artificial Neural Network) Bernad J. D. Sitompul, S.Kom ., M.Kom . www.unsrat.ac.id fatek.unsrat.ac.id Universitas Sam Ratulangi

PERCEPTRON www.unsrat.ac.id fatek.unsrat.ac.id

Pendahuluan Perceptron dirancang oleh seorang psikolog bernama Frank Rosenblatt pada tahun 1957. Ditujukan untuk ditanamkan pada suatu mesin . Diimplementasikan pertama kali pada komputer IBM 704. Kemudian pada sebuah mesin bernama “Mark 1 Perceptron” www.unsrat.ac.id fatek.unsrat.ac.id

Pendahuluan Pemberitaan pada saat itu menimbulkan kontroversi Pada tahun 1969, Marvin Minsky dan Seymour Papert dalam bukunya yang berjudul “ Perceptrons ” menunjukkan keterbatasan kemampuan Perceptron Mereka membuktikan bahwa Perceptron tidak dapat menyelesaikan kasus XOR www.unsrat.ac.id fatek.unsrat.ac.id

Pendahuluan Hal tersebut menyebabkan penurunan minat para peneliti untuk mengembangkan Jaringan Saraf Tiruan selama sekitar sepuluh tahun yang disebut neural network winter. www.unsrat.ac.id fatek.unsrat.ac.id

Perceptron Single Layer Perceptron atau sering disebut Perceptron. Lebih baik dari Hebb Rule. Proses pelatihan secara iteratif ( beberapa epoch ). Pada dasarnya , perceptron memiliki bobot yang bisa diatur dan suatu nilai ambang (threshold). www.unsrat.ac.id fatek.unsrat.ac.id

Perceptron Menggunakan parameter learning rate (𝛼) untuk mengatur laju pelatihan Parameter 𝛼 digunakan pada saat mengubah nilai bobot : 𝑤 𝑖( baru ) = 𝑤 𝑖(lama) + 𝛼𝑡𝑥 𝑖 Jika terlalu kecil , maka perubahan nilai bobot sangat kecil pada setiap iterasi dan proses pelatihan akan berjalan lama. Jika terlalu besar , maka perubahan nilai bobot sangat besar pada setiap iterasi dan kemungkinan tidak akan mencapai konvergensi Nilai yang umum digunakan adalah 0.1 www.unsrat.ac.id fatek.unsrat.ac.id

Perceptron Nilai threshold ( θ ) pada fungsi aktivasi adalan non negatif . Menggunakan parameter learning rate ( α ) Parameter α digunakan pada saat memperbaiki atau mengubah nilai bobot . Pada proses pelatihan , dihitung nilai error antara nilai output dan nilai target. Jika tidak ada error ( error = 0), maka bobot tidak diubah . www.unsrat.ac.id fatek.unsrat.ac.id

Perceptron Jika tidak ada perubahan nilai bobot , hentikan proses training . Jika masih ada perubahan bobot , lanjutkan proses training . Jika data latih linearly separable , maka perceptron akan dapat menemukan nilai bobot yang sesuai . Jika tidak , maka proses pelatihan perceptron tidak akan berakhir . www.unsrat.ac.id fatek.unsrat.ac.id

Arsitektur Perceptron x i ... x n Net = b + ∑ x i * w i y f (Net) b w i w ... w n www.unsrat.ac.id fatek.unsrat.ac.id

Algoritma Perceptron Inisialisasi bobot dan bias ( w = 0 ; b = 0) Set learning rate ( α ) ; (0 < α ≤ 1) ; umumnya α = 1 Selama kondisi berhenti bernilai false, lakukan langkah-langkah sebagai berikut : Untuk setiap pasangan pembelajaran s-t, kerjakan : Set input dengan nilai sama dengan vektor input: x i = s i ; Hitung nilai www.unsrat.ac.id fatek.unsrat.ac.id

Algoritma Perceptron www.unsrat.ac.id fatek.unsrat.ac.id

Implementasi Perceptron Fungsi Logika And www.unsrat.ac.id fatek.unsrat.ac.id

Perceptron Fungsi Logika And www.unsrat.ac.id fatek.unsrat.ac.id

Perceptron Fungsi Logika And www.unsrat.ac.id fatek.unsrat.ac.id
Tags