Bahan Tayang Modul 4 new version (1).pptx

andipurnawan311 10 views 84 slides Sep 17, 2025
Slide 1
Slide 1 of 84
Slide 1
1
Slide 2
2
Slide 3
3
Slide 4
4
Slide 5
5
Slide 6
6
Slide 7
7
Slide 8
8
Slide 9
9
Slide 10
10
Slide 11
11
Slide 12
12
Slide 13
13
Slide 14
14
Slide 15
15
Slide 16
16
Slide 17
17
Slide 18
18
Slide 19
19
Slide 20
20
Slide 21
21
Slide 22
22
Slide 23
23
Slide 24
24
Slide 25
25
Slide 26
26
Slide 27
27
Slide 28
28
Slide 29
29
Slide 30
30
Slide 31
31
Slide 32
32
Slide 33
33
Slide 34
34
Slide 35
35
Slide 36
36
Slide 37
37
Slide 38
38
Slide 39
39
Slide 40
40
Slide 41
41
Slide 42
42
Slide 43
43
Slide 44
44
Slide 45
45
Slide 46
46
Slide 47
47
Slide 48
48
Slide 49
49
Slide 50
50
Slide 51
51
Slide 52
52
Slide 53
53
Slide 54
54
Slide 55
55
Slide 56
56
Slide 57
57
Slide 58
58
Slide 59
59
Slide 60
60
Slide 61
61
Slide 62
62
Slide 63
63
Slide 64
64
Slide 65
65
Slide 66
66
Slide 67
67
Slide 68
68
Slide 69
69
Slide 70
70
Slide 71
71
Slide 72
72
Slide 73
73
Slide 74
74
Slide 75
75
Slide 76
76
Slide 77
77
Slide 78
78
Slide 79
79
Slide 80
80
Slide 81
81
Slide 82
82
Slide 83
83
Slide 84
84

About This Presentation

a AM, M M Lz


Slide Content

KODING DAN KECERDASAN ARTIFISIAL Pendidikan Dasar dan Menengah Modul 4

Pemrograman Kecerdasan Artifisial Pada Jenjang Pendidikan Menengah

Capaian Pelatihan Capaian Pelatihan Koding & Kecerdasan Artifisial Fase E/F Modul 4 Pada akhir pelatihan, peserta mampu menjelaskan konsep dasar pemrograman KA, menerapkan library kecerdasan artifisial populer untuk menghasilkan aplikasi kecerdasan artifisial, serta menjelaskan konsep dasar, arsitektur, cara kerja, dan aplikasi Large Language Model (LLM). Peserta juga mampu merefleksikan bahwa penggunaan LLM harus bertanggung jawab serta mematuhi prinsip human-centered dan etika yang ada. .

Tujuan Pelatihan Peserta pelatihan mampu menjelaskan konsep dasar pemrograman KA . Peserta pelatihan mampu menerapkan library Kecerdasan Artifisial populer untuk menghasilkan aplikasi kecerdasan artifisial Peserta pelatihan menjelaskan konsep dasar, arsitektur, cara kerja, dan aplikasi Large Language Model sederhana. Peserta pelatihan mampu mengintegrasikan aplikasi KA dengan model bahasa besar. Peserta pelatihan mampu merefleksi bahwa penggunaan LLM harus bertanggung jawab dan mematuhi prinsip human-centered dan etika yang ada .

Kerangka Materi Modul 4 Fase E/F

Alur Pelatihan Modul 4 Kementerian Pendidikan Dasar dan Menengah Materi Tahapan  Aktivitas Tagihan Pemrograman Kecerdasan Artifisial Memahami (Unistruktural & Multistruktural) Menjelaskan konsep dasar pemrograman KA melalui diskusi terpandu. Hasil diskusi Mengaplikasi (Relasional) Menerapkan sintaks dasar bahasa pemrograman KA untuk menulis skrip sederhana yang melibatkan logika KA  Menerapkan library KA populer untuk membangun model sederhana, seperti klasifikasi teks/gambar. Menganalisis output KA menggunakan matriks evaluasi dan melakukan penyempurnaan kode untuk meningkatkan performa. Menyusun dokumentasi teknis yang mencakup alur kerja, kode, dan analisis hasil aplikasi KA yang dikembangkan. LK 4.1 Proyek pemrograman aplikasi KA (supervised/unsupervised learning) menggunakan dataset Merefleksi (Abstrak meluas) Merefleksikan tantangan dan solusi selama mengembangkan aplikasi KA Mengisi jurnal refleksi

Alur Pelatihan Modul 4 (lanjutan) Kementerian Pendidikan Dasar dan Menengah Materi Tahapan  Aktivitas Tagihan Pengenalan LLM Pada KA Generatif Memahami (Unistruktural & Multistruktural) Menjelaskan arsitektur dasar LLM dan cara kerjanya dalam menghasilkan output melalui diskusi. Hasil diskusi Mengaplikasi (Relasional) Membedakan jenis-jenis LLM berdasarkan desain arsitektur dan kasus penggunaan spesifik melalui studi kasus Memadukan LLM ke dalam aplikasi menggunakan framework. Menganalisis kelebihan dan keterbatasan LLM melalui studi kasus output yang dihasilkan Menyusun dokumentasi teknis yang mencakup alur kerja, kode, dan analisis hasil aplikasi KA yang dikembangkan. LK 4.2. Memadukan aplikasi KA dan LLM Menggunakan API Merefleksi (Abstrak meluas) Merefleksikan implikasi etis dalam penggunaan LLM Merefleksikan tantangan dan solusi selama mengembangkan aplikasi KA dan mengintegrasikan LLM Mengisi jurnal refleksi 

Overview Modul 4 Fase E/F Merupakan materi esensial yang membekali guru untuk mengembangkan dan mengajarkan di FASE F, terutama pada elemen (1) Algoritma & Pemrograman, & (2) Pemanfaatan dan Pengembangan Kecerdasan Artifisial ) Topik Bahasan: Dasar Pemrograman Kecerdasan Artifisial Penerapan library Kecerdasan Artifisial Analisis Hasil dan Penyempurnaan Output Aplikasi Kecerdasan Artifisial Konsep Dasar, Arsitektur, dan Cara Kerja Large Language Model Peran Large Language Model dalam Kecerdasan Artifisial Generatif dan Aplikasinya Teknik Integrasi Pemrograman Kecerdasan Artifisial Dengan Model LLM

Dasar Pemrograman Kecerdasan Artifisial

KA dan Machine Learning KA bukan hanya Machine Learning Meskipun banyak yang mengasosiasikan KA secara eksklusif dengan machine learning (ML) karena kemampuannya untuk belajar dari data, KA sebenarnya mencakup spektrum yang jauh lebih luas

Ragam Bahasa Pemrograman Kecerdasan Artifisial

Dasar Pemrograman Python Variabel & Tipe Data Sumber: https://automatetheboringstuff.com/2e/chapter2/ Variabel di Python adalah “kotak” penyimpanan berlabel yang dibuat untuk menyimpan dan mengambil data—seperti angka, teks, atau daftar—selama program berjalan.

Dasar Pemrograman Python (lanjutan) Operator Sumber: https://miro.medium.com/ Operator di Python adalah simbol atau kata kunci (mis . + - * / ** % // and or not ) yang memerintahkan komputer melakukan perhitungan atau logika pada nilai tipe data—seperti int , float , str , bool , list , tuple , set , dan dict — menentukan bentuk serta sifat nilai itu agar operator tahu cara memprosesnya.

Dasar Pemrograman Python Sumber: https://automatetheboringstuff.com/2e/chapter2/ Struktur kontrol di Python adalah perintah seperti if , for , dan while yang mengatur alur eksekusi program sehingga komputer dapat memilih, mengulang, atau melewati blok kode sesuai kondisi yang terjadi.

Dasar Pemrograman Python Function Sumber: https://unstop.com/blog/python-functions Fungsi di Python adalah blok kode bernama yang secara opsional menerima parameter dan mengembalikan nilai (jika diperlukan) , sehingga Anda bisa menjalankan suatu blok kode program berulang-ulang dengan satu panggilan dan menjaga kode tetap rapi.

List (mutable) vs Tuple (immutable) Struktur data merupakan cara untuk menyimpan dan mengelola data. Aplikasi KA melibatkan data dengan jumlah yang besar, sehingga membutuhkan struktur data Struktur Data

Dictionary: pasangan kunci (key) dan nilai (value) Sumber https://jeevangupta.com/python-dictionary-tutorial/ Struktur Data

Numpy Array https://nustat.github.io/DataScience_Intro_python/NumPy.html struktur data N‑dimensional yang menyimpan elemen dengan tipe data sama secara terstruktur dan mendukung operasi vektor Struktur Data

Pandas Series & DataFrame https://www.linkedin.com/posts/devonsuardi31_dataanalysis-pandas-python-activity-7033804160558895105-IkD1/ Pandas Series :daftar satu baris atau satu kolom angka (atau teks) yang tiap elemen punya label (index), mirip daftar nilai ujian dengan nama siswa di sampingnya. Pandas DataFrame: tabel dua dimensi yang punya banyak baris dan kolom—bayangkan lembar kerja Excel—di mana setiap kolom bisa berisi tipe data yang berbeda (misal angka, teks, tanggal) Struktur Data

Aktivitas 1 Diskusi Kelompok

Aktivitas 1 (hal. 31) – Diskusi Kelompok Dalam kelompok kecil (4-5 orang), diskusikan konsep dasar pemrograman KA dan teknik pengajarannya di Fase E & F! Apa saja konsep dasar pemrograman yang dianggap krusial untuk pengembangan aplikasi KA (misalnya variabel, struktur kontrol, fungsi, dan struktur data)? Bagaimana konsep pemrograman berbasis struktur data (list, tuple, dictionary, set) berperan dalam pengolahan dan analisis data pada aplikasi KA? Mengapa Python sering dijadikan pilihan utama dalam pemrograman KA? Apa keunggulan Python dibandingkan bahasa pemrograman lain dalam konteks aplikasi KA? Bagaimana penggunaan IDE (seperti PyCharm, Jupyter Notebook, atau Visual Studio Code) dapat memfasilitasi proses pembelajaran dan pengembangan aplikasi KA?)

Aktivitas 1 (hal. 31) – Diskusi Kelompok Teknik pengajaran apa yang menurut Anda paling efektif dalam menyampaikan konsep dasar pemrograman kepada siswa yang belum memiliki latar belakang mendalam tentang KA? Bagaimana cara mengkombinasikan pendekatan teoritis dan praktis (misalnya, diskusi, laboratorium, dan proyek berbasis coding) untuk mengajarkan pemrograman KA di kelas? Apa jenis evaluasi (misalnya, kuis, tugas coding, proyek kolaboratif) yang paling efektif untuk menilai pemahaman siswa terhadap konsep-konsep pemrograman KA? Bagaimana Anda mendorong siswa untuk merefleksikan proses belajar mereka, terutama terkait tantangan yang dihadapi dalam memahami aspek teknis dan penerapan aplikasi KA?

Pembelajaran Mesin Machine Learning

Pembelajaran mesin adalah cabang kecerdasan artifisial di mana komputer “belajar” dari contoh-contoh data untuk mengenali pola dan kemudian membuat prediksi atau keputusan tanpa instruksi detail untuk setiap situasi baru. Pembelajaran Mesin (Machine Learning)

Penggunaan dataset berlabel ( input dan output yang diketahui) untuk melatih algoritma dalam mengklasifikasikan data atau memprediksi hasil dengan akurat Untuk mengenali gambar apel, maka sistem diberi data gambar yang diberi label sebagai apel. Contohnya adalah pengelompokan ( classification ), pohon keputusan (decision tree), naive bayes, dan regresi ( regression ). Sumber: Dicoding Supervised Learning / Pembelajaran Terawasi

menggunakan data tidak berlabel belajar dari kumpulan data yang tidak diinputkan secara manual oleh manusia (tidak terawasi) dan mengkategorikannya ke dalam berbagai kelompok berdasarkan atributnya jika algoritma diberi input data berupa gambar apel dan pisang, maka algoritma tersebut akan bekerja dengan sendirinya untuk mengkategorikan gambar mana yang merupakan apel dan pisang digunakan dalam pemodelan deskriptif dan pencocokan pola, seperti fuzzy means dan k-means clustering, Sumber: Dicoding Unsupervised Learning / Pembelajaran Tidak Terawasi

menggabungkan keunggulan dari pembelajaran terawasi dan tak terawasi algoritma dilatih menggunakan sejumlah kecil data berlabel dan sejumlah besar data tidak berlabel, dengan tujuan meningkatkan akurasi model tanpa harus memberikan label pada seluruh dataset efektif ketika data tak berlabel mudah didapat, tetapi pelabelannya mahal atau sulit dilakukan banyak digunakan dalam klasifikasi teks, gambar, dan analisis suara berskala besar seperti klasifikasi konten internet, analisis genom, atau pelabelan rekaman suara Sumber: https://www.geeksforgeeks.org/ml-semi-supervised-learning/ Semi Supervised Learning / Pembelajaran Semi Terawasi

belajar melalui praktik : serangkaian uji coba oleh “agen” yang melakukan perbaikan terus menerus berdasarkan feedback loop yang diterima, hingga kinerjanya sesuai dengan harapan Model reinforcement learning banyak digunakan dalam permainan, seperti catur dan maze. Sumber: https://databasecamp.de/en/ml/reinforcement-learnings Reinforcement Learning

Data training atau data latih adalah sekumpulan data yang digunakan untuk melatih model machine learning. Data testing atau data uji adalah kumpulan data yang belum pernah digunakan selama proses pelatihan : digunakan untuk mengukur seberapa baik model dapat menggeneralisasi pengetahuan yang telah didapat ke data baru yang belum dikenal sebelumnya Pemisahan data training dan testing penting untuk dilakukan dengan perhitungan yang seksama, yang bertujuan untuk: Menghindari Bias: Jika data testing ikut digunakan selama training, model pembelajaran mesin bisa saja menghafal data tersebut, yang mengakibatkan kinerja model tampak sangat baik pada data yang sama namun sangat kurang baik saat menghadapi data nyata. Evaluasi Kinerja: Dengan menggunakan data testing yang terpisah, kita dapat mendapatkan gambaran yang lebih jujur tentang kemampuan model dalam memprediksi data yang tidak dikenal. Training & Testing

Contoh Pemisahan Data Training & Testing

Data adalah fakta yang dapat berbentuk teks, angka, gambar, suara, dan lainnya Dataset adalah kumpulan data yang telah disusun , biasanya dalam bentuk matriks, tabel, himpunan (array), ataupun struktur spesifik lainnya Cara mencari dataset: Menggunakan Mesin Pencari: kata kunci spesifik seperti "dataset [topik]" atau "open dataset [topik]“ Platform Dataset Terbuka (UCI, Kaggle, data.gov, dll) Dataset

Jenis/Tipe Dataset

Contoh Cara Load Dataset (Python)

Contoh: Bekerja dengan Dataset Iris Kementerian Pendidikan Dasar dan Menengah https://colab.research.google.com/drive/1vwoldLmLrr5FeSARUVYCBP8MTOm_rABN?usp=sharing : Memuat dan mengonversi dataset ke DataFrame. Eksplorasi data: menampilkan baris pertama, informasi umum, statistik deskriptif, dan pemeriksaan nilai yang hilang.

Data Preparation adalah serangkaian kegiatan yang bertujuan untuk mengumpulkan dan menyiapkan data yang akan digunakan dalam proses pembelajaran mesin . Di dalamnya, termasuk tahap data pre-processing ( serangkaian langkah untuk mengubah data mentah menjadi format yang bersih, terstruktur, dan optimal sebelum dianalisis atau digunakan) Data Preparation & Pre-Processing

Data Preparation & Pre-Processing

Contoh penerapan data preparation & pre-processing menggunakan dataset Indonesia Reading Interest dalam bahasa python: https://colab.research.google.com/drive/1d5yPdFKFB8s6hdP8iWsHB69TPOA6oaHb?usp=sharing

teknik menyajikan data dan hasil analisis model dalam bentuk grafik, diagram, atau peta untuk memudahkan identifikasi pola dan hubungan antar variabel . Teknik Visualisasi Data Deskripsi Kapan Digunakan Histogram Menampilkan distribusi frekuensi dari data numerik. Digunakan untuk memeriksa sebaran dan frekuensi data, seperti mendeteksi normalitas, skewness, atau distribusi nilai. Boxplot Menunjukkan ringkasan statistik data, termasuk median, kuartil, dan outlier. Cocok untuk memahami sebaran data dan mendeteksi nilai ekstrim (outlier) dalam data numerik. Scatter Plot Menggambarkan hubungan antara dua variabel numerik. Digunakan untuk mengevaluasi korelasi atau pola hubungan antara dua variabel, seperti hubungan antara pendapatan dan pengeluaran. Heatmap Menampilkan matriks korelasi antar variabel dalam bentuk visual. Ideal untuk melihat hubungan antar banyak variabel sekaligus, misalnya memeriksa korelasi antar variabel dalam dataset numerik. Bar Plot Menampilkan perbandingan nilai atau frekuensi untuk data kategorik. Digunakan untuk membandingkan nilai agregat (misalnya rata-rata, jumlah) atau frekuensi antar kategori, seperti perbandingan penjualan per produk. Data Visualization

Contoh Visualisasi Data

Proses awal dalam analisis data yang bertujuan untuk memahami karakteristik dataset secara menyeluruh Memahami Struktur Data: Mengetahui jumlah variabel, tipe data (numerik, kategorik, tanggal), dan ukuran dataset. Mengidentifikasi Missing Values dan Outlier: Mendeteksi data yang hilang atau tidak konsisten serta outlier yang dapat mempengaruhi hasil analisis. Mengeksplorasi Distribusi Data: Melihat sebaran data, tren sentral, dan penyebaran dengan bantuan histogram, boxplot, dan density plot. Menguji Asumsi Awal: Memeriksa hubungan antar variabel, seperti korelasi atau asosiasi, yang nantinya dapat digunakan untuk pemodelan. Mendapatkan Wawasan Awal: Memberikan gambaran umum yang mendalam mengenai dataset sehingga dapat menentukan strategi pembersihan data, transformasi, atau pemilihan fitur untuk pemodelan. Exploratory Data Analysis

Exploratory Data Analysis Contoh: https://colab.research.google.com/drive/1BBnmCH8oSt7lcCzMBUD7Fbb4kOQmeCsJ?usp=sharing

Exploratory Data Analysis Berdasarkan grafik di samping: Jumlah Penumpang Pria Lebih Banyak dari Wanita Dari grafik, terlihat bahwa jumlah penumpang laki-laki (male) jauh lebih banyak dibandingkan penumpang perempuan (female). Ini menunjukkan bahwa mayoritas penumpang Titanic adalah pria. Kemungkinan Pengaruh terhadap Tingkat Keselamatan Berdasarkan aturan "Women and children first", wanita memiliki kemungkinan lebih tinggi untuk diselamatkan dibandingkan pria. Perbedaan jumlah ini bisa berpengaruh pada analisis tingkat keselamatan (survival rate).

Exploratory Data Analysis Berdasarkan grafik di samping: Mayoritas Penumpang Berusia 20-40 Tahun Puncak distribusi terlihat di rentang 20-30 tahun, dengan frekuensi tertinggi sekitar 70 penumpang pada kelompok usia sekitar 25 tahun. Rentang usia 30-40 tahun juga cukup banyak, meskipun jumlahnya sedikit lebih rendah. Keberagaman Umur Penumpang: Ada penumpang dari berbagai kelompok umur, mulai dari bayi hingga lansia sekitar 80 tahun. Frekuensi anak-anak (di bawah 10 tahun) cukup rendah tetapi masih terlihat signifikan. Lansia (di atas 60 tahun) memiliki jumlah yang jauh lebih sedikit dibandingkan kelompok usia lainnya. Grafik menunjukkan pola distribusi miring ke kanan (right-skewed), di mana lebih banyak penumpang berusia muda dibandingkan penumpang yang lebih tua. Hal ini masuk akal karena Titanic kemungkinan besar membawa banyak pekerja muda dan keluarga dibandingkan lansia

Training set digunakan untuk melatih model agar dapat mempelajari pola dari data. Testing set digunakan untuk mengevaluasi model dengan data yang belum pernah dilihat oleh model sebelumnya , sehingga kita bisa menilai performa model secara objektif dan mendeteksi masalah seperti overfitting . Memisahkan Data Training & Testing

Model yang paling sederhana adalah garis (regresi linier) dengan persamaan garis y = mx + c, yang menggambarkan pengaruh antara variable x terhadap y Melatih model (pada konteks regresi linier), adalah mencari nilai m dan c yang paling optimal, sehingga garis regresi menjadi garis yang paling akurat dalam merepresentasikan hubungan antara variable dependen dan independen https://colab.research.google.com/drive/1V9ZzDDNcsGprbLsGGGua3GnCmK6Pm-r1?usp=sharing Melatih Model Machine Learning

Melatih Model Seringkali, model berupa garis lurus tidak cukup mewakili. Salah satu model lain, adalah logistic regression yang berbentuk kurva sigmoid Contoh: https://colab.research.google.com/drive/1pk7vycijnjHCn6M5K-rXGh6Do5v0_MGZ?usp=sharing

Melatih Model Dalam kasus lain, mesin perlu mengelompokkan sekumpulan data berdasarkan kemiripannya. K-means clustering adalah algoritma unsupervised learning yang mengelompokkan data ke dalam sejumlah k klaster berdasarkan kesamaan fitur, dengan cara menginisiasi sebanyak k titik pusat (centroid) secara acak, kemudian menetapkan setiap data ke klaster dengan centroid terdekat, dan akhirnya memperbarui posisi centroid berdasarkan rata-rata data dalam klaster tersebut hingga tercapai kondisi konvergen. Contoh: https://colab.research.google.com/drive/1ATmIdTpshocnxqfqZ9wC3QMW6vdREHcH?usp=sharing

Library Pemrograman KA (Python)

Pemrograman KA dipermudah dengan adanya library yang bisa digunakan, sehingga pemrograman tidak selalu melakukan pemrograman dari 0. Contoh library: TensorFlow Scikit-Learn Library Pemrograman KA

Aktivitas 2 Berlatih Menerapkan Library Membuat Deteksi Objek Menggunakan TensorFlow

Aktivitas 2 (Modul 4 Fase E/F - hal. 93) Berlatih Menerapkan Library Membuat Deteksi Objek Menggunakan TensorFlow

Analisis Hasil Pembelajaran Mesin

Nilai koefisien regresi yang optimal adalah yang menghasilkan paling sedikit error.  MAE (Mean Absolute Error): Rata‑rata jarak tiap titik data ke garis prediksi, diukur persis seperti kita mengukur panjang dengan penggaris lalu dijumlahkan dan dibagi banyak titik. MSE (Mean Squared Error): Rata‑rata jarak kuadrat : untuk tiap titik, jaraknya dikuadratkan (jarak × jarak) baru dijumlahkan dan dirata‑ratakan. Contoh: https://colab.research.google.com/drive/1mdxRzWGP1p59opvAFwIXlumwLImO4h9p?usp=sharing Analisis Hasil Regresi

Confusion Matrix Confusion matrix adalah sebuah tabel yang menggambarkan kinerja model klasifikasi dengan membandingkan hasil prediksi model dengan data aktual. Matriks ini menyediakan informasi mengenai: True Positives (TP): Jumlah data positif yang benar-benar diprediksi sebagai positif. True Negatives (TN): Jumlah data negatif yang benar-benar diprediksi sebagai negatif. False Positives (FP) : Jumlah data negatif yang salah diprediksi sebagai positif. False Negatives (FN) : Jumlah data positif yang salah diprediksi sebagai negatif. C ontoh: https://colab.research.google.com/drive/1SM7LTKJ8KPr1ziwyquQzBB3jdUwNpC62?usp=sharing

Metode Siku / Elbow Method Metode siku digunakan untuk menentukan banyaknya klaster yang paling optimal dengan menarik tiap titik data ke pusat klaster dan menghitung jaraknya. Semakin kecil jarak, maka semakin rapat sebuah klaster. Jika jarak-jarak tersebut divisualisasikan dalam sebuah grafik garis, maka akan terbentuk sebuah garis yang menurun tajam di awal, hingga suatu nilai di mana penurunannya menjadi lebih landai . Contoh: https://colab.research.google.com/drive/1lr3qYX9ZurElDfhZtu_yIhJbbyhNQQM7?usp= sharing Nilai k pada metode siku menunjukkan banyak klaster yang optimal untuk digunakan dalam klasterisasi

Lembar Kerja 4.1 Proyek Pemrograman Aplikasi KA (supervised/unsupervised learning) Menggunakan Dataset

Lembar Kerja 4.1 Lembar Kerja ini dirancang untuk membimbing peserta pelatihan dalam menerapkan sintaks dasar pemrograman KA dan membangun aplikasi sederhana berbasis supervised atau unsupervised learning. Kegiatan dilakukan melalui proyek kolaboratif yang bertemakan bidang keahlian masing-masing. Proyek ini mencakup penggunaan library KA populer, evaluasi model dengan tools yang sesuai, hingga penyusunan dokumentasi teknis secara lengkap.

Lembar Kerja 4.1 Setelah menyelesaikan lembar kerja ini, peserta pelatihan diharapkan mampu: Menerapkan sintaks dasar bahasa pemrograman KA untuk menulis skrip sederhana yang melibatkan logika KA. Menerapkan library KA populer untuk membangun model sederhana, seperti klasifikasi teks/gambar. Menganalisis output KA menggunakan matrik evaluasi dan melakukan penyempurnaan kode untuk meningkatkan performa. Menyusun dokumentasi teknis yang mencakup alur kerja, kode, dan analisis hasil aplikasi KA yang dikembangkan.

Lembar Kerja 4.1 (Task #1) Menulis Skrip Sederhana dengan Sintaks Dasar KA Pada bagian ini, Anda akan membangun dasar pemahaman logika pemrograman KA dengan membuat skrip sederhana. Tugas ini bertujuan melatih Anda dalam menggunakan struktur dasar seperti percabangan, perulangan, dan fungsi untuk menciptakan sebuah program yang merespons input pengguna.

Lembar Kerja 4.1 (Task #1) Langkah-langkah: Pilih bahasa pemrograman (Python direkomendasikan). Buatlah sebuah skrip sederhana yang menerima input suhu (dalam derajat Celsius), lalu mencetak: "Panas" jika suhu > 30 "Sejuk" jika suhu antara 20–30 "Dingin" jika suhu < 20 Gunakan input(), int(), dan if-elif-else. Tambahkan minimal 1 fungsi untuk modularisasi kode. Simpan skrip dengan format misalnya .py.

Lembar Kerja 4.1 (Task #2) Membangun Model Sederhana Menggunakan Library KA Pada bagian ini, Anda akan mengembangkan sebuah model pembelajaran mesin sederhana dengan menggunakan pustaka KA populer. Fokus utama adalah pada pemrosesan dataset dan membangun model klasifikasi atau klasterisasi sesuai dengan bidang keahlian di SMA/SMK (misal: guru SMK kelompok pariwisata dapat menggunakan dataset jumlah pengunjung suatu tempat wisata pada tahun tertentu, guru SMK kelompok otomotif dapat menggunakan dataset penjualan mobil listrik pada kurun waktu tertentu, dan lain-lain).

Lembar Kerja 4.1 (Task #2) Langkah-langkah: Pilih salah satu pustaka KA populer: `Scikit-learn`, `TensorFlow`, atau `Keras`. Unduh dataset dari platform dataset terbuka seperti Kaggle, UCI, Google Dataset Search, data.go.id, atau data.gov. Dataset harus memiliki minimal 150 data dan 2–5 fitur utama . Bangun model supervised/ unsupervised learning (contoh: prediksi kelayakan pinjaman berdasarkan profil keuangan, klasifikasi jenis pakaian, analisis kepuasan pelanggan, klasifikasi jenis barang). Lakukan training dan testing model. Simpan notebook `.ipynb` atau `.py` yang berisi seluruh proses. Hasil yang diharapkan: Skrip program KA dengan model klasifikasi yang dapat dijalankan dan menggunakan dataset valid.

Lembar Kerja 4.1 (Task #3 dan #4) Evaluasi dan Penyempurnaan Kode Pada bagian ini berfokus pada kemampuan Anda dalam mengevaluasi dan meningkatkan performa model KA yang telah dibuat. Anda akan menggunakan tools evaluasi yang sesuai dan menyempurnakan kode untuk memperoleh hasil yang lebih optimal Menyusun Dokumentasi Pada bagian ini bertujuan melatih Anda dalam menyusun dokumentasi proyek secara profesional dan lengkap. Dokumentasi akan mencerminkan keseluruhan proses proyek mulai dari perencanaan, pemrograman, evaluasi, hingga refleksi hasil kerja Anda. Baca di Modul 4 Fase E/F di halaman 102-106

Mengenal Model Bahasa Besar Large Language Model (LLM)

Large Language Model adalah sebuah sistem berbasis jaringan syaraf tiruan yang dilatih untuk dapat memahami, memproses, dan menghasilkan teks dalam bahasa alami atau bahasa natural (bahasa yang digunakan manusia sehari-hari dalam berbagai gaya) Attention Is All You Need "   adalah sebuah karya tulis penelitian penting tahun dalam  pembelajaran mesin  yang ditulis oleh delapan ilmuwan yang bekerja di  Google . Karya tulis tersebut memperkenalkan arsitektur  pembelajaran mendalam  baru yang dikenal sebagai  transformer  , berdasarkan  mekanisme perhatian  yang diusulkan pada tahun 2014 oleh Bahdanau et al. Karya tulis tersebut dianggap sebagai karya tulis dasar dalam  kecerdasan buatan  modern , dan kontributor utama bagi  ledakan KA , karena pendekatan transformer telah menjadi arsitektur utama dari berbagai macam KA, seperti  model bahasa besar   Pengenalan Large Language Model (LLM)

LLM menggunakan mekanisme “attention”, yang merupakan teknik pembelajaran mesin yang mengarahkan model deep learning untuk memprioritaskan (atau memperhatikan/ attention / atensi) kepada bagian paling relevan dari data inputan https://www.analyticsvidhya.com/blog/2019/11/comprehensive-guide-attention-mechanism-deep-learning/ Pengenalan Large Language Model (LLM)

Penjelasan Visual tentang LLM https://www.youtube.com/watch?v=LPZh9BOjkQs Sumber: https://learnopencv.com/attention-mechanism-in-transformer-neural-networks/

Penjelasan Visual Tentang Arsitektur Transformer https://www.youtube.com/watch?v=wjZofJX0v4M (Arsitektur Sistem di Dalam LLM)

Representasi Kata: Setiap kata diubah jadi vektor angka (embedding) agar model bisa “membaca” dan membandingkannya satu sama lain. Menentukan Kata Fokus (Query & Key): Untuk tiap kata yang ingin diprediksi atau diproses, model membentuk “query” dan membandingkannya dengan “key” dari semua kata lain untuk menilai seberapa relevan satu sama lain. Menghitung Skor Perhatian: Query dan key dikalikan (dot product) untuk menghasilkan skor—semakin tinggi skor, semakin penting kata itu untuk konteks query. Normalisasi ke Bobot (Softmax): Semua skor diubah lewat fungsi softmax sehingga menjadi bobot antara 0–1 yang jika dijumlahkan totalnya 1; ini membuat model “terfokus” pada kata-kata paling relevan. Membangun Konteks (Value & Weighted Sum): Bobot tadi dipakai untuk mengalikan vektor “value” dari tiap kata, lalu dijumlahkan. Hasilnya adalah vektor konteks yang kaya informasi, digunakan model untuk memprediksi atau menghasilkan kata berikutnya . Cara Kerja Singkat Mekanisme Attention

Visualisasi Cara Kerja Mekanisme Attention https://www.youtube.com/watch?v=eMlx5fFNoYc

Persiapan Data & Tokenisasi : Kumpulkan teks dalam jumlah sangat besar (buku, artikel, web). Setiap kata/frasa diubah menjadi potongan–potongan kecil (token) agar model dapat memprosesnya. Pretraining (Pembelajaran Awal): Model belajar dengan “membaca” token secara berurutan dan mencoba memprediksi token selanjutnya. Parameter (bobot) model diubah sedikit demi sedikit menggunakan algoritma optimisasi (gradient descent) hingga prediksi makin akurat. (Opsional) Fine‑Tuning : Jika ingin model mahir pada tugas khusus (misalnya tanya‑jawab atau terjemahan), model dilatih ulang dengan dataset yang sudah berlabel agar kemampuan sesuai kebutuhan. Tokenisasi & Input Saat Inference: Ketika kita beri teks baru, teks itu kembali diubah jadi token dan dimasukkan ke model yang sudah “terlatih”. Prediksi & Dekode Output: Model menghitung skor untuk setiap token berikutnya menggunakan mekanisme attention dan bobot yang telah dipelajari, lalu memilih token tertinggi (atau sampling). Token–token hasil itu digabung kembali jadi kalimat atau paragraf sebagai jawaban. Referensi video Cara Kerja LLM: https://www.youtube.com/watch?v=5sLYAQS9sWQ Cara Kerja LLM

LLM merupakan inti dari KA Generatif , contohnya pada model GPT (Generative Pre-Trained Transformer) yang banyak digunakan di perangkat KA seperti ChatGPT, ScholarGPT, dan lain-lain LLM banyak berperan dalam chatbot virtual (layanan pelanggan), penulisan dan pembuatan konten, penerjemahan bahasa, dan riset Isu etika yang muncul: bias, diskriminasi, keamanan, penyalahgunaan, dan transparansi model LLM dalam KA Generatif

Integrasi melalui API (Application Programming Interface): OpenAI, Hugging Face, dll Integrasi melalui Pipeline Machine Learning: menggunakan modul seperti PyTorch dan TensorFlow Integrasi melalui pemrograman (Python, JavaScript, dll) Integrasi LLM dengan Aplikasi KA

Aktivitas 3 & Lembar Kerja 4.2 Memadukan LLM ke dalam Aplikasi Chatbot Sederhana

Mendemostrasikan bagaimana proses integrasi LLM ke dalam aplikasi KA dapat dilakukan secara praktis melalui Hugging Face API, dengan studi kasus berupa Pirate Chatbot. Pirate Chatbot ini didesain untuk memberikan respons dengan gaya bahasa bajak laut, sehingga tidak hanya menunjukkan fleksibilitas dan kemampuan model LLM dalam menghasilkan konten yang sesuai konteks, tetapi juga menambahkan unsur hiburan yang unik. Aktivitas 3 – Membuat Pirate Chatbot (Modul 4 Fase E/F Halaman 118)

Mempraktikkan Aktivitas 3 Mengintegrasikan LLM ke aplikasi KA menggunakan Hugging Face API (Pirate Chatbot) pada langkah 1-14 Modifikasi kode program sehingga menerapkan input output serta struktur kontrol bahasa Python, sehingga memungkinkan pengguna memasukkan prompt secara kontinyu (Opsional) Mengembangkan aplikasi sehingga memiliki GUI (Graphical User Interface) yang minimal memiliki media inputan teks untuk memberikan prompt kepada model (bisa dalam bentuk textbox), sebuah area teks untuk menampilkan output dari model, dan sebuah tombol untuk mengeksekusi masukan prompt LK 4.2 Memadukan Aplikasi KA dan LLM (Modul 4 Fase E/F Halaman 125)

Suplemen Modul 4 Fase E/F Orange Data Mining & Contoh Pengerjaan LK 4.2

Machine Learning dengan Orange Data Mining Suplemen ini bertujuan untuk memudahkan pemahaman dan pengaplikasian machine learning dengan antarmuka pemrograman visual, sebelum memasuki pemrograman machine learning berbasis teks (dengan bahasa pemrograman seperti Python). Tautan suplemen dapat diakses melalui: https://docs.google.com/document/d/1L8-t3enQN-_fzoI_bbORMGKiplth3B1Q/edit?usp=sharing&ouid=117901884224837387765&rtpof=true&sd=true   Orange Data Mining

Contoh Aktivitas 3 & LK 4.2 Suplemen ini bertujuan untuk memperjelas dan memberi contoh implementasi Aktivitas 3 dan LK 4.2 pada Modul 4 fase E/F (memadukan LLM dengan aplikasi KA dalam bentuk chatbot sederhana) Versi video (membuat simple chatbot menggunakan Hugging Face dan Gradio) : https://www.youtube.com/watch?v=jan07gloaRg   Contoh Pengerjaan LK 4.2

Contoh Aktivitas 3 & LK 4.2 Versi Google Colab (peserta dapat menggunakan versi ini jika tidak menginginkan penggunaan sumber daya komputasi, seperti GPU, pada laptop/PC. Penjelasan implementasi menggunakan Google Colab dapat dilihat pada tautan: https://docs.google.com/document/d/1SENpIm2QGQWj3ICmdDryNUrzwyDrvHlt/edit?usp=sharing&ouid=117901884224837387765&rtpof=true&sd=true     Versi web yang menggunakan LLM "Qwen/Qwen3-0.6B" . Versi ini dapat diikuti jika tidak menginginkan tahapan permintaan akses yang harus dilalui jika menggunakan model LLM seperti Meta-Llama seperti di Modul 4 Fase E/F. Versi ini dapat dilihat pada tautan: https://docs.google.com/document/d/13jfnte6qg24_yZKu5X6vwKp3jURkSjWj/edit?usp=sharing&ouid=117901884224837387765&rtpof=true&sd=true Contoh Pengerjaan LK 4.2

Refleksi Modul 4 Fase E/F

Bagaimana Anda dapat memastikan bahwa penggunaan LLM dapat dipertanggungjawabkan, baik dalam hal proses pembuatan keputusan maupun dalam penyajian informasi yang dihasilkan? Apa peran transparansi dalam penggunaan LLM dan bagaimana Anda mengomunikasikan keterbatasan serta potensi bias dari model tersebut kepada pengguna? Apa saja bentuk bias yang mungkin muncul pada output LLM, dan bagaimana bias tersebut dapat mempengaruhi keputusan atau opini pengguna? Bagaimana Anda mengevaluasi dan memitigasi bias yang ada dalam model untuk menjamin keadilan dan inclusiveness dalam penggunaannya? Bagaimana penggunaan LLM dapat berdampak pada persepsi masyarakat terhadap kebenaran dan fakta, terutama jika informasi yang dihasilkan tidak diverifikasi secara menyeluruh? Dalam konteks pencegahan disinformasi, langkah-langkah apa yang dapat Anda ambil untuk memastikan bahwa output LLM tidak menimbulkan dampak negatif bagi masyarakat? Refleksi

Mengingat LLM sering digunakan dengan data besar, bagaimana Anda memastikan bahwa privasi pengguna tetap terlindungi dan data sensitif tidak terekspos atau disalahgunakan? Apa saja kebijakan atau praktik terbaik yang dapat diadopsi untuk menjaga keamanan data dalam penggunaan LLM? Bagaimana Anda menyeimbangkan antara inovasi dan penerapan LLM dengan kepatuhan pada aturan hukum serta norma etika yang berlaku? Apa peran etika profesional dalam memandu penggunaan LLM, dan bagaimana Anda menegakkan nilai-nilai tersebut dalam setiap tahap pengembangan dan penerapan? Dalam pengalaman Anda, apakah ada situasi di mana penerapan LLM membawa dilema etis? Bagaimana Anda menyikapi dilema tersebut? Apa komitmen pribadi Anda sebagai pengembang atau pengguna LLM untuk memastikan bahwa teknologi ini digunakan demi kebaikan bersama dan tidak merugikan pihak manapun? Refleksi (lanjutan)

Terima Kasih
Tags