resume uji asumsi klasik jejejjekel 6 .pdf

bidadaricantik240805 3 views 37 slides Oct 22, 2025
Slide 1
Slide 1 of 37
Slide 1
1
Slide 2
2
Slide 3
3
Slide 4
4
Slide 5
5
Slide 6
6
Slide 7
7
Slide 8
8
Slide 9
9
Slide 10
10
Slide 11
11
Slide 12
12
Slide 13
13
Slide 14
14
Slide 15
15
Slide 16
16
Slide 17
17
Slide 18
18
Slide 19
19
Slide 20
20
Slide 21
21
Slide 22
22
Slide 23
23
Slide 24
24
Slide 25
25
Slide 26
26
Slide 27
27
Slide 28
28
Slide 29
29
Slide 30
30
Slide 31
31
Slide 32
32
Slide 33
33
Slide 34
34
Slide 35
35
Slide 36
36
Slide 37
37

About This Presentation

spm


Slide Content

KlasikKlasik
Uji Asumsi
Statistika Multivariat
A2
Kelompok 6

Rahma Fadila (2310531026) Reva Febreni (2310531028)
Raidah Putri (2310531044)Saghira Izzani (2310531041)
Zahwa Fachreza (2310532021)
Kelompok 6
1)
2)
3)
4)
Anggota
5)

No Y (Hasil Panen) X1 (Pupuk)
X2
(Curah hujan)
1 5,2 100 200
2 6,8 150 250
3 4,5 80 180
4 7,1 170 300
5 5,9 120 210
6 8,3 200 350
7 4,0 70 150
8 6,5 140 280
9 5,7 110 220
10 7,9 180 320
Produktivitas Tanaman Pertanian
Hipotesis
H1: Pupuk dan curah hujan tidak
memengaruhi hasil panen.
Ho: Pupuk dan curah hujan
berpengaruh positif terhadap hasil
panen.
Variabel:
Y = Hasil Panen (ton/hektar)
X1 = Penggunaan Pupuk (kg/hektar)
X2 = Curah Hujan (mm/musim)
Data:

Linearitas
Linearitas adalah asumsi bahwa hubungan antara variabel independen
(X) dan variabel dependen (Y) bersifat linier, yaitu bisa digambarkan
dengan garis lurus.
Contoh sederhana:
Misalnya: Jumlah jam belajar (X) berbanding lurus dengan nilai ujian (Y).
Kalau hubungan ini linier, maka setiap tambahan 1 jam belajar akan
menaikkan nilai dengan jumlah yang konsisten.
#
#
Jika X naik, maka Y juga naik atau turun secara proporsional dan
konsisten. Uji linearitas memastikan bahwa model regresi linear layak
digunakan. Jika hubungan tidak linear, maka hasil regresi bisa
menyesatkan (model tidak akurat).#

Linearitas
Cara untuk
mendeteksi
linearitas
2. Dari scatterplot (ZRESID vs ZPRED):
Jika titik-titik menyebar acak dan tidak membentuk pola tertentu → linier.
Jika titik-titik membentuk pola melengkung (seperti U atau gelombang) →
tidak linier.
3. Scatterplot X vs Y Langsung
Selain grafik residual, kamu juga bisa membuat scatterplot langsung antara X
dan Y (variabel bebas dan terikat).
Jika titik-titik terlihat membentuk garis lurus atau mendekati lurus (meskipun
tidak harus sempurna), maka hubungan dinyatakan linier.
1. Dari hasil uji statistik (Test for Linearity di SPSS):
Lihat nilai Significance (Sig.) pada baris “Deviation from Linearity”.
Jika Sig. > 0,05 → hubungan linier
Jika Sig. ≤ 0,05 → hubungan tidak linier.

Cara mengatasi
Linearitas
3. Segmentasi Data
Bagi data dalam kelompok (misalnya usia muda &
tua), lalu analisis terpisah.
1.Transformasi Data
Gunakan log, akar, kuadrat, atau invers. Tujuannya:
mengubah hubungan non-linier jadi linier.
Contoh: Y = log(Y) atau X².
4. Gunakan Model Lain
Jika hubungan sangat kompleks, gunakan
model seperti Decision Tree atau Random
Forest yang tidak butuh linearitas.
2. Regresi Non-Linear
Gunakan model seperti regresi polinomial (misalnya: Y =
a + bX + cX²) atau eksponensial jika transformasi gagal.

Langkah-langkah di SPSS
Buka SPSS dan
masukkan data
Klik menu Analyze
→ Compare Means
→ Means...
Klik OK
Linearitas
Di jendela yang muncul:
Masukkan variabel
dependen (Y) ke kotak
Dependent List.
Masukkan variabel
independen (X) ke
kotak Independent
List.
Klik tombol
Options.
Centang kotak
"Test for
linearity", lalu
klik Continue.

Interpretasi:
Titik-titik terlihat menyebar acak di sekitar garis
horizontal 0.
Tidak terlihat pola lengkung (seperti huruf U atau ∩),
yang biasanya menunjukkan hubungan non-linear.
Kesimpulan: Asumsi linearitas terpenuhi (Ho diterima)
Linearitas
Hasil Pengujian Linearitas

Multikolinearitas
Multikolinearitas adalah pengujian yang dilakukan untuk mengetahui
apakah terdapat korelasi linear yang kuat atau sempurna antar variabel
independen (variabel bebas) dalam suatu model regresi.
Multikoliniaritas dapat menyebabkan masalah seperti peningkatan
standar error koefisien regresi, sehingga nilai t-hitung menjadi kecil dan
koefisien regresi menjadi tidak stabil dan sulit diinterpretasikan dengan
tepat.
#
#
Uji multikolinearitas penting dilakukan untuk memastikan tidak ada
korelasi terlalu tinggi antara variabel bebas dalam model regresi. Jika
variabel-variabel saling terkait erat, hasil analisis menjadi kurang
akurat.#

Multikolinearitas
Cara untuk
mendeteksi
multikolinearitas
Tolerance: Mengukur sejauh mana sebuah variabel independen tidak
dijelaskan oleh variabel independen lainnya
Nilai tolerance < 0,1 : ada multikolinearitas
Nilai tolerance > 0,1 : tidak ada multikolinearitas
Koefisien Korelasi Antar Variabel Bebas:
Jika nilai korelasi antar variabel bebas > 0,8, maka bisa menyebabkan
multikolinearitas.
Condition Index dan Eigenvalue: Metode tambahan yang bisa digunakan untuk
mendeteksi multikolinearitas. Jika condition index lebih dari 30 dan nilai
eigenvalue sangat kecil, itu tanda ada multikolinearitas.
VIF (Variance Inflation Factor): Digunakan untuk mendeteksi multikolinearitas
di antara variabel bebas (independen) dalam regresi linier.
Nilai VIF > 10 menunjukkan multikolinearitas
Nilai VIF< 10 tidak terjadi multikolinearitas

Cara mengatasi
multikolinearitas
Gunakan Analisis Komponen Utama (PCA) untuk
mengubah variabel yang berkorelasi menjadi
variabel baru yang tidak saling berkaitan, sehingga
model jadi lebih stabil.
Hapus variabel yang saling berkorelasi sangat
tinggi, dengan memilih salah satu variabel yang paling
relevan untuk dipertahankan dalam model
Tambah jumlah data (sampel) agar model punya
lebih banyak informasi dan korelasi antar variabel
berkurang.
Gunakan metode khusus seperti Ridge atau
Lasso regression, yang membantu
mengurangi pengaruh variabel yang saling
berkaitan tanpa harus menghapusnya.
Ubah data dengan cara transformasi seperti
logaritma atau standarisasi supaya hubungan antar
variabel tidak terlalu kuat.

Langkah-langkah di SPSS
Buka SPSS dan
masukkan data
Klik menu Analyze →
pilih Regression → lalu
klik Linear…
Klik OK
Klik tombol Statistics…, lalu:
Centang Collinearity diagnostics
(untuk melihat VIF & Tolerance)
Klik Continue
Multikolinearitas
Masukkan:
Y (variabel dependen)
ke kotak Dependent
X1, X2, dst (variabel
independen) ke kotak
Independent

Berdasarkan hasil pengujian, ditemukan adanya
multikolinearitas antara penggunaan pupuk
dan curah hujan dalam mempengaruhi hasil
panen. Nilai VIF yang mencapai 24,677 dan
Tolerance sebesar 0.041 menunjukkan korelasi
yang sangat erat antara kedua variabel ini.
Multikolinearitas
Hasil Pengujian Multikolinearitas
Hipotesis (Ho) bahwa pupuk dan curah
hujan berpengaruh positif terhadap
hasil panen tidak dapat dipastikan
secara valid karena adanya
multikolinearitas yang sangat tinggi
antara kedua variabel.

Homoskedastisitas
Homoskedastisitas adalah kondisi dimana varians dari residual
(error/kesalanan Prediksi) pada model regresi harus bersifat tetap atau
konstan untuk semua nilai variabel independen (X).
Homoskedastisitas penting karena membuat estimasi koefisien regresi
menjadi efisien dan uji statistik (Uji t dan F) menjadi valid, sehingga
model regresi dapat memberikan hasil yang akurat.
#
#
#
Jika varians error berubah-ubah/tidak konstan berarti terjadi
heteroskedastisitas, maka estimasi koefisien regresi menjadi tidak
efisien dan model regresi tetap bisa dijalankan, namun hasilnya tidak
bisa diandalkan.

Cara Mendeteksi
Homoskedastisitas
Uji statistik untuk mendeteksi apakah varians residual tergantung
pada nilai variabel independen.
Jika nilai signifikansi > 0,05 , maka terjadi homoskedastisitas
Jika nilai signifikansi < 0,05 , maka terjadi heteroskedastisitas
Uji Breusch-Pagan
Uji White
Uji Plot Residual
Buat grafik sumbu Y: residual, sumbu X: nilai prediksi (fitted).
Homoskedastisitas: titik-titik menyebar acak, tidak membentuk pola.
Heteroskedastisitas: titik-titik membentuk pola tertentu (misalnya,
seperti kerucut atau garis yang melengkung)
Uji ini mirip dengan uji Breusch-Pagan, tetapi juga
mempertimbangkan interaksi antara variabel independen.
Nilai p-value < 0,05 juga menunjukkan adanya heteroskedastisitas.

Cara mengatasi
Heteroskedastisitas
Transformasi Inverse Logaritma Natural.
Variabel-variabel di dalam ditransformasi ke dalam
bentuk satu per logaritma natural dari variabel, yaitu
misalnya variabel X1 menjadi 1/(LN X1). Sehingga
apabila model awalnya adalah: Y = b0 + b1 X1 + b2 X2 +
e, maka akan diubah menjadi 1/LN(Y) = b0 + b1 1/LN(X1)
+ b2 1/LN(X2) + e.
Transformasi Data
Transformasi Logaritma Natural.
variabel-variabel di dalam ditransformasi ke dalam
bentuk logaritma natural dari variabel, yaitu misalnya
variabel X1 menjadi (LN X1). Sehingga apabila model
awalnya adalah: Y = b0 + b1 X1 + b2 X2 + e, maka akan
diubah menjadi LN(Y) = b0 + b1 LN(X1) + b2 LN(X2) + e.

Cara mengatasi
Heteroskedastisitas
Weighted Least Square atau WLS.
Metode regresi dengan menggunakan pembobot untuk mengatasi heteroskedastisitas. Pembobot
didasarkan pada variabel bebas yang berkorelasi kuat dengan residual, agar varians error menjadi stabil.
Robust Standard Error.
Mengatasi heteroskedastisitas tanpa harus mengubah bentuk model regresi. Dalam metode ini,
perhitungan standar error disesuaikan agar tahan terhadap pelanggaran asumsi heteroskedastisitas.
Koefisien estimasi tetap valid dan tidak bias, karena menggunakan standar error yang telah diperkuat,
dikenal sebagai Huber-White standard error.

Langkah-langkah di SPSS
Buka SPSS dan
masukkan data
Klik menu Analyze →
pilih Regression → lalu
klik Linear…
Klik OK
Klik Continue
Homoskedastisitas
Tekan tombol Plots
Masukkan variabel
SRESID pada sumbu Y
Masukkan variabel
ZPRED pada sumbu x

Pola Titik:
Titik-titik tersebar secara acak di sekitar garis
horizontal nol.
Tidak tampak pola melengkung, berbentuk kipas,
atau pola lainnya.
Asumsi Homoskedastisitas:
Karena titik-titik menyebar secara acak dan tidak
membentuk pola tertentu, maka asumsi
homoskedastisitas (varian residual konstan)
dapat dianggap tidak dilanggar.
Ini berarti model regresi memiliki varian residual
yang tersebar secara merata di semua nilai
prediksi.
Hasil Pengujian Homoskedastisitas
Karena titik-titik pada scatterplot tersebar acak tanpa
pola tertentu, maka tidak ada indikasi pelanggaran
asumsi homoskedastisitas, sehingga:
H₀ tidak ditolak → Hipotesis homoskedastisitas
terpenuhi.

Autokorelasi
Autokorelasi adalah kondisi di mana terdapat korelasi antara residual (error)
dari observasi satu dengan observasi lainnya dalam model regresi. Dalam
model yang baik, residual harus independen (tidak berkorelasi). Autokorelasi
sering terjadi pada data time series atau data yang memiliki pola berulang.
Konsep dalam Uji Asumsi Klasik
Dalam Gauss-Markov Theorem, model regresi linier klasik (OLS) harus memenuhi
asumsi:
1.Non-Autokorelasi (No Serial Correlation):
Cov(εi,εj)=0Cov(εi​,εj​)=0 untuk i≠j (residual tidak saling memengaruhi).
2.Jika autokorelasi terjadi:
Estimasi OLS tetap tidak bias, tetapi tidak efisien (varian tidak minimum).
Standar error menjadi bias → Uji tt, FF, dan interval kepercayaan tidak valid.
Koefisien determinasi (R2R2) bisa menyesatkan.

Autokorelasi
Jenis Autokorelasi
1.Autokorelasi Positif:
Residual cenderung mengikuti pola (misal: residual positif diikuti residual
positif).
Contoh: Inflasi yang terus meningkat.
2. Autokorelasi Negatif:
Residual berosilasi (positif-negatif-positif).
Contoh: Oversupply dan shortage berulang dalam pasar komoditas.

Hipotesis
Normalitas
Dalam pengujian autokorelasi, hipotesis yang digunakan:
H0​: Tidak ada autokorelasi (ρ=0).
H1​: Ada autokorelasi (ρ≠0).

a. Uji Durbin-Watson (DW)
Digunakan untuk autokorelasi tingkat 1 (AR(1)).
Rumus DW:
Cara Mendeteksi
Normalitas
B. Uji Breusch-Godfrey (LM Test)
Lebih baik untuk autokorelasi tingkat tinggi (AR(p)).
Langkah:
a.Regresikan model OLS dan simpan residual (et​).
b.Regresikan etet​ terhadap:
Variabel independen asli
Lag residual (et−1,et−2,...,et−p​)
c.Hitung LM=n×R2~ χ(p)2​.
d.Jika LM>χtabel2 atau p-value < 0.05 → Tolak H0​
(ada autokorelasi).
Interpretasi:
0 – 1.5 Autokorelasi positif kuat
1.5 – 2.5 Tidak ada autokorelasi (residual independen)
2.5 – 4 Autokorelasi negatif kuat

Cara Mendeteksi
Normalitas
c. Plot ACF (Autocorrelation Function) & PACF
ACF menunjukkan korelasi residual dengan lag-nya.
PACF mengontrol efek lag lain.
Jika ACF/PACF signifikan pada lag tertentu → Ada autokorelasi.
d. Uji Ljung-Box (Q-Test)
Digunakan untuk data time series.
Hipotesis:
H0​: Tidak ada autokorelasi hingga lag ke-mm.
H1: Ada autokorelasi.
Jika p-value < 0.05 → Tolak H0​.

Cara Mengatasi
Normalitas

Cara Mengatasi
Normalitas

Langkah-langkah di SPSS
Buka SPSS dan
masukkan data
Klik menu Analyze →
pilih Regression → lalu
klik Linear…
Klik OK
Klik Statistics → Centang
Durbin-Watson dan
Model Fit
Uji Durbin
Watson
Variabel Y ke Dependent
Variabel X1, X2, dst ke
Independent(s)
lalu klik save
SPSS akan
menambahkan kolom
baru bernama RES_1 di
Data View

Hasil Uji Autokorelasi
Interpretasi:
Nilai Durbin-Watson 1.722, berarti tidak ada autokorelasi
*1.5 – 2.5 Tidak ada autokorelasi

Normalitas
Uji normalitas adalah analisis regresi untuk memastikan
bahwa data residual dari model regresi terdistribusi
secara normal.
Uji linearitas bertujuan memastikan bahwa model regresi yang
digunakan memang layak, karena hubungan antara variabel sudah
linear. Jika tidak linear, hasil analisis regresi bisa menyesatkan
#
#

Hipotesis
Normalitas
Ho (Hipotesis Nol) : data residual berdistribusi normal
Jika nilai signifikansi (p-value) >0,05 -> Ho diterima (normal)
H1 (Hipotesis Alternatif) : data residual berdistribusi normal
Jika nilai signifikansi (p-value) <0,05 -> Ho ditolak (tidak normal)

Cara Mendeteksi
Normalitas
Histogram
Grafik batang frekuensi data residual. Jika
bentuknya menyerupai kurva lonceng (bell-shaped)
→ data mendekati normal
Kolmogorov-Smirnov (K-S)
Cocok untuk sampel > 50. Menguji distribusi data
terhadap distribusi normal. Jika Sig. > 0,05, maka data
normal
Q-Q Plot (Optional)
Mirip P-P Plot, tapi membandingkan kuantil aktual
dan teoritis. Jika titik-titik mengikuti garis → data
normal
Normal Probability Plot (P-P Plot)
Plot antara nilai residual aktual dan ekspektasi
jika normal. Jika titik-titik mendekati garis
diagonal → data normal
Shapiro-Wilk
Cocok untuk sampel < 50. Lebih sensitif dalam mendeteksi
penyimpangan dari normalitas. Sama seperti K-S, lihat nilai
Sig. (p-value)

Cara Mengatasi
Normalitas
Ubah data agar mendekati distribusi normal menggunakan:
• Log (logaritma): Cocok untuk data yang miring ke kanan.
• Square root (akar): Cocok untuk data dengan sebaran rendah.
• Inverse (1/X): Cocok untuk data ekstrem atau sangat tidak normal.
Transformasi Data
Hapus Outlier
Alternatif Lain
• Gunakan boxplot atau z-score untuk mendeteksi outlier.
• Hapus outlier yang ekstrem karena bisa mengganggu distribusi.
Jika transformasi tidak berhasil:
• Gunakan regresi non-parametrik seperti regresi kuantil atau regresi
ordinal.
• Bisa juga gunakan bootstrapping untuk uji signifikansi tanpa asumsi
normalitas.

Langkah-langkah di SPSS
Buka SPSS dan
masukkan data
Klik menu Analyze →
pilih Regression → lalu
klik Linear…
Klik OK
Centang Unstandardized
Residuals
Klik Continue
Normalitas
Analisis Regresi
Variabel Y ke Dependent
Variabel X1, X2, dst ke
Independent(s)
lalu klik save
SPSS akan
menambahkan kolom
baru bernama RES_1 di
Data View

Langkah-langkah di SPSS
Selanjutnya klik lagi
menu Analyze - pilih
Descriptive Statistics-
pilih Explore
Klik OK
Klik tombol Plots:
Centang Normality plots
with tests
Normalitas Analisis
Residual
Masukkan RES_1 ke kotak
Dependent List
Klik Continue

Hasil Uji Normalitas

Penjelasan
Uji Statistik Normalitas
- Shapiro-Wilk
Statistik = 0.947. Nilai Sig. = 0.629, Karena nilai
Sig. > 0.05, maka residual berdistribusi normal.
- Kolmogorov-Smirnov
Statistik = 0.179. Nilai Sig. = 0.200, Nilai ini juga
> 0.05, sehingga menunjukkan tidak ada
penyimpangan dari distribusi normal.
Uji Visual
- Histogram menunjukkan bentuk lonceng
(bell-shaped), indikasi distribusi normal.
- Q-Q Plot menunjukkan titik-titik mendekati
garis lurus diagonal.
- Detrended Q-Q Plot menunjukkan sebaran
titik yang acak tanpa pola khusus.
- Boxplot tidak menunjukkan adanya outlier
yang signifikan.
Jadi dapat disimpulkan:
Dari analisis pada data tersebut, residual dari model regresi berdistribusi normal.
Dengan demikian, model regresi yang diuji memenuhi asumsi normalitas, dan hasil
analisis (termasuk nilai signifikansi, koefisien regresi, serta uji t dan F) dapat
digunakan dan diinterpretasikan secara sah,

Terima Kasih!
Tags