BAB V
UJI
ASUMSI KLASIK
Uji asumsi
klasik merupakan syarat yang harus dilakukan pada setiap uji regres linier ordinary
least square (OLS).
Gujarati (1995)
merinci 10 asumsi yang menjadi syarat penerapan OLS yaitu :
·
Asumsi 1: Linear regression Model.
Model regresi merupakan hubungan linear dalam parameter. Y = a + bX +e
Untuk model regresi Y = a + bX + cX2 + e
Walaupun variabel X
dikuadratkan, ini tetap merupakan regresi yang linear dalam parameter sehingga
OLS masih dapat diterapkan.
·
Asumsi 2: Nilai X adalah tetap dalam
sampling yang diulang-ulang (X fixed in repeated sampling). Tepatnya
bahwa nilai X adalah nonstochastic (tidak random).
·
Asumsi 3: Variabel pengganggu e memiliki
rata-rata nol (zero mean of disturbance). Artinya, garis regresi pada
nilai X tertentu berada tepat di tengah. Bisa saja terdapat error yang
berada di atas garis regresi atau di bawah garis regresi, tetapi setelah
keduanya dirata-rata harus bernilai nol.
·
Asumsi 4: Homoskedastisitas, atau
variabel pengganggu e memiliki variance yang sama sepanjang observasi
dari berbagai nilai X. Ini berarti data Y pada setiap X memiliki rentangan yang
sama. Jika rentangannya tidak sama, maka disebut heteroskedastisitas.
·
Asumsi 5: Tidak ada otokorelasi antara
variabel e pada setiap nilai xi dan ji (No autocorrelation between
the disturbance).
·
Asumsi 6: Variabel X dan disturbance e
tidak berkorelasi. Ini berarti kita dapat memisahkan pengaruh X atas Y dan
pengaruh e atas Y. Jika X dan e berkorelasi maka pengaruh keduanya akan tumpang
tindih (sulit dipisahkan pengaruh masing-masing atas Y). Asumsi ini pasti terpenuhi
jika X adalah variabel non random atau non stochastic.
·
Asumsi 7: Jumlah observasi atau besar
sampel (n) harus lebih besar dari jumlah parameter yang diestimasi. Bahkan
untuk memenuhi asumsi yang lain, sebaiknya jumlah n harus cukup besar. Jika
jumlah parameter sama atau bahkan lebih besar dari jumlah observasi, maka persamaan
regresi tidak akan bisa diestimasi.
·
Asumsi 8: Variabel X harus memiliki
variabilitas. Jika nilai X selalu sama sepanjang observasi maka tidak bisa
dilakukan regresi.
·
Asumsi 9: Model regresi secara benar
telah terspesifikasi.Artinya, tidak ada spesifikasi yang bias, karena semuanya
telah terekomendasi atau sesuai dengan teori.
·
Asumsi 10. Tidak ada multikolinearitas
antara variabel penjelas. Jelasnya kolinear antara variabel penjelas tidak boleh
sempurna atau tinggi.
Penyimpangan
masing-masing asumsi tidak mempunyai impak yang sama terhadap regresi. Sebagai
contoh, adanya penyimpangan atau tidak terpenuhinya asumsi multikolinearitas
(asumsi 10) tidak berarti mengganggu, sepanjang uji t sudah signifikan.
Akan tetapi,
jika terjadi penyimpangan pada asumsi heteroskedastisitas atau pada autokorelasi,
penyimpangan tersebut dapat menyebabkan bias pada Sb, sehingga t menjadi tidak menentu.
Untuk memenuhi asumsi-asumsi
di atas, maka estimasi regresi hendaknya dilengkapi dengan uji-uji yang
diperlukan, seperti uji normalitas, autokorelasi, heteroskedastisitas, atupun multikolinearitas.
A. Uji Autokorelasi
a. Pengertian
Autokorelasi adalah keadaan dimana
variabel gangguan pada periode tertentu berkorelasi dengan variabel gangguan
pada periode lain. Sifat autokorelasi muncul bila terdapat korelasi antara data
yang diteliti, baik itu data jenis runtut waktu (time series) ataupun
data kerat silang (cross section).
Asumsi
terbebasnya autokorelasi ditunjukkan oleh nilai e yang mempunyai rata-rata nol,
dan variannya konstan. Asumsi variance yang tidak konstan menunjukkan
adanya pengaruh perubahan nilai suatu observasi berdampak pada observasi lain.
Autokorelasi
akan muncul apabila ada ketergantungan atau adanya kesalahan pengganggu yang
secara otomatis mempengaruhi data berikutnya. Jika terdapat ketergantungan
dituliskan sebagai berikut:
E(ui, uj) = 0; i ≠ j
tidak terdapat
ketergantungan atau tidak adanya kesalahan pengganggu yang secara otomatis mempengaruhi
data berikutnya maka masalah autokorelasi tidak akan muncul dituliskan sebagai
berikut :
E(ui, uj) = 0; i ≠ j
b.
Sebab-sebab Autokorelasi
Beberapa
faktor penyeban autokorelasi yaitu :
1. Kesalahan
dalam pembentukan model, artinya, model yang digunakan untuk menganalisis
regresi tidak didukung oleh teori-teori yang relevan dan mendukung.
2. Tidak
memasukkan variabel yang penting. Variabel penting yang dimaksudkan di sini
adalah variabel yang diperkirakan signifikan mempengaruhi variabel Y.
3. Manipulasi
data. Misalnya dalam penelitian kita ingin menggunakan data bulanan, namun data
tersebut tidak tersedia. Kemudian kita mencoba menggunakan triwulanan yang
tersedia, untuk dijadikan data bulanan melalui cara interpolasi atau
ekstrapolasi.
4. Menggunakan
data yang tidak empiris. Jika data semacam ini digunakan, terkesan bahwa data
tersebut tidak didukung oleh realita. Misalnya pengaruh periklanan terhadap
penjualan.
c.
Akibat Autokorelasi
Meskipun
ada autokorelasi, nilai parameter estimator (b1, b2,…,bn) model regresi tetap
linear dan tidak bias dalam memprediksi B (parameter sebenarnya). Akan tetapi
nilai variance tidak minimum dan standard error (Sb1, Sb2) akan
bias. Akibatnya adalah nilai t hitung akan menjadi bias pula, karena nilai t
diperoleh dari hasil bagi Sb terhadap b (t = b/sb). Berhubung nilai Sb bias
maka nilai t juga akan bias atau bersifat tidak pasti (misleading).
d.
Pengujian Autokorelasi
Pengujian
autokorelasi dimaksudkan untuk menguji ada tidaknya autokorelasi, yaitu masalah
lain yang timbul bila kesalahan tidak sesuai dengan batasan yang disyaratkan
oleh analisis regresi. Terdapat beberapa cara untuk mendeteksi ada tidaknya
autokorelasi :
1.
Uji Durbin-Waston (DW Test
Uji Durbin-Watson yang secara populer digunakan
untuk mendeteksi adanya serial korelasi dikembangkan oleh ahli statistik (statisticians)
Durbin dan Watson. Formula yang digunakan untuk mendeteksi terkenal pula dengan
sebutan Durbin-Watson d statistic.

e²t
Dalam DW test ini terdapat beberapa
asumsi penting yang harus dipatuhi, yaitu:
·
Terdapat intercept dalam model
regresi.
·
Variabel penjelasnya tidak random (nonstochastics).
·
Tidak ada unsur lag dari variabel
dependen di dalam model.
·
Tidak ada data yang hilang.
Dalam pengujian autokorelasi terdapat
kemungkinan munculnya autokorelasi positif maupun negatif. Karena adanya
masalah korelasi dapat menimbulkan adanya bias pada hasil regresi.
2.
Menggunakan
metode LaGrange Multiplier (LM).
LM sendiri merupakan
teknik regresi yang memasukkan variabel lag. Sehingga terdapat variabel
tambahan yang dimasukkan dalam model. Variabel tambahan tersebut adalah data
Lag dari variabel dependen. Dengan demikian model dalam LM menjadi sebagai
berikut:
Y = β0 + β1X1+ β2 X2 + β3 Yt-1+ β4 Yt-2
+ ε
ariabel Yt-1 merupakan variabel
lag 1 dari Y.
Variabel Yt-2 merupakan variabel
lag 2 dari Y.
B. Uji Normalitas
Tujuan
dilakukannya uji normalitas adalah untuk menguji apakah variabel penganggu (e)
memiliki distribusi normal atau tidak. Pengujian normalitas data dapat
dilakukan sebelum ataupun setelah tahapan analisis regresi.
Beberapa
cara dilakukan dalam uji normalitas yaitu :
a. Menggunakan
metode numerik yang membandingkan nilai statistik, yaitu antara nilai median
dengan nilai mean.
b. Menggunakan
formula Jarque Bera (JB test).
c. Mengamati sebaran data, dengan melakukan
hitungan-hitungan berapa prosentase data observasi dan berada di area mana.
Untuk menentukan posisi normal dari sebaran data, langkah awal yang dilakukan
adalah menghitung standar deviasi. Standar deviasi dapat dicari melalui rumus
sebagai berikut:

n
C. Uji Heteroskedastisitas
a. Pengertian
Salah satu asumsi yang
harus ditaati pada model regresi linier adalah residual harus homoskedastis,
artinya, variance residual harus memiliki variabel yang konstan, atau
dengan kata lain, rentangan e kurang lebih sama. Karena jika
variancenya tidak sama, model akan menghadapi masalah
heteroskedastisitas. Heteroskedastisitas muncul apabila kesalahan atau
residual dari model yang diamati tidak memiliki varians yang konstan
dari satu observasi ke observasi lainnya (Kuncoro, 2001: 112).
b. Konsekuensi
Heteroskedastisitas
Analisis regresi
menganggap kesalahan (error) bersifat homoskedastis, yaitu asumsi bahwa
residu atau deviasi dari garis yang paling tepat muncul serta random sesuai
dengan besarnya variabel-variabel independen (Arsyad, 1994:198).
c. Pendeteksian
Heteroskedastisitas
Untuk mendeteksi ada
tidaknya heteroskedastisitas, dapat dilakukan dengan berbagai cara seperti uji
grafik, uji Park, Uji Glejser, uji Spearman’s Rank Correlation, dan uji
Whyte menggunakan Lagrange Multiplier (Setiaji, 2004: 18).
D. Uji Multikolinieritas
a.
Pengertian
Multikolinieritas adalah suatu keadaan dimana
terjadi korelasi linear yang ”perfect” atau eksak di antara variabel
penjelas yang dimasukkan ke dalam model. Tingkat kekuatan hubungan antar
variabel penjelas dapat ditrikotomikan lemah, tidak berkolinear, dan sempurna.
b.
Konsekuensi Multikolinearitas
Pengujian multikolinearitas merupakan
tahapan penting yang harus dilakukan dalam suatu penelitian,karena apabila
belum terbebas dari masalah multikolinearitas akan menyebabkan nilai koefisien
regresi (b) masing-masing variabel bebas dan nilai standar error-nya
(Sb) cenderung bias, dalam arti tidak dapat ditentukan kepastian nilainya,
sehingga akan berpengaruh pula terhadap nilai t (setiaji, 2004: 26).
c.
Pendeteksian Multikolinearitas
Terdapat beragam cara untuk menguji
multikolinearitas, di antaranya: menganalisis matrix korelasi dengan Pearson
Correlation atau dengan Spearman’s Rho Correlation, melakukan
regresi partial dengan teknik auxilary regression, atau dapat pula
dilakukan dengan mengamati nilai variance inflation factor (VIF).
Pengujian multikolinearitas menggunakan
angka korelasi dimaksudkan untuk menentukan ada tidaknya multikolinearitas.
Soal
:
a.
jelaskan apa yang dimaksud denganasumsi klasik!
Asumsi klasik merupakan analisis yang di lakukan untuk menilai apakah di
dalam sebuah model regresi linierOrdinary Least Swquare(OLS) terdapat masalah
masalahasumsi klasik dapat di simpulkan bahwa asumsi klasik juga di sebut
dengan syarat-syarat yang harus di penuhi pada model regresi linierOLS agar
model tersebut menjadi valid sebagai alat penduga.
b. Sebutkan apa saja asumsi-asumsi yang ditetapkan!
Asumsi
1: Linear regression Model. Model regresimerupakan hubungan linear
dalam parameter.
Asumsi 2:
Nilai X adalah tetap dalam sampling yangdiulang-ulang (X fixed in repeated
sampling).
Asumsi 3:
Variabel pengganggu e memiliki rata-rata nol(zero mean of disturbance).
Artinya, garisregresi pada nilai X tertentu berada tepat ditengah. Bisa saja
terdapaterror yang berada diatas garis regresi atau di bawah garis
regresi,tetapi setelah keduanya dirata-rata harusbernilai nol.
Asumsi 4:
Homoskedastisitas, atau variabel pengganggu ememiliki variance yang
sama sepanjangobservasi dari berbagai nilai X. Ini berarti dataY pada setiap X
memiliki rentangan yangsama. Jika rentangannya tidak sama, makadisebut
heteroskedastisitas
Asumsi 5:
Tidak ada otokorelasi antara variabel e padasetiap nilai xi dan ji (No
autocorrelationbetween the disturbance).
c. jelaskan mengapa tidak semua asumsiperlu
lakukan pengujian!
Tidak semua
uji asumsi klasik harus di lakukan pada analisis linier, seperti Pengujian
Asumsi Multikolinearitas tidak harus di lakukan pada analisis regresi linier
sederhana yang memiliki variable respond an predicator hanya satu.
d.
Apa yang dimaksud autokorelasi?
Autokorelasi
adalah sebuah analisis statistik yang dilakukan untuk mengetahui adakah
korelasi variabel yang ada di dalam model prediksi dengan perubahan waktu.
e.
Kenapa autokorelasi timbul ?
Autokorelasi
akan muncul apabila ada ketergantungan atau adanya kesalahan pengganggu yang
secara otomatis mempengaruhi data berikutnya..
f.
Bagaimana caramendektesi masalah autokorelasi ?
Terdapat
beberapa alat uji lain untuk mendeteksi autokorelasi seperti uji
Breusch-Godfrey, Uji Run, Uji Statistik Q: Box-Pierce dan Ljung Box, dan
lainlain, namun uji-uji tersebut tidak dibahas di sini, mengingat tulisan ini
masih berlingkup atau bersifatpengantar.
g.
Apa konsekuensi dari adanya masalah
autokorelasi dalam model?
·
Estimator
yang dihasilkan masih unbiased, konsisten, dan asymptotical normally
distributed. Tetapi tidak lagi efisien->varians tidak minimum (tidak
BLUE)
·
Estimasi
standard error dan varian koefisien regresi yang didapat akan
‘underestimate’.
·
Pemerikasaan
terhadap residualnya akan menemui permasalahan.
h.
Jelaskan apa yang dimaksud dengan
heteroskedastisitas ?
homoskedastis, artinya, varianceresidual harus memili variabel
yang konstan, ataudengan kata lain, rentangan e kurang lebih sama. Karenajika
variancenya tidak sama, model akan menghadapimasalah heteroskedastisitas.
Heteroskedastisitas munculapabila kesalahan atau residual dari model yang
diamatitidak memiliki varians yang konstan dari satu observasike observasi
lainnya.
i.
Kenapa heteroskedastisitas
timbul?
Heteroskedastisitas munculapabila kesalahan atau residual dari model yang
diamatitidak memiliki varians yang konstan dari satu observasike observasi
lainnya.
j.
Bagaimana cara mendeteksi masalah heteroskedastisitas?
Untuk
mendeteksi ada tidaknya heteroskedastisitas, dapat dilakukan dengan berbagai
cara seperti uji grafik, uji Park, Uji Glejser, uji Spearman’s Rank Correlation,
dan uji Whyte menggunakan Lagrange Multiplie.
k.
Apa konsekuensi dari adanya masalah heteroskedastisitas dalam model?
Analisis regresi menganggap kesalahan (error) bersifat
homoskedastis, yaitu asumsi bahwa residu atau deviasi dari garis yang paling
tepat muncul serta random sesuai dengan besarnya variabel-variabel independen
l.
Jelaskan apa yang dimaksud dengan multikolinearitas ?
Multikolinieritas adalah suatu keadaan dimana terjadi korelasi linear yang
”perfect” atau eksak di antara variabel penjelas yang dimasukkan ke
dalam model. Tingkat kekuatan hubungan antar variabel penjelas dapat
ditrikotomikan lemah, tidak berkolinear, dan sempurna. Tingkat kolinear
dikatakan lemah apabila masing-masing variabel penjelas hanya mempunyai sedikit
sifat-sifat
yang sama.
m.
Jelaskan kenapa multikolinearitas timbul!
Tingkat
kekuatan hubungan antar variabel penjelas dapat ditrikotomikan lemah, tidak
berkolinear, dan sempurna. Tingkat kolinear dikatakan lemah apabila masing –
masing variabel penjelas hanya mempunyai sedikit sifat –sifat yang sama
n.
Bagaimana cara mendeteksi masalah
multikolinearitas?
Cara mendeteksi ada tidaknya multikolinieritas dengan menghitung nilai
korelasi antar variabel dengan menggunakan Spearman’s Rh
Correlation dapat dilakukan apabila data dengan skala ordinal.
o.
Apa konsekuensi dari adanya masalah multikolinearitas dalam model?
Pengujian multikolinearitas merupakan tahapan penting yang harus dilakukan
dalam suatu penelitian, karena apabila belum terbebas dari masalah
multikolinearitas akan menyebabkan nilai koefisien regresi (b) masing-masing
variabel bebas dan nilai standar error-nya (Sb) cenderung bias,
dalam arti tidak dapat ditentukan kepastian nilainya, sehingga akan berpengaruh
pula terhadap nilai t.
p.
Jelaskan apa yang dimaksud dengan
normalitas!
normalitas adalah untuk menguji apakah variabel penganggu (e) memiliki
distribusi normal atau tidak. Pengujian normalitas data dapat dilakukan sebelum
ataupun setelah tahapan analisis regresi. Hanya saja pengalaman menunjukkan
bahwa pengujian normalitas yang dilakukan sebelum tahapan regresi lebih efisien
dalam waktu.
q.
Jelaskan kenapa normalitas timbul!
normalitas
data dapat dilakukan sebelum ataupun setelah tahapan analisis regresi. Hanya
saja pengalaman menunjukkan bahwa pengujian normalitas yang dilakukan sebelum
tahapan regresi lebih efisien dalam waktu. Sangat beralasan kiranya, karena
jika asumsi normalitas data telah dipenuhi terlebih dulu, maka dampak yang
mungkin akan ditimbulkan dari adanya
ketidaknormalan data seperti bias pada nilai t hitung dan nilai F hitung dapat
dihindari.
r. Bagaimana cara mendeteksi masalah normalitas?
·
Mengidentifikasi dan, jika mungkin,
menentukan alasan data tidak normal dan mengatasinya atau
·
Gunakan alat yang tidak memerlukan
asumsi normalitas.
s.
Apa
konsekuensi dari adanya masalah normalitas dalam model?
jika asumsi normalitas data telah dipenuhi terlebih dulu, maka dampak yang
mungkin akanditimbulkan dari adanya ketidaknormalan data seperti bias pada
nilai t hitung dan nilai F hitung dapat dihindari. Sebaliknya, bila dilakukan
analisis regresi terlebih dulu, dimana nilai t dan F baru diketahui, yang
kemudian baru ilakukan normalitas data, sedangkan ternyata hasilnya tidak
normal maka analisis regresi harus diulang lagi.
Tidak ada komentar:
Posting Komentar