Rabu, 12 Juli 2017

UJI ASUMSI KLASIK

BAB V

UJI ASUMSI KLASIK

Uji asumsi klasik merupakan syarat yang harus dilakukan pada setiap uji regres linier ordinary least square (OLS).
Gujarati (1995) merinci 10 asumsi yang menjadi syarat penerapan OLS yaitu :

·         Asumsi 1: Linear regression Model. Model regresi merupakan hubungan linear dalam parameter. Y = a + bX +e
Untuk model regresi Y = a + bX + cX2 + e
Walaupun variabel X dikuadratkan, ini tetap merupakan regresi yang linear dalam parameter sehingga OLS masih dapat diterapkan.
·         Asumsi 2: Nilai X adalah tetap dalam sampling yang diulang-ulang (X fixed in repeated sampling). Tepatnya bahwa nilai X adalah nonstochastic (tidak random).
·         Asumsi 3: Variabel pengganggu e memiliki rata-rata nol (zero mean of disturbance). Artinya, garis regresi pada nilai X tertentu berada tepat di tengah. Bisa saja terdapat error yang berada di atas garis regresi atau di bawah garis regresi, tetapi setelah keduanya dirata-rata harus bernilai nol.
·         Asumsi 4: Homoskedastisitas, atau variabel pengganggu e memiliki variance yang sama sepanjang observasi dari berbagai nilai X. Ini berarti data Y pada setiap X memiliki rentangan yang sama. Jika rentangannya tidak sama, maka disebut heteroskedastisitas.
·         Asumsi 5: Tidak ada otokorelasi antara variabel e pada setiap nilai xi dan ji (No autocorrelation between the disturbance).
·         Asumsi 6: Variabel X dan disturbance e tidak berkorelasi. Ini berarti kita dapat memisahkan pengaruh X atas Y dan pengaruh e atas Y. Jika X dan e berkorelasi maka pengaruh keduanya akan tumpang tindih (sulit dipisahkan pengaruh masing-masing atas Y). Asumsi ini pasti terpenuhi jika X adalah variabel non random atau non stochastic.
·         Asumsi 7: Jumlah observasi atau besar sampel (n) harus lebih besar dari jumlah parameter yang diestimasi. Bahkan untuk memenuhi asumsi yang lain, sebaiknya jumlah n harus cukup besar. Jika jumlah parameter sama atau bahkan lebih besar dari jumlah observasi, maka persamaan regresi tidak akan bisa diestimasi.
·         Asumsi 8: Variabel X harus memiliki variabilitas. Jika nilai X selalu sama sepanjang observasi maka tidak bisa dilakukan regresi.
·         Asumsi 9: Model regresi secara benar telah terspesifikasi.Artinya, tidak ada spesifikasi yang bias, karena semuanya telah terekomendasi atau sesuai dengan teori.
·         Asumsi 10. Tidak ada multikolinearitas antara variabel penjelas. Jelasnya kolinear antara variabel penjelas tidak boleh sempurna atau tinggi.
Penyimpangan masing-masing asumsi tidak mempunyai impak yang sama terhadap regresi. Sebagai contoh, adanya penyimpangan atau tidak terpenuhinya asumsi multikolinearitas (asumsi 10) tidak berarti mengganggu, sepanjang uji t sudah signifikan.
Akan tetapi, jika terjadi penyimpangan pada asumsi heteroskedastisitas atau pada autokorelasi, penyimpangan tersebut dapat menyebabkan bias pada Sb, sehingga t menjadi tidak menentu.
Untuk memenuhi asumsi-asumsi di atas, maka estimasi regresi hendaknya dilengkapi dengan uji-uji yang diperlukan, seperti uji normalitas, autokorelasi, heteroskedastisitas, atupun multikolinearitas.

A.  Uji Autokorelasi
a.    Pengertian
Autokorelasi adalah keadaan dimana variabel gangguan pada periode tertentu berkorelasi dengan variabel gangguan pada periode lain. Sifat autokorelasi muncul bila terdapat korelasi antara data yang diteliti, baik itu data jenis runtut waktu (time series) ataupun data kerat silang (cross section).
Asumsi terbebasnya autokorelasi ditunjukkan oleh nilai e yang mempunyai rata-rata nol, dan variannya konstan. Asumsi variance yang tidak konstan menunjukkan adanya pengaruh perubahan nilai suatu observasi berdampak pada observasi lain.
Autokorelasi akan muncul apabila ada ketergantungan atau adanya kesalahan pengganggu yang secara otomatis mempengaruhi data berikutnya. Jika terdapat ketergantungan dituliskan sebagai berikut:
E(ui, uj) = 0;  i ≠ j
tidak terdapat ketergantungan atau tidak adanya kesalahan pengganggu yang secara otomatis mempengaruhi data berikutnya maka masalah autokorelasi tidak akan muncul dituliskan sebagai berikut :
E(ui, uj) = 0;  i ≠ j

b.    Sebab-sebab Autokorelasi
Beberapa faktor penyeban autokorelasi yaitu :
1. Kesalahan dalam pembentukan model, artinya, model yang digunakan untuk menganalisis regresi tidak didukung oleh teori-teori yang relevan dan mendukung.
2. Tidak memasukkan variabel yang penting. Variabel penting yang dimaksudkan di sini adalah variabel yang diperkirakan signifikan mempengaruhi variabel Y.
3. Manipulasi data. Misalnya dalam penelitian kita ingin menggunakan data bulanan, namun data tersebut tidak tersedia. Kemudian kita mencoba menggunakan triwulanan yang tersedia, untuk dijadikan data bulanan melalui cara interpolasi atau ekstrapolasi.
4. Menggunakan data yang tidak empiris. Jika data semacam ini digunakan, terkesan bahwa data tersebut tidak didukung oleh realita. Misalnya pengaruh periklanan terhadap penjualan.

c.    Akibat Autokorelasi
Meskipun ada autokorelasi, nilai parameter estimator (b1, b2,…,bn) model regresi tetap linear dan tidak bias dalam memprediksi B (parameter sebenarnya). Akan tetapi nilai variance tidak minimum dan standard error (Sb1, Sb2) akan bias. Akibatnya adalah nilai t hitung akan menjadi bias pula, karena nilai t diperoleh dari hasil bagi Sb terhadap b (t = b/sb). Berhubung nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti (misleading).

d.   Pengujian Autokorelasi
Pengujian autokorelasi dimaksudkan untuk menguji ada tidaknya autokorelasi, yaitu masalah lain yang timbul bila kesalahan tidak sesuai dengan batasan yang disyaratkan oleh analisis regresi. Terdapat beberapa cara untuk mendeteksi ada tidaknya autokorelasi :
1.           Uji Durbin-Waston (DW Test
Uji Durbin-Watson yang secara populer digunakan untuk mendeteksi adanya serial korelasi dikembangkan oleh ahli statistik (statisticians) Durbin dan Watson. Formula yang digunakan untuk mendeteksi terkenal pula dengan sebutan Durbin-Watson d statistic.
d= 2(1-Ʃet . et-1 )
             t
Dalam DW test ini terdapat beberapa asumsi penting yang harus dipatuhi, yaitu:
·         Terdapat intercept dalam model regresi.
·         Variabel penjelasnya tidak random (nonstochastics).
·         Tidak ada unsur lag dari variabel dependen di dalam model.
·         Tidak ada data yang hilang.
Dalam pengujian autokorelasi terdapat kemungkinan munculnya autokorelasi positif maupun negatif. Karena adanya masalah korelasi dapat menimbulkan adanya bias pada hasil regresi.
2.          Menggunakan metode LaGrange Multiplier (LM).
LM sendiri merupakan teknik regresi yang memasukkan variabel lag. Sehingga terdapat variabel tambahan yang dimasukkan dalam model. Variabel tambahan tersebut adalah data Lag dari variabel dependen. Dengan demikian model dalam LM menjadi sebagai berikut:
Y = β0 + β1X1+ β2 X2 + β3 Yt-1+ β4 Yt-2 + ε
ariabel Yt-1 merupakan variabel lag 1 dari Y.
Variabel Yt-2 merupakan variabel lag 2 dari Y.

B.       Uji Normalitas
Tujuan dilakukannya uji normalitas adalah untuk menguji apakah variabel penganggu (e) memiliki distribusi normal atau tidak. Pengujian normalitas data dapat dilakukan sebelum ataupun setelah tahapan analisis regresi.
Beberapa cara dilakukan dalam uji normalitas yaitu :
a.       Menggunakan metode numerik yang membandingkan nilai statistik, yaitu antara nilai median dengan nilai mean. 
b.      Menggunakan formula Jarque Bera (JB test).
c.        Mengamati sebaran data, dengan melakukan hitungan-hitungan berapa prosentase data observasi dan berada di area mana. Untuk menentukan posisi normal dari sebaran data, langkah awal yang dilakukan adalah menghitung standar deviasi. Standar deviasi dapat dicari melalui rumus sebagai berikut:
SD = Ʃ(Dv – Dv )
               n                                          
C.  Uji Heteroskedastisitas
a.       Pengertian
Salah satu asumsi yang harus ditaati pada model regresi linier adalah residual harus homoskedastis, artinya, variance residual harus memiliki variabel yang konstan, atau dengan kata lain, rentangan e kurang lebih sama. Karena jika variancenya tidak sama, model akan menghadapi masalah heteroskedastisitas. Heteroskedastisitas muncul apabila kesalahan atau residual dari model yang diamati tidak memiliki varians yang konstan dari satu observasi ke observasi lainnya (Kuncoro, 2001: 112).
b.      Konsekuensi Heteroskedastisitas
Analisis regresi menganggap kesalahan (error) bersifat homoskedastis, yaitu asumsi bahwa residu atau deviasi dari garis yang paling tepat muncul serta random sesuai dengan besarnya variabel-variabel independen (Arsyad, 1994:198).
c.       Pendeteksian Heteroskedastisitas
Untuk mendeteksi ada tidaknya heteroskedastisitas, dapat dilakukan dengan berbagai cara seperti uji grafik, uji Park, Uji Glejser, uji Spearman’s Rank Correlation, dan uji Whyte menggunakan Lagrange Multiplier (Setiaji, 2004: 18).

D.  Uji Multikolinieritas
a.       Pengertian
Multikolinieritas adalah suatu keadaan dimana terjadi korelasi linear yang ”perfect” atau eksak di antara variabel penjelas yang dimasukkan ke dalam model. Tingkat kekuatan hubungan antar variabel penjelas dapat ditrikotomikan lemah, tidak berkolinear, dan sempurna.
b.      Konsekuensi Multikolinearitas
Pengujian multikolinearitas merupakan tahapan penting yang harus dilakukan dalam suatu penelitian,karena apabila belum terbebas dari masalah multikolinearitas akan menyebabkan nilai koefisien regresi (b) masing-masing variabel bebas dan nilai standar error-nya (Sb) cenderung bias, dalam arti tidak dapat ditentukan kepastian nilainya, sehingga akan berpengaruh pula terhadap nilai t (setiaji, 2004: 26).
c.       Pendeteksian Multikolinearitas
Terdapat beragam cara untuk menguji multikolinearitas, di antaranya: menganalisis matrix korelasi dengan Pearson Correlation atau dengan Spearman’s Rho Correlation, melakukan regresi partial dengan teknik auxilary regression, atau dapat pula dilakukan dengan mengamati nilai variance inflation factor (VIF).
Pengujian multikolinearitas menggunakan angka korelasi dimaksudkan untuk menentukan ada tidaknya multikolinearitas.

Soal :

a.       jelaskan apa yang dimaksud denganasumsi klasik!
Asumsi klasik merupakan analisis yang di lakukan untuk menilai apakah di dalam sebuah model regresi linierOrdinary Least Swquare(OLS) terdapat masalah masalahasumsi klasik dapat di simpulkan bahwa asumsi klasik juga di sebut dengan syarat-syarat yang harus di penuhi pada model regresi linierOLS agar model tersebut menjadi valid sebagai alat penduga.

b.     Sebutkan apa saja asumsi-asumsi yang ditetapkan!
Asumsi 1: Linear regression Model. Model regresimerupakan hubungan linear dalam parameter.
Asumsi 2: Nilai X adalah tetap dalam sampling yangdiulang-ulang (X fixed in repeated sampling).
Asumsi 3: Variabel pengganggu e memiliki rata-rata nol(zero mean of disturbance). Artinya, garisregresi pada nilai X tertentu berada tepat ditengah. Bisa saja terdapaterror yang berada diatas garis regresi atau di bawah garis regresi,tetapi setelah keduanya dirata-rata harusbernilai nol.
Asumsi 4: Homoskedastisitas, atau variabel pengganggu ememiliki variance yang sama sepanjangobservasi dari berbagai nilai X. Ini berarti dataY pada setiap X memiliki rentangan yangsama. Jika rentangannya tidak sama, makadisebut heteroskedastisitas
Asumsi 5: Tidak ada otokorelasi antara variabel e padasetiap nilai xi dan ji (No autocorrelationbetween the disturbance).

c.     jelaskan mengapa tidak semua asumsiperlu lakukan pengujian!
Tidak semua uji asumsi klasik harus di lakukan pada analisis linier, seperti Pengujian Asumsi Multikolinearitas tidak harus di lakukan pada analisis regresi linier sederhana yang memiliki variable respond an predicator hanya satu.

d.      Apa yang dimaksud autokorelasi?
Autokorelasi adalah sebuah analisis statistik yang dilakukan untuk mengetahui adakah korelasi variabel yang ada di dalam model prediksi dengan perubahan waktu.

e.       Kenapa autokorelasi timbul ?
Autokorelasi akan muncul apabila ada ketergantungan atau adanya kesalahan pengganggu yang secara otomatis mempengaruhi data berikutnya..

f.       Bagaimana caramendektesi masalah autokorelasi ?
Terdapat beberapa alat uji lain untuk mendeteksi autokorelasi seperti uji Breusch-Godfrey, Uji Run, Uji Statistik Q: Box-Pierce dan Ljung Box, dan lainlain, namun uji-uji tersebut tidak dibahas di sini, mengingat tulisan ini masih berlingkup atau bersifatpengantar.

g.       Apa konsekuensi dari adanya masalah autokorelasi dalam model?
·         Estimator yang dihasilkan masih unbiased, konsisten, dan asymptotical normally distributed. Tetapi tidak lagi efisien->varians tidak minimum (tidak BLUE) 
·         Estimasi standard error dan varian koefisien regresi yang didapat akan ‘underestimate’. 
·         Pemerikasaan terhadap residualnya akan menemui permasalahan.

h.       Jelaskan apa yang dimaksud dengan heteroskedastisitas ?
homoskedastis, artinya, varianceresidual harus memili variabel yang konstan, ataudengan kata lain, rentangan e kurang lebih sama. Karenajika variancenya tidak sama, model akan menghadapimasalah heteroskedastisitas. Heteroskedastisitas munculapabila kesalahan atau residual dari model yang diamatitidak memiliki varians yang konstan dari satu observasike observasi lainnya.

i.         Kenapa heteroskedastisitas timbul?
Heteroskedastisitas munculapabila kesalahan atau residual dari model yang diamatitidak memiliki varians yang konstan dari satu observasike observasi lainnya.
j.        Bagaimana cara mendeteksi masalah heteroskedastisitas?
Untuk mendeteksi ada tidaknya heteroskedastisitas, dapat dilakukan dengan berbagai cara seperti uji grafik, uji Park, Uji Glejser, uji Spearman’s Rank Correlation, dan uji Whyte menggunakan Lagrange Multiplie.

k.      Apa konsekuensi dari adanya masalah heteroskedastisitas dalam model?
Analisis regresi menganggap kesalahan (error) bersifat homoskedastis, yaitu asumsi bahwa residu atau deviasi dari garis yang paling tepat muncul serta random sesuai dengan besarnya variabel-variabel independen

l.        Jelaskan apa yang dimaksud dengan multikolinearitas ?
Multikolinieritas adalah suatu keadaan dimana terjadi korelasi linear yang ”perfect” atau eksak di antara variabel penjelas yang dimasukkan ke dalam model. Tingkat kekuatan hubungan antar variabel penjelas dapat ditrikotomikan lemah, tidak berkolinear, dan sempurna. Tingkat kolinear dikatakan lemah apabila masing-masing variabel penjelas hanya mempunyai sedikit sifat-sifat
yang sama.

m.    Jelaskan kenapa multikolinearitas timbul!

Tingkat kekuatan hubungan antar variabel penjelas dapat ditrikotomikan lemah, tidak berkolinear, dan sempurna. Tingkat kolinear dikatakan lemah apabila masing – masing variabel penjelas hanya mempunyai sedikit sifat –sifat yang sama

n.       Bagaimana cara mendeteksi masalah multikolinearitas?

Cara mendeteksi ada tidaknya multikolinieritas dengan menghitung nilai korelasi antar variabel dengan menggunakan Spearman’s Rh Correlation dapat dilakukan apabila data dengan skala ordinal.

o.      Apa konsekuensi dari adanya masalah multikolinearitas dalam model?
Pengujian multikolinearitas merupakan tahapan penting yang harus dilakukan dalam suatu penelitian, karena apabila belum terbebas dari masalah multikolinearitas akan menyebabkan nilai koefisien regresi (b) masing-masing variabel bebas dan nilai standar error-nya (Sb) cenderung bias, dalam arti tidak dapat ditentukan kepastian nilainya, sehingga akan berpengaruh pula terhadap nilai t.



p.       Jelaskan apa yang dimaksud dengan normalitas!
normalitas adalah untuk menguji apakah variabel penganggu (e) memiliki distribusi normal atau tidak. Pengujian normalitas data dapat dilakukan sebelum ataupun setelah tahapan analisis regresi. Hanya saja pengalaman menunjukkan bahwa pengujian normalitas yang dilakukan sebelum tahapan regresi lebih efisien dalam waktu.

q.      Jelaskan kenapa normalitas timbul!
normalitas data dapat dilakukan sebelum ataupun setelah tahapan analisis regresi. Hanya saja pengalaman menunjukkan bahwa pengujian normalitas yang dilakukan sebelum tahapan regresi lebih efisien dalam waktu. Sangat beralasan kiranya, karena jika asumsi normalitas data telah dipenuhi terlebih dulu, maka dampak yang mungkin akan ditimbulkan dari adanya ketidaknormalan data seperti bias pada nilai t hitung dan nilai F hitung dapat dihindari.

r.     Bagaimana cara mendeteksi masalah normalitas?
·         Mengidentifikasi dan, jika mungkin, menentukan alasan data tidak normal dan mengatasinya atau
·         Gunakan alat yang tidak memerlukan asumsi normalitas.

s.       Apa konsekuensi dari adanya masalah normalitas dalam model?

jika asumsi normalitas data telah dipenuhi terlebih dulu, maka dampak yang mungkin akanditimbulkan dari adanya ketidaknormalan data seperti bias pada nilai t hitung dan nilai F hitung dapat dihindari. Sebaliknya, bila dilakukan analisis regresi terlebih dulu, dimana nilai t dan F baru diketahui, yang kemudian baru ilakukan normalitas data, sedangkan ternyata hasilnya tidak normal maka analisis regresi harus diulang lagi.

Tidak ada komentar:

Posting Komentar