Uji Asumsi Klasik [PDF]

  • Author / Uploaded
  • imot2
  • 0 0 0
  • Suka dengan makalah ini dan mengunduhnya? Anda bisa menerbitkan file PDF Anda sendiri secara online secara gratis dalam beberapa menit saja! Sign Up
File loading please wait...
Citation preview

Uji Asumsi Klasik Gujarati (2003) mengemukakan beberapa asumsi klasik yang harus dipenuhi untuk suatu hasil estimasi regresi linier agar hasil tersebut dapat dikatakan baik dan efisien. Adapun asumsi klasik yang harus dipenuhi antara lain: 1. Model regresi adalah linier, yaitu linier di dalam parameter. 2. Residual variabel pengganggu (i) mempunyai nilai rata-rata nol (zero mean value of disturbance i). 3. Homoskedastisitas atau varian dari i adalah konstan. 4. Tidak ada autokorelasi antara variabel pengganggu (i). 5. Kovarian antara i dan variabel independen (Xi) adalah nol 6. Jumlah data (observasi) harus lebih banyak dibandingkan dengan jumlah parameter yang akan diestimasi. 7. Tidak ada multikolinieritas. 8. Variabel pengganggu harus berdistribusi normal atau stokastik. Berdasarkan kondisi tersebut di dalam ilmu ekonometrika, agar suatu model dikatakan baik dan sahih, maka perlu dilakukan beberapa pengujian.



7.1. Multikolinieritas Dikenalkan oleh Ragnar Frisch (1934). Sebuah model regresi dikatakan terkena multikolinieritas apabila terjadi hubungan linier yang sempurna di antara beberapa atau semua variabel bebas dari suatu model regresi. Dengan demikian, multikolinieritas terjadi pada regresi berganda yang melibatkan lebih dari satu variabel independen. Untuk mendeteksi estimasi regresi yang memiliki multikolinieritas adalah sebagai berikut: 1. Nilai R2 yang tinggi, namun standar error dan tingkat signifikansi masing-masing variabel rendah. 2. Nilai koefisien variabel tidak sesuai dengan hipotesis, misalnya variabel yang seharusnya memiliki pengaruh (koefisien) positip, namun hasil estimasi menunjukkan hasil negatif. Cara mendeteksi masalah multikolinieritas dapat dilakukan dengan 2 (dua) cara, yaitu: 1. Korelasi antar variabel. 2. Menggunakan korelasi parsial.



7.1.1. Korelasi Antar Variabel Nilai R2 yang dihasilkan dari hasil estimasi model empiris sangat tinggi, tetapi tingkat signifikansi variabel bebas berdasarkan uji t-statistik sangat rendah (tidak ada atau sangat sedikit variabel bebas yang signifikan). Dalam Eviews untuk melihat korelasi antar variabel dapat dilakukan dengan cara: 1. Pilih seluruh variabel yang hendak diuji korelasinya. (Tekan Ctrl sambil meng-klik variabel-variabel yang dipilih).



2. Klik mouse kanan dan pilih Open, as Group. 3. Setelah data seluruh variabel ditampilkan dalam satu lembar kerja (worksheet), lalu klik icon View di bagian kiri atas. 4. Pilih Correlations, dan Common Sample



5. Tampilan korelasi antar variabel adalah sebagai berikut:



Hasil di atas menunjukkan bahwa korelasi antar variabel sangat erat. Ini terlihat dari nilainya yang tinggi (0,99). Nilai tertinggi dalam perhitungan korelasi adalah 1 (satu), yang menunjukkan hubungan yang sempurna antar variabel. Sehingga dari hasil di atas diduga terdapat multikolinieritas antar variabel-variabel tersebut.



7.1.2. Menggunakan korelasi parsial. Pengujian yang lain, yang dapat digunakan untuk melihat multikolinieritas antar variabel adalah dengan menggunakan uji parsial. Tahap-tahap pengujian dengan menggunakan metode ini adalah: 1. Lakukan estimasi regresi terhadap model asal yaitu



mt   0  1 yt   2 rt  e . Kemudian



2



dapatkan nilai koefisien determinasinya (R m,y,).



2. Lakukan estimasi regresi untuk variabel lain dengan merubah variabel dependennya. Pertama, lakukan estimasi regresi untuk yt   0  1mt   2 rt  e



Kedua, lakukan estimasi regresi untuk



rt   0  1mt   2 yt  e



3. Bandingkan nilai R2 m,y,r. dengan R2y,m, r dan R2r,y,m. Jika R2 m,y,r lebih tinggi berarti tidak ditemukan multikolinieritas. Namun apabila kita temukan diperoleh bahwa nilai R2y,m, r (0,993) lebih tinggi dari nilai R2 m,y,r (0,992) maka dapat disimpulkan bahwa terjadi multikolinieritas dari model di atas.



7.1.3. Cara mengobati Multikolinieritas



Untuk mengobati multikolinieritas dapat dilakukan dengan jalan menambah atau mengurangi variabel yang mengandung multikolinieritas. Dalam metode trial and error ini apabila ditemukan nilai Adjusted R2 yang semakin baik dan tidak merubah pengaruh signifikansi dan tanda suatu variabel bebas, maka penambahan/pengurangan variabel ini baik untuk model. Model di atas dapat kita ubah dengan jalan mengganti variabel suku bunga (R) yang terbukti tidak signifikan, ataupun menambah variabel baru agar model menjadi lebih sempurna. Misalnya untuk impor kita tambahkan variabel kurs (nilai tukar). Hal ini dengan pertimbangan bahwa secara teori, kurs juga berpengaruh terhadap impor barang dan jasa. Cara lain untuk menghilangkan multikolinieritas adalah menghilangkan salah satu atau variabel bebas yang mempunyai kolinieritas yang tinggi dengan cara menggunakan uji Wald. Pada uji ini, akan diuji apakah variabel yang diduga terkena multikolinieritas dapat dihilangkan. Langkah-langkah penggunaan Uji Wald adalah: 1. Estimasi regresi.



Karena yang diduga memiliki kolinieritas adalah variabel R, maka dilakukan uji wald test. 2. Klik Views, dan pilih Cofficient Test, lalu kelik Wald-Cofficient Restriction. Ketik c(3) = 0, kemudian klik OK.



Karena variabel R merupakan variabel urutan ketiga, maka kita ingin menguji apakah variabel C(3) memiliki nilai 0 atau tidak. Dengan demikian, dalam pengujian dianggap H0: C(3) =0 dan Ha: C(3) ≠ 0. Jika nilai F hitung tidak signifikan, hasilmya adalah tidak dapat menolak H0. Dengan demikian, variabel ketiga (R) sama dengan nol dan dapat dihilangkan dalam persamaan. Namun jika F signifikan, maka penghilangan variabel yang diduga memiliki multikolinieritas adalah tidak diperbolehkan. Hasil uji Wald-test adalah sebagai berikut:



Hasil uji Wald menunjukkan bahwa nilai probabilitas tidak signifikan, dengan demikian hipotesa nol diambil. Dengan demikian bahwa nilai koefisien c(3)=0. Dengan demikian, variabel R dapat dihilangkan dan diganti dengan variabel lain.



7.2. Uji Normalitas



Asumsi dalam OLS adalah nilai rata-rata dari faktor pengganggu (i) adalah nol. Untuk menguji apakah normal atau tidaknya faktor pengganggu, maka perlu dilakukan uji Normalitas dengan menggunakan Jarque-Bera Test (J-B test). Uji Jarque-Bera menggunakan hasil estimasi residual dan chi square probability distribution. Langkah-langkah untuk mendapatkan menjalankan J-B test adalah: 1. Hitung skewness and kurtosis 2. Hitung nilai J-B statistic



𝑆 2 (𝐾 − 3)2 𝐽𝐵 = 𝑛 [ + ] 6 24 Dimana: N = jumlah observasi S = skewness K = kurtosis 3. Bandingkan nilai J-B hitung dengan 2 tabel. Apabila nilai JB hitung > 2 tabel, maka hipotesis yang menyatakan bahwa residual µt berdistribusi normal dapat ditolak. Sedangkan apabila nilai JB hitung < 2 tabel, maka hipotesis yang menyatakan bahwa residual µt berdistribusi normal tidak dapat ditolak Adapun langkah-langkahnya : 1. Lakukan estimasi untuk model imports = f (grdp, kurs)



2. Klik menu View, Residual Test, Histogram, Normality Test.



Hipotesis nol dalam pengujian adalah data berdistribusi normal, sedangkan hipotesis alternatifnya adalah data tidak berdistribusi normal. Dari tampilan tersebut ditemukan bahwa besarnya nilai Jarque Berra normality test statistics adalah 1,7323. Kemudian dibandingkan dengan nilai 2 tabel (0,05) degree of fredom (derajat kebebasan) = 2 maka diperoleh nilai 5.99147, maka t adalah berdistribusi normal. Cara lain untuk melihat apakah data telah berdistribusi normal dengan menggunakan JBtest ini adalah dengan melihat angka probability. Apabila angka probability > 0,05 maka data berdistribusi normal, sebaliknya apabila angka probability < 0,05 maka data tidak berdistribusi normal.



7.3. Uji Linieritas Uji linieritas sangat penting, karena uji ini sekaligus dapat melihat apakah spesifikasi model yang kita gunakan sudah benar atau tidak. Dengan menggunakan uji ini kita dapat mengetahui bentuk model empiris dan menguji variabel yang relevan untuk dimasukkan ke dalam model empiris. Dengan kata lain, dengan menggunakan uji linieritas, specification error atau mis-spesification error. Salah satu uji yang digunakan untuk menguji linieritas adalah Uji Ramsey (Ramsey RESET Test). Uji ini dikembangkan oleh Ramsey pada tahun 1969. Ramsey mengembangkan suatu uji yang disebut dengan general test of specification error. Untuk dapat menerapkan uji ini, ada beberapa langkah yang perlu dilakukan, yakni: 1. Lakukan estimasi regresi dengan model persamaan



Yt  0  1 X1t   2 X 2t  t Dapatkan nilai R2 dari persamaan di atas. Misal kita beri nama R2short.



2. Lakukan juga regresi dengan nilai fitted Yt sebagai variabel tambahan variabel bebas, dengan model regresi menjadi:



Yt   0  1 X 1t   2 X 2t   3 FYt 2  t dimana FY2t adalah nilai fitted dari Yt. Dapatkan juga nilai R2 pada persamaan pada no (2) ini. Beri nama R2long 3. Setelah mendapatkan nilai R2 bagi kedua variabel, maka hitung nilai Fhitung dengan menggunakan F test dengan rumus:



F



R







2  Rshort /m



2 long



(1  R



2 long



) /( n  k )



dimana: M = jumlah variabel bebas persamaan yang baru N = jumlah data/observasi K = banyaknya parameter pada persamaan yang baru. 4. Bandingkan hasil perhitungan nilai Fhitung dengan nilai Ftabel, apabila nilai Fhitung > Ftabel maka hipotesis nol yang mengatakan bahwa spesifikasi model yang digunakan dalam bentuk fungsi linier adalah benar ditolak, dan sebaliknya apabila nilai F hitung < Ftabel maka hipotesis nol yang mengatakan bahwa spesifikasi model yang digunakan dalam bentuk fungsi linier adalah benar tidak dapat ditolak. Untuk melakukan Uji Ramsey RESET, program Eviews menyediakannya secara langsung sehingga tidak perlu lagi langkah manual seperti yang dijabarkan di bagian atas. Langkahlangkah yang perlu dilakukan adalah: 1. Buka file latihan.wf1 dan lakukan estimasi regresi dengan cara Quick, Estimate Equation, dan ketikkan m c grdp kurs. Hasil estimasi regresi adalah sebagai berikut:



2. Klik View, Stability Tests dan pilih Ramsey RESET Test.



3. Hasil pengujian adalah sebagai berikut:



Hasil pengujian dengan Ramsey RESET test dipeoleh nilai F-statistik yang cukup besar yakni 13,8376 dengan nilai probabilitasnya yang sangat kecil (0,00009). Dengan demikian dapat disimpulkan bahwa model persamaan di atas tidaklah linier. Apabila kita memperoleh hasil yang demikian, kita harus melakukan perubahan model persamaan atau mencari variabel yang tepat untuk model. Menurut Gujarati (2003) salah satu keunggulan dari Ramsey RESET Test adalah kemudahannya untuk dijalankan. Namun, uji juga memiliki keterbatasan yaitu ketika mendapatkan model ini salah spesifikasi, maka kita tidak diberikan alternatif model mana yang lebih baik.



7.4. Heteroskedastisitas Apabila varians (2) dari faktor pengganggu (i) adalah sama untuk semua observasi atas variabel bebas (Xi), ini disebut dengan homoskedastisitas atau varian yang sama. Apabila nilai varian dari variabel tak bebas (Yi) meningkat sebagai akibat meningkatnya varian dari variabel bebas (Xi) maka varian dari Yi adalah tidak sama. Ini yang disebut heteroskedastisitas. Jika model memiliki heteroskedastisitas maka kita dapat membuat kesimpulan yang salah dari interpretasi, karena estimasi OLS tidak lagi BLUE (Best Linear Unbiased Estimator).



7.4.1. Cara Medeteksi Heteroskedastisitas.



Walaupun tidak ada satu aturan yang kuat untuk mendeteksi heteroskedastisitas, namun ada beberapa cara yang digunakan untuk mendeteksinya, seperti Uji Park (1966), Uji Glejser (1969) dan Uji Breusch-Pagan-Godfrey.



7.4.1.1. Uji Park Bentuk fungsi yang disarankan oleh Park adalah:



 i2   2 X i e v



i



Kemudian model ini ditulis dalam bentuk logaritma natural, sehingga menjadi: ln 2i = ln 2 +  ln Xi + vi Park menyarankan 2i (varians) digantikan dengan 2i (residual) karena 2i tidak dapat diamati, sehingga persamaan ditulis menjadi ln 2i =ln 2i +  ln Xi + vi ln 2i =  +  ln Xi + vi Uji Park dilakukan dengan melihat apabila koefisien parameter B adalah signifikan secara statistik, ini menunjukkan bahwa data dari model empiris terdapat heteroskedastisitas. 1. Lakukan estimasi dengan menggunakan model imports = f (grdp, kurs)



2. Bentuk nilai residualnya, kemudian di log kuadratkan Klik Quick, Generation Series. Pada kotak generation series tuliskan U = RESID, klik OK. U2 = U^2, klik OK. lu2 = log(U2), klik OK.



lgrdp = Log(grdp), klik OK. 3. Klik menu Quick, Estimate Equation, tulis lu2 c lgrdp kurs Kemudian muncul hasil estimasi regresi berikut:



Lihat koefisien variabel lgrdp untuk pengujian pada  = 5%. Berdasarkan uji Park dapat disimpulkan bahwa model empiris yang digunakan tidak terkena heteroskedastisitas karena variabel tersebut (lgrdp) tidak signifikan pada tingkat signifikansi 5%. 7.4.1.1. Uji White Uji White hampir sama dengan uji Park. White memulai pengujiannya dengan membentuk model:



Yi   0  1 X 1   2 X 2  i Kemudian, persamaan di atas dimodifikasi dengan membentuk regresi bantuan (auxiliary regression) sehingga model menjadi



i2   0  1 X 1   2 X 2  3 X 12   4 X 22  5 X 1 X 2  i Pedoman dari penggunaan model White ini adalah bahwa tidak terdapat masalah heteroskedastisitas dalam hasil estimasi, jika nilai R 2 hasil regresi dikalikan dengan jumlah data atau [n.R2 = 2 hitung ] lebih kecil dibandingkan 2 tabel . Sementara, akan terdapat masalah heteroskedastisitas apabila hasil estimasi menunjukkan bahwa 2 hitung lebih besar dibandingkan dengan 2 tabel.



Dalam Program Eviews, uji White dapat dilakukan dengan dua cara, yaitu White Heteroskedastisitas (no cross term) dan White Heteroskedastisitas (cross term). Adapun langkah untuk mendapatkan uji White pada Program Eviews adalah: 1. Lakukan estimasi dengan menggunakan model imports = f (grdp, kurs) 2. Klik View, Residual Tests, White Heteroskedasticity (cross terms).



Hasil uji White ditampilkan sebagai berikut:



Perhatikan nilai Obs*R-squared atau 2 hitung dan juga nilai probability-nya. Apabila nilai probability lebih rendah dari 0,05. Hipotesa nol dalam uji heteroskedastas adalah tidak terdapat heteroskedastisitas dan hipotesa alternatifnya terdapat heteroskedastisitas. Hasil estimasi menunjukkan bahwa Obs*R-squared atau 2 hitung lebih rendah dari nilai 2 tabel yang ditandai dengan nilai probability yang tinggi. Dengan demikian hipotesa nol diterima atau tidak ada heteroskedastisitas dari hasil estimasi.



7.4.2. Cara Mengobati Masalah Heteroskedastisitas Heteroskedastisitas tidak merusak sifat ketidakbiasaan dan sifat konsistensi dari hasil estimasi. Namun hasil estimasi tidak lagi efisien. Oleh karena tidak efisien lagi, maka pengujian hipotesa menjadi diragukan hasilnya. Dengan demikian, sangat perlu dilakukan perbaikan atau pengobatan pada masalah heteroskedastisitas tersebut. Misal dari file latihan, dilakukan regresi linier sederhana antara kurs dan inflasi. Hasil estimasi regresi tersebut adalah:



Apabila diuji heteroskedastisitasnya dengan menggunakan White test, maka hasilnya adalah sebagai berikut:



Nilai probability chi-square-nya memang lebih besar dari 5%, namun untuk pengujian tingkat signifikansi 10%, maka hasil estimasi tidak lepas dari heteroskedastisitas. Cara lain untuk mendeteksi adanya heteroskedastisitas adalah dengan mengganti Option pada saat melakukan estimasi regresi dengan program Eviews. Lakukan perubahan Option seperti pada gambar berikut dengan mengklik tanda cek pada kotak Heteroskedasticity consistent coefficient covariance.



Hasil estimasi dengan menggunakan Option seperti gambar di atas adalah:



Perhatikan hasil estimasi tersebut di atas. Nilai koefisien estimasi untuk variabel CPI tidak mengalami perubahan. Ini yang disebut konsisten. Perbedaannya adalah t-statistik atau t hitung pada variabel CPI dan juga nilai standar error-nya. Hasil estimasi tersebut diduga terkena heteroskedastisitas karena nilai t hitungnya yang semakin kecil dan standar error yang semakin besar. Jadi, walaupun ada heteroskedastisitas pada hasil estimasi regresi, koefisien variabel hasil estimasi tidak berubah (konsisten) namun nilai t-hitungnya mengalami penurunan.



Untuk mengobati masalah ini, ada dua pendekatan yang disarankan oleh para ahli ekonometri yaitu jika varians (2) diketahui dan jika varians (2) tidak diketahui. 7.4.2.1. Jika Varians Diketahui Apabila varians (2) dapat diketahui atau dapat diestimasi, untuk mengatasi masalah heteroskedastisitas adalah dengan menggunakan metode kuadrat terkecil tertimbang (weighted least squares = WLS). Misalkan model estimasi regresi penelitian adalah sebagai berikut:



Y   0  1 X 1   i Dimana Y adalah kurs sedangkan X1 adalah inflasi (cpi). Karena varians dianggap diketahui, maka bagikan sisi kiri dan sisi kanan dari persamaan tersebut dengan varians (2), sehingga model estimasi menjadi:



Yi



i Nilai



 i dalam







0  X  1 1  i i i i



ekonometrika disebut sebagai sum of squares residual = RSS dibagi dengan



jumlah variabel penjelas (k). Lihat hasil estimasi di atas diperoleh nilai RSS atau Sum Squared Residual sebesar 12818,36 dan k = 1 (hanya satu variabel yang diestimasi), sehingga nilai i = 12818,36/1 = 12818,36. Nilai i kemudian ditransformasikan ke dalam masing-masing variabel. Langkah-langkah untuk membuat regresi weighted least square adalah: 1. Klik Quick, Generate Series, kemudian ketik:



2. Klik lagi Quick, Generate Series, dan ketik wcpi=cpi/var. 3. Klik lagi Quick, Generate Series, dan ketik wkurs=kurs/var. 4. Lakukan estimasi dengan perintah Quick, Estimation Equation, ketik:



5. Hasil dari estimasi regresi adalah:



6. Sebagai rujukan untuk melihat apakah hasil estimasi regresi telah lolos dari masalah heteroskedastisitas, maka coba perhatikan nilai sum squared resid. Bila angka tersebut cenderung menurun, maka dapat dikatakan bahwa model yang diestimasi lolos



dari masalah heteroskedastisitas. Hasil estimasi menunjukkan bahwa nilai i semakin kecil. 7.4.2.2. Jika Varians Tidak Diketahui Sering sekali seorang peneliti dihadapkan pada nilai



 i2 yang



tidak diketahui olehnya. Oleh



karena itu, dalam prakteknya para peneliti tersebut menggunakan asumsi tertentu untuk menentukan



 i2 .



Untuk mengatasi masalah heteroskedastisitas, para peneliti akan



melakukan perubahan (transformasi) model dengan berlandaskan kepada 3 hipotesis. Hipotesis 1 : varians kesalahan adalah proporsional terhadap X i. Varians kesalahan dikatakan proporsional terhadap Xi, apabila:



 



E  i2   2 X i Berdasarkan kepada kondisi ini, maka persamaan model regresi akan ditransformasikan menjadi:



Yi Xi



0







Yi Xi



Xi 



 1



0 Xi



Xi Xi







i Xi



 1 X i   i



dimana:



i 



i Xi



dan



Xi  0



Untuk contoh model regresi sederhana antara kurs dan inflasi seperti di atas, maka terlebih dahulu membentuk variabel akar cpi sebagai variabel pembagi. Prosedur yang dilakukan adalah sebagai berikut: 1. Klik Quick, Generate Series, kemudian ketik di dalam kotak seperti gambar berikut.



2. Klik lagi Quick, Generate Series, dan ketik kursa=kurs/acpi. 3. Klik lagi Quick, Generate Series, dan ketik cpia=cpi/acpi. 4. Lakukan estimasi dengan perintah Quick, Estimation Equation, ketik di dalam kotak estimasi seperti gambar berikut.



Hasil estimasi regresi adalah sebagai berikut:



Untuk melihat apakah hasil estimasi regresi telah lolos dari masalah heteroskedastisitas, maka coba perhatikan nilai sum squared resid. Bila angka tersebut cenderung menurun, maka dapat dikatakan bahwa model yang diestimasi lolos dari masalah heteroskedastisitas. Hasil estimasi menunjukkan bahwa nilai i semakin kecil. Dengan demikian model di atas telah terbebas dari heteroskedastisitas. Sementara itu, apabila model regresi yang dianalisis adalah model regresi berganda seperti contoh pengaruh gdrp dan kurs terhadap imports, maka prosedur pertama yang dilakukan adalah menentukan variabel independen mana yang akan menjadi pembagi. Untuk menentukannya, maka dicari variabel yang nilai standar deviasinya terkecil.



Dari hasil analisis deskriptif diperoleh bahwa kurs memiliki standar deviasi yang lebih kecil dibandingkan grdp. Oleh karena itu, variabel kurs ditetapkan sebagai variabel pembagi. Prosedur untuk menghasilkan estimasi regresi yang bebas heteroskedastisitas adalah: 1. Klik Quick, Generate Series, kemudian ketik:



2. 3. 4. 5.



Klik lagi Quick, Generate Series, dan ketik importsb=imports/akurs. Klik lagi Quick, Generate Series, dan ketik kursb=kurs/akurs. Klik lagi Quick, Generate Series, dan ketik grdpb=grdp/akurs. Lakukan estimasi dengan perintah Quick, Estimation Equation, ketik:



Hasil estimasi regresi model di atas adalah:



Perhatikan sekali lagi pada nilai sum squared resid hasil estimasi regresi berganda. Angka RSS dijumpai semakin kecil. Bila angka tersebut cenderung menurun, maka dapat dikatakan bahwa model yang diestimasi lolos dari masalah heteroskedastisitas. Hipotesis 2:Varians kesalahan adalah proporsional terhadap Xi2 2



Varians kesalahan dikatakan proporsional terhadap X i , apabila:



 



E  i2   2 X i2 Berdasarkan kepada kondisi ini, maka persamaan model regresi akan ditransformasikan menjadi:



Yi  X   0  1 i  i Xi Xi Xi Xi



Yi 1  0  1  i Xi Xi dimana:



i 



i Xi



Untuk contoh model regresi sederhana antara kurs dan inflasi, prosedur yang dilakukan adalah klik Quick, Estimation Equation, ketik:



Hasil estimasi regresi dari model persamaan tersebut adalah:



Berdasarkan perbandingan dengan model persamaan yang terdapat masalah heteroskedastisitas, nilai sum squared resid hasil estimasi yang baru ini didapati semakin kecil. Oleh karena angka tersebut cenderung menurun, maka dapat dikatakan bahwa model persamaan yang baru telah lolos dari masalah heteroskedastisitas. Untuk contoh model regresi berganda, dimana kurs ditetapkan sebagai variabel pembagi, prosedur yang perlu dilakukan untuk mentransformasi model persamaan adalah: klik Quick, Estimate Equations dan ketik:



Hasil estimasi regresi adalah:



Nilai RSS pada model persamaan yang baru juga terlihat semakin mengecil. Berarti transformasi model yang baru telah mampu menyelesaikan masalah heteroskedastisitas.



7.5. Autokorelasi



Model regresi linier klasik mengasumsikan bahwa faktor pengganggu yang berhubungan dengan observasi tidak dipengaruhi oleh faktor pengganggu pada pengamatan lainnya. E(uiuj) = 0



ij



Apabila ada gangguan antara anggota serangkaian observasi pada data runtun waktu maka akan muncul autokorelasi. Masalah autokorelasi biasanya muncul pada data time series. Dalam data tersebut, observasi diurutkan secara kronologis sehingga sangat memungkinkan terjadinya hubungan terutama bila selang waktu pengamatan sangat pendek.



7.5.1. Cara Mendeteksi Autokorelasi Ada beberapa cara yang dapat digunakan untuk mendeteksi adanya autokorelasi, seperti uji d Durbin Watson (uji – DW) dan uji Langrange Multiplier (LM Test). 7.5.1.1. Uji DW Untuk menguji apakah suatu model regresi terdapat korelasi atau tidak dapat dilihat dari nilai Durbin Watson Stat. Langkah-langkah yang perlu dilakukan untuk menggunakan uji DW tersebut antara lain: 1. Lakukan estimasi regresi dengan menggunakan model empiris yang sedang diamati. Selanjutnya hitung nilai residualnya (1). 2. Hitung nilai DW statistik dengan menggunakan rumus:



 ˆ t n



d



t 2



t



 t 1







2



t



 ˆ



2 t



t 2



Dimana nilai DW statistik terletak antara 0 dan 4. Dengan pengembangan formulasi persamaan sebelumnya, maka dapat ditentukan:



     2  ˆ ` d  ˆ 2 t



2 t 1



t



t



Karena







t



dan







t



hanya berbeda satu observasi, maka kedua-duanya kira-kira akan



sama, sehingga persamaan simultan menjadi:



  ˆ t ˆ t 1  d  21    ˆt2   Setelah dihitung nilai DW nya, maka kemudian bandingkan dengan nilai DW tabel, dengan pedoman sebagai berikut:



-



Tolak Ho yang mengatakan tidak ada autokorelasi positif, bila nilai DW hitung terletak antara 0 < d < dl. Tolak H0 yang mengatakan tidak ada autokorelasi negatif apabila nilai DW statistik terletak antara 4-dl < d < 4. Terima H0 yang mengatakan tidak ada autokorelasi negatif ataupun autokorelasi positif, bila nilai DW statistik terletak antara du < d < 4-du. Ragu-ragu (inconclusive) tidak ada autokorelasi positif bila dl  d  du. Ragu-ragu (inconclusive) tidak ada autokorelasi negatif bila 4-du  d  4-dl.



Pada program Eviews, Uji DW akan ditampilkan pada saat kita melakukan estimasi regresi. Sebagai contoh, buka file autokorelasi.wf1 dan jalankan regresi dengan langkah Quick, Estimate Equation, ketik inf c jub.



Berdasarkan hasil estimasi pengaruh jumlah uang beredar dengan inflasi diperoleh nilai DW hitung sebesar 0,749. Sedangkan pada tingkat signifikansi ( = 5%), k=1 dan n=33 diperoleh nilai dl=1,383 dan du=1,508. Berdasarkan perbandingan nilai DW hitung dengan nilai DW tabel, berarti ada autokorelasi pada model regresi di atas.



7.5.1.2. Uji Lagrange Multiplier (LM Test) Uji DW secara umum sangat mudah untuk dilakukan, namun banyak peneliti yang lupa asumsi yang ada pada uji DW tersebut. Asumsi dari penggunaan uji DW dalam menguji autokorelasi adalah (1) variabel penjelas atau variabel independen adalah nonstokastik, (2) variabel error berdistribusi normal, (3) model regresi tidak termasuk variabel lag. Untuk mengatasi hal tersebut, Durbin telah membuat sebuah test yang disebut htest untuk menguji serial korelasi (model lag). Namun test tersebut tidaklah cocok, sehingga muncul test Breusch-Godfrey test atau juga dikenal dengan LM test.



Pengujian lainnya untuk melihat autokorelasi ialah dengan menggunakan Serial Correlation LM test. Caranya ialah setelah melakukan estimasi regresi, lalu pilih View, Residual test dan pilih sub menu Serial Correlation LM test. Hasil pengujian adalah sebagai berikut:



Hasil estimasi yang diperoleh menunjukkan bahwa nilai Obs*R-squared (2 hitung) > 2 tabel atau nilai probability lebih rendah dari 0,05. Hal ini menunjukkan bahwa hasil estimasi tersebut adalah signifikan. Dengan demikian, menurut uji serial korelasi (LM test), bahwa terdapat autokorelasi dalam hasil estimasi. Hal ini juga didukung oleh hasil DW test nya menunjukkan angka yang rendah.



7.5.2. Cara Mengobati Autokorelasi Apabila pada hasil estimasi dijumpai ada autokorelasi, maka sebelum diobati, perhatikan sekali lagi apakah bentuk fungsi dan persamaan yang dibuat sudah tepat. Perhatikan pula variabel-variabel penting, apakah ada variabel penting yang dihilangkan atau apakah ada kesalahan dalam spesifikasi model. Apabila kesemuanya sudah dicek dan masih juga terdapat autokorelasi pada hasil estimasi model, maka beberapa cara yang dapat dilakukan untuk mengobati autokorelasi. Dalam menjelaskan pengobatan autokorelasi dimulai dari model persamaan yang dibentuk, yakni



Yt   0   i X 1t  t dimana



t  t 1   t



Selanjutnya model persamaan menjadi:



Yt  0  1 X it  t 1   t Dimana



t =



error term yang mengandung autokorelasi murni,



 adalah koefisien



autokorelasi dan vt adalah error term yang memenuhi asumsi klasik. Apabila kita dapat menghilangkan



t 1 dari



persamaan di atas, maka masalah autokorelasi



akan hilang, karena error term yang tertinggal hanya vt yang tidak mengandung autokorelasi. Untuk menghilangkan t 1 , maka persamaan di atas dikalikan dengan  dan juga membuat lagnya, sehingga persamaannya menjadi:



Yt 1   0   i X 1t 1  t 1 Selanjutnya kurangkan kedua persamaan di atas menjadi:



Yt  Yt 1   0 (1   )  1 ( X 1t  X 1t 1 )  (t  t 1 ) Masalahnya kita tidak mengetahui sebenarnya berapa nilai dilakukan pengujian melalui transformasi model. transformasi untuk mengobati autokorelasi, yaitu:



 tersebut. Untuk itu perlu



Eviews



menyediakan



dua



cara



 = 1 (besar sekali) 2. Jika diasumsikan   1. 1. Jika diasumsikan



Apabila diasumsikan nilai



 = 1 maka persamaan di atas menjadi Yt  Yt 1  1 ( X 1t  X 1t 1 )  t



Pada persamaan di atas nilai konstanta sudah tidak ada. Jadi hanya regresi antara variabel Y dan variabel X saja. Pada hasil estimasi kita terdahulu didapati adanya autokorelasi. Berdasarkan pendekatan ini, maka untuk langkah-langkah pada Program Eviews yang perlu dilakukan untuk mengobati autokorelasi tersebut adalah klik Quick, Estimate Equation, dan ketikkan:



Pada estimasi di atas, terlihat pada setiap variabel dimulai dengan huruf D. Hal ini menunjukkan bahwa kedua variabel dibuat dalam bentuk pembedaan pertama (first difference). Dalam membuat estimasi regresi tidak lagi diperlukan intercept. Hasil dari estimasi persamaan tersebut adalah:



Hasil estimasi di atas dapat dituliskan ke dalam bentuk persamaan regresi yaitu: Inft – Inft-1 = 0,525284 (Jubt – Jubt-1)



Hasil estimasi regresi menunjukkan bahwa nilai DW hitung telah mencapai 1,893. Hal ini berarti tidak ada lagi autokorelasi. Dengan demikian upaya untuk menghilangkan autokorelasi telah hilang. Namun, apakah benar metode ini telah sesuai seperti yang diharapkan. Apabila diperhatikan, nilai koefisien determinasi (R 2) diperoleh nilai negatif. Mengapa hal ini bisa terjadi? Biasanya nilai R2 adalah positif. Namun dalam Program Eviews, perhitungan koefisien determinasi menggunakan rumus:



R2  1 



 eˆ



2



 ( y  y)



2



dan N



eˆ  y  xb ; y 



y



i



i 1



N



dimana :



eˆ = residual y = nilai rata-rata variabel y Apabila nilai



 eˆ



2



lebih kecil dibandingkan nilai



secara matematis apabila nilai 2



 eˆ



2



 ( y  y)



2



maka nilai R2 akan positip. Tetapi



lebih besar dibandingkan nilai



 ( y  y)



2



, maka nilai



R akan bernilai negatif. Berdasarkan hasil estimasi tersebut di atas, maka metode menghilangkan autokorelasi menjadi kurang tepat. Selanjutnya lakukan metode kedua untuk mengobati masalah autokorelasi dengan mencari nilai  yang sesungguhnya. Pada metode ini, kita harus mengestimasi nilai  tersebut, yaitu dengan cara menggunakan model AR(1). Dalam model ini model yang digunakan adalah:



t  1t 1  2 t  2  ...  n t  n   t Jika nilai



 = 1, maka ini disebut autoregresif berordo 1, sehingga persamaannya menjadi



t  t 1   t Model AR(1) ini dapat menjadi dasar dalam membuat perbedaan guna menghilangkan autokorelasi pada persamaan. Untuk itu, dalam estimasi regresi perlu ditambahkan AR(1) sebagai variabel bebas (independent variabel). Dengan demikian pada program Eviews kita buat pada Estimate Equation menjadi:



Hasil estimasi regresi adalah sebagai berikut:



Koefisien variabel AR(1) adalah sebesar 0,6134. Angka tersebut merupakan nilai dari



.



Untuk menuliskan hasil estimasi tersebut ke dalam persamaan dapat dilihat pada langkah berikut:



Inf t  Inft 1  (0  0 )  1 ( Jubt  Jubt 1 )  (t  t 1 ) Inf t  0,6134Inf t 1  (2,5735  (0,6134  2,5735))  0,5963( Jubt  0,6134Jubt 1 ) sehingga persamaan menjadi:



Inf t  0,9949  0,6134Inf t 1  0,5963Jubt  0,3658Jubt 1 Selanjutnya kita coba untuk membuktikan apakah estimasi regresi di atas tidak lagi memiliki autokorelasi. Untuk pengujian tersebut, maka digunakan LM test. (Ingat pada pengujian model yang berbentuk lag, tidak disarankan menggunakan Uji DW). Prosedur yang digunakan untuk melakukan Uji LM dengan program Eviews adalah: 1. Kembali ke hasil estimasi regresi. 2. Klik View, Residual Test, Serial Correlation LM Test. 3. Biarkan lag to include dengan angka 2, dan klik OK. Hasil yang didapati adalah sebagai berikut:



Hasil pengujian menunjukkan bahwa nilai Obs*R-squared bernilai 1,6044 dengan nilai Prob. Chi-Square(2) adalah 0,4483. Hasil ini menunjukkan bahwa nilai probabilitasnya yang cukup besar (di atas 0,05), sehingga kita tidak menolak hipotesa nol, yaitu tidak ada autokorelasi.



Berdasarkan hasil tersebut, maka kita lebih cenderung untuk menggunakan model penghapusan autokorelasi yang kedua yakni dengan menggunakan model AR(1).