P12 - Modul Praktikum 5 [PDF]

  • 0 0 0
  • Suka dengan makalah ini dan mengunduhnya? Anda bisa menerbitkan file PDF Anda sendiri secara online secara gratis dalam beberapa menit saja! Sign Up
File loading please wait...
Citation preview

PERTEMUAN XII PROYEKSI BISNIS DENGAN ANALISIS REGRESI BERGANDA



A. Pengertian dan Latar Belakang Analisis Regresi Berganda Pada bab sebelumnya telah dibahas mengenai analisis regresi sederhana satu variabel tergantung yang diprediksikan dengan menggunakan satu variabel bebas saja. Namun, kenyataan di dunia bisnis (fenomena ekonomi) tidak pernah ada satu variabel tergantung yang hanya dipengaruhi oleh satu variabel bebas. Kenyataan di lapangan jauh lebih kompleks di mana satu variabel tergantung dipengaruhi oleh dua atau lebih variabel bebas. Dengan demikian analisis regresi sederhana itu perlu diperluas lagi menjadi analisis regresi berganda. Perbedaan antara regresi sederhana dengan regresi berganda terletak pada jumlah variabel bebasnya. Jika dalam regresi sederhana jumlah variabel bebas yang digunakan untuk memprediksi variabel tergantung hanya satu, maka dalam regresi berganda jumlah variabel bebas yang digunakan untuk memprediksi variabel tergantung lebih dari satu. Pada awalnya analisis regresi berganda dikembangkan oleh para ahli ekonometri untuk membantu meramalkan akibat dari aktivitas-aktivitas ekonomi pada berbagai segmen ekonomi (Sugiarto dan Harijono, 2000). Namun, fenomena ekonomi dan bisnis sangatlah kompleks sehingga perubahan suatu variabel tidak hanya disebabkan oleh satu variabel bebas saja, tetapi juga dipengaruhi oleh variabel lain sehingga tidak dapat dijelaskan hanya dengan menggunakan satu variabel bebas saja. Contoh: 1. Besarnya konsumsi keluarga tidak hanya dipengaruhi oleh besarnya pendapatan, tetapi juga dipengaruhi oleh jumlah anggota keluarga, tingkat pendidikan dan gaya hidup. 2. Besarnya jumlah penjualan tidak hanya dipengaruhi oleh harga saja, tetapi juga dipengaruhi oleh besarnya biaya promosi dan biaya distribusi yang dikeluarkan. 3. Besarnya pendapatan seseorang tidak hanya dipengaruhi oleh gaji saja, tetapi juga dipengaruhi oleh jumlah kekayaan yang dimilikinya.



B. Model Regresi Linear Berganda Dari uraian di atas diketahui bahwa dalam regresi berganda variabel tergantung dipengaruhi oleh dua atau lebih variabel bebas sehingga hubungan fungsional antara variabel tergantung (Y) dengan variabel bebas (𝑋1 , 𝑋2 , … , 𝑋𝑛 ) secara umum dapat ditulis sebagai berikut: 𝒀 = 𝒇(π‘ΏπŸ , π‘ΏπŸ , … , 𝑿𝒏 ) Di mana: π‘Œ = Variabel tergantung (dependen) 𝑋1 , 𝑋2 , … , 𝑋𝑛 = Variabel bebas (independen) Secara piktografik model fungsional di atas dapat digambarkan sebagai berikut:



Gambar 1. Model Piktografis Regresi Berganda



Dalam model di atas terlihat bahwa variabel tergantung dipengaruhi oleh dua atau lebih variabel bebas. Di samping itu juga dipengaruhi variabel lain yang tidak diteliti (e). Persamaan regresi linear berganda dapat dituliskan sebagai berikut: 𝒀 = 𝒂 + π’ƒπŸ π‘ΏπŸ + π’ƒπŸ π‘ΏπŸ + β‹― + 𝒃𝒏 𝑿𝒏 + 𝜺 π‘Œ = Variabel tergantung (Nilai yang diptoyeksikan) π‘Ž = Intercept (Konstanta) 𝑏1 = Koefisien regresi untuk 𝑋1 𝑏2 = Koefisien regresi untuk 𝑋2 𝑏𝑛 = Koefisien regresi untuk 𝑋𝑛 𝑋1 = Variabel bebas pertama 𝑋2 = Variabel bebas kedua 𝑋𝑛 = Variabel bebas ke-𝑛 πœ€ = Nilai residu Untuk mencari nilai intercept (π‘Ž) dan koetisien regresi (𝑏1 , 𝑏2 , … , 𝑏𝑛 ) dapat digunakan matriks sebagai berikut:



Seperti dalam analisis regresi sederhana, dalam analisis regresi berganda juga ada beberapa hal yang harus dianalisis sebagai dasar untuk melakukan analisis lebih mendalam dari sekadar persamaan regresi yang terbentuk. Beberapa hal yang perlu dianalisis berkaitan dengan analisis regresi adalah sebagai berikut: 1. Persamaan regresi Persamaan regresi digunakan untuk menggambarkan model hubungan antara variabel bebas dengan variabel tergantungnya. Persamaan regresi ini memuat nilai konstanta atau intercept nilai koefisien regresi atau slope dan variabel bebasnya. 2. Nilai prediksi Nilai prediksi merupakan besarnya nilai variabel tergantung yang diperoleh dari prediksi dengan menggunakan persamaan regresi yang telah terbentuk. 3. Koefisien determinasi Koefisien determinasi merupakan besarnya kontribusi variabel bebas terhadap variabel tergantungnya. Semakin tinggi koefisien determinasi maka semakin tinggi kemampuan variabel bebas dalam menjelaskan variasi perubahan pada variabel tergantungnya. 4. Kesalahan baku estimasi Merupakan satuan yang digunakan untuk menentukan besarnya tingkat penyimpanan dari persamaan regresi yang terbentuk dengan nilai senyatanya. Semakin tinggi kesalahan baku estimasi maka semakin lemah persamaan regresi tersebut untuk digunakan sebagai alat proyeksi. 5. Kesalahan baku koefisien regresi Merupakan satuan yang digunakan untuk menunjukkan tingkat penyimpangan dari masingmasing koefisien regresi. Semakin tinggi kesalahan baku koefisien regresi maka akan



semakin lemah variabel tersebut untuk diikutkan dalam model persamaan regresi (semakin tidak berpengaruh). 6. Nilai πΉβ„Žπ‘–π‘‘π‘’π‘›π‘” Digunakan untuk menguji pengaruh secara simultan variabel bebas terhadap variabel tergantungnya. Jika variabel bebas memiliki pengaruh secara simultan terhadap variabel tergantung maka model persamaan regresi masuk dalam good of fit. Sebaliknya, jika tidak terdapat pengaruh yang simultan maka masuk dalam kategori lack of fit. 7. Nilai π‘‘β„Žπ‘–π‘‘π‘’π‘›π‘” Nilai π‘‘β„Žπ‘–π‘‘π‘’π‘›π‘” digunakan untuk menguji pengaruh secara parsial (per variabel) terhadap variabel tergantungnya, apakah variabel tersebut memiliki pengaruh yang berarti terhadap variabel tergantungnya atau tidak. 8. Kesimpulan Kesimpulan merupakan penyataan singkat berdasarkan hasil analisis apakah variabel bebas yang diuji memiliki pengaruh terhadap variabel tergantung atau tidak. Kesimpulan didasarkan pada nilai π‘‘β„Žπ‘–π‘‘π‘’π‘›π‘” dibandingkan dengan nilai π‘‘π‘‘π‘Žπ‘π‘’π‘™ -nya, atau dengan membandingkan nilai signifikansi (p-value) dengan tingkat toleransinya. Untuk lebih memahami analisis regresi linear berganda dalam aplikasi proyeksi bisnis, perhatikan contoh berikut: Contoh: Mr. Wong, manajer Perusahan Kecap "Manis Enak" di Water Gold ingin mengetahui pengaruh harga dan pendapatan terhadap volume penjualan. Untuk keperluan tersebut Mr. Wong mengambil data selama 10 tahun sebagai berikut:



a.



b.



c.



Pertanyaan penelitian ο‚· Apakah terdapat pengaruh negatif harga terhadap volume penjualan? ο‚· Apakah terdapat pengaruh positif pendapatan terhadap volume penjualan? Hipotesis Hipotesis 1 𝐻0 : Tidak terdapat pengaruh negatif harga terhadap volume penjualan. π»π‘Ž : Terdapat pengaruh negatif harga terhadap volume penjualan. Hipotesis 2 𝐻0 : Tidak terdapat pengaruh positif pendapatan terhadap volume penjualan. π»π‘Ž : Terdapat pengaruh positif pendapatan terhadap volume penjualan. Kriteria pengujiian Hipotesis 1 𝐻0 diterima jika: π‘‘β„Žπ‘–π‘‘π‘’π‘›π‘” β‰₯ βˆ’π‘‘π‘‘π‘Žπ‘π‘’π‘™ atau 𝑆𝑖𝑔. > 0,05 π»π‘Ž diterima apabila π‘‘β„Žπ‘–π‘‘π‘’π‘›π‘” < βˆ’π‘‘π‘‘π‘Žπ‘π‘’π‘™ atau 𝑆𝑖𝑔. ≀ 0,05



d.



Hipotesis 2 𝐻0 diterima jika: π‘‘β„Žπ‘–π‘‘π‘’π‘›π‘” ≀ π‘‘π‘‘π‘Žπ‘π‘’π‘™ atau 𝑆𝑖𝑔. > 0,05 π»π‘Ž diterima apabila π‘‘β„Žπ‘–π‘‘π‘’π‘›π‘” > βˆ’π‘‘π‘‘π‘Žπ‘π‘’π‘™ atau 𝑆𝑖𝑔. ≀ 0,05 Analisis data 1. Mencari Persamaan Regresi a. Dengan cara manual Untuk mencari persamaan regresi dengan cara manual, buatlah lembar kerja seperti berikut ini:



Gambar 2. Lembar Kerja Analisis Regresi Linear Berganda Setelah semua sel diisi lengkap dengan mengopikan formula sel E2 sampai dengan sel E11, sel F2 sampai dengan sel F11, sel G2 sampai dengan sel G11, sel H2 sampai dengan sel H11, sel I2 sampai dengan sel I11, sel J2 sampai dengan sel J11,dan sel B12 sampai dengan sel J12 maka hasilnya adalah sebagai berikut:



Gambar 3. Hasil Lembar Kerja Analisis Regresi Linear Berganda Berdasarkan tabel di atas dapat diketahui: βˆ‘ 𝑋1 2 𝑁 = 10 = 237 βˆ‘ 𝑋1 βˆ‘ = 40 𝑋1 𝑋2 = 192 βˆ‘ 𝑋2 βˆ‘ 𝑋1 π‘Œ = 47 = 282 βˆ‘π‘Œ βˆ‘ 𝑋2 π‘Œ = 74 = 375 2 2 βˆ‘ 𝑋1 βˆ‘π‘Œ = 180 = 626



Dengan demikian besarnya koefisien regresi dapat dicari dengan langkah sebagai berikut:



Persamaan regresi linear berganda dengan menggunakan dua variabel bebas adalah sebagai berikut: 𝒀 = 𝒂 + π’ƒπŸ π‘ΏπŸ + π’ƒπŸ π‘ΏπŸ + β‹― + 𝒃𝒏 𝑿𝒏 + 𝜺 Untuk mencari nilai intercept (π‘Ž) dan koefisien regresi 𝑏1 dan 𝑏2 dapat digunakan rumus sebagai berikut: 𝐷𝑒𝑑[𝐴1 ] π‘Ž= 𝐷𝑒𝑑[𝐴] 𝐷𝑒𝑑[𝐴2 ] 𝑏1 = 𝐷𝑒𝑑[𝐴] 𝐷𝑒𝑑[𝐴3 ] 𝑏2 = 𝐷𝑒𝑑[𝐴]



Untuk menghitung determinan matriks A dilakukan dengan cara sebagai berikut:



𝐷𝑒𝑑 [𝐴] = (10 βˆ— 180 βˆ— 237) + (40 βˆ— 192 βˆ— 47) + (47 βˆ— 40 βˆ— 192) βˆ’ (47 βˆ— 180 βˆ— 47) + (192 βˆ— 192 βˆ— 18) + (237 βˆ— 40 βˆ— 40) = 3.060 Untuk menghitung matriks determinan dengan menggunakan program Microsoft Excel dapat dilakukan dengan langkah-langkah seperti berikut:



 Buat matriks yang akan dihitung nilai determinannya, misalnya matriks A sehingga tampilannya akan menjadi seperti berikut:



Gambar 4. Lembar Kerja Menghitung Matriks Determinan  Letakkan kursor pada tempat yang kosong, misal di B6.  Klik menu Formulas οƒ  Insert Function sehingga muncul tampilan Insert Function.  Pada Or select a Category, pilih Math & Trig sedangkan pada Select a function pilih MDETERM.



Gambar 5. Insert Function  Klik tombol OK.  Pada Function Arguments Array, isi dengan A2:C4, bisa dengan cara diketik maupun dengan cara blok, sehingga tampilannya menjadi seperti berikut:



Gambar 6. Function Arguments  Klik tombol OK sehingga muncul nilai matriks determinannya, yaitu sebesar 3060. Dengan cara yang sama matriks determinan [A1], [A2], dan [A3] sehingga diperoleh nilai sebagai berikut: οƒΌ Matriks Determinan [A] = 3060 οƒΌ Matriks Determinan [A1] = 7812 οƒΌ Matriks Determinan [A2] = -3342 οƒΌ Matriks Determinan [A3] = 6000 Setelah semua matriks determinan [A], [Al], [A2], dan [A3] dapat diperoleh maka dapat dihitung nilai intercept (π‘Ž) dan koefeisien regresi 𝑏1 dan 𝑏2 sebagai berikut: 𝐷𝑒𝑑[𝐴1] 7812 π‘Ž= = = 2,553 𝐷𝑒𝑑[𝐴] 3060 𝐷𝑒𝑑[𝐴2] βˆ’3342 𝑏1 = = = βˆ’1,092 𝐷𝑒𝑑[𝐴] 3060 𝐷𝑒𝑑[𝐴3] 6000 𝑏2 = = = 1,961 𝐷𝑒𝑑[𝐴] 3060 Sehingga persamaan regresi linear berganda yang terbentuk adalah sebagai berikut: 𝒀 = 𝟐, πŸ“πŸ“πŸ‘ βˆ’ 𝟏, πŸŽπŸ—πŸπ’™π‘ΏπŸ + 𝟏, πŸ—πŸ”πŸπ‘ΏπŸ + 𝜺 Arti persamaan regresi: 2,553 = Jika harga sebesar 0 dan pendapatan juga 0 maka penjualan akan sebesar 2,553. -1,092 = Jika harga naik sebesar 1 satuan dan pendapatan tetap maka penjualan akan turun sebesar 1,092. 1.961 = Jika pendapatan naik sebesar 1 satuan dan harga tetap maka penjualan akan naik sebesar 1.092. 2. Mencari Nilai Prediksi Untuk menghitung nilai prediksi harus dimasukkan nilai variabel bebas setiap sampel (case) ke dalam persamaan regresi yang telah terbentuk. Untak menghitung nilai prediksi penjualan sampel pertama, dapat dibuat formula pada sel E2 sebagai berikut = 2,553 βˆ’ 1,092 βˆ— 𝐡2 + 1,961 βˆ— 𝐢2 dan kemudian kopikan sel tersebut sampai dengan sel E11.



Gambar 7. Lembar Kerja Mencari Nilai Prediksi Regresi Linear Berganda Setelah sel E2 dikopikan sampai sel E11 dan sel D12 dikopikan ke sel E12 maka tampilannya menjadi seperti berikut:



Gambar 8. Hasil Lembar Kerja Mencari Nilai Prediksi Regresi Linear Berganda Keterangan: π‘Œπ‘π‘Ÿπ‘’π‘‘ 1 = 2,553 βˆ’ 1,092 (2) + 1,961(3) = 6,252 π‘Œπ‘π‘Ÿπ‘’π‘‘ 2 = 2,553 βˆ’ 1,092 (3) + 1,961(4) = 7,121 π‘Œπ‘π‘Ÿπ‘’π‘‘ 3 = 2,553 βˆ’ 1,092 (3) + 1.961(6) = 8,859 Dan seterusnya .... 3. Mencari Koefisien Determinasi (𝑅 2 ) Formula untuk mengitung besarnya koefisien determinasi adalah sebagai berikut: Μ‚ )𝟐 βˆ‘(𝒀 βˆ’ 𝒀 𝟐 𝑹 =πŸβˆ’ Μ… )𝟐 βˆ‘(𝒀 βˆ’ 𝒀 𝑅2 = Koefisien determinasi 2 (π‘Œ βˆ’ π‘ŒΜ‚) = Kuadrat selisih nilai Y riil dengan nilai Y prediksi 2 (π‘Œ βˆ’ π‘ŒΜ…) = Kuadrat selisih nilai Y riil dengan nilai Y rata-rata



Disebabkan untuk menghitung koefisien determinasi diperlukan nilai kuadrat selisih nilai Y riil dengan nilai Y prediksi dan nilai kuadrat selisih nilai Y riil dengan nilai Y rata-rata maka dalam lember kerja kita buat formulasi sebagai berikut:



Gambar 9. Lembar Kerja Mencari Nilai Koefisien Determinasi Setelah sel F2 dikopikan sampai sel F11, mengetikkan formula yang sama dari sel G2 sampai dengan sel G11, dan mengopikan sel E12 sampai dengan sel G12 maka tampilannya menjadi seperti berikut:



Gambar 10. Hasil Lembar Kerja Mencari Nilai Koefisien Determinasi Berdasarkan lembar kerja tersebut maka kita dapat menghitug koefisien determinasi sebagai berikut: 2 βˆ‘(π‘Œ βˆ’ π‘ŒΜ‚) 9,776 2 𝑅 =1βˆ’ = 1 βˆ’ = 0,875 βˆ‘(π‘Œ βˆ’ π‘ŒΜ…)2 78,4



Artinya: Koefisien determinasi (𝑅 2 ) sebesar 0,875 berarti bahwa 87,5 persen penjualan dipengaruhi oleh harga dan pendapatan sedangkan sisanya dipengaruhi oleh variabel lain di luar model (variabel yang tidak diteliti). Koefisien determinasi memiliki kelemahan, yaitu bias terhadap jumlah variabel bebas yang dimasukkan dalam model regresi di mana setiap penambahan satu variabel bebas dan jumlah pengamatan dalam model akan meningkatkan nilai 𝑅 2 meskipun variabel yang dimasukkan tersebut tidak berpengaruh signifikan terhadap variabel tergantungnya. Untuk mengurangi kelemahan tersebut maka digunakan koefisien determinasi yang telah disesuaikan atau Adjusted R Square (𝑅 2 π‘Žπ‘‘π‘— ). Koefisien determinasi yang telah disesuaikan adalah koefisien determinasi yang telah dikoreksi dengan memasukkan jumiah variabel dan ukuran sampel yang digunakan. Dengan menggunakan koefisien determinasi yang disesuaikan maka nilainya akan dapat naik atau turun bilamana ada penambahan variabel baru dalam model. Formula untuk menghitung koefisien determinasi yang disesuaikan adalah sebagai berikut: 𝑷(𝟏 βˆ’ π‘ΉπŸ ) π‘ΉπŸ 𝒂𝒅𝒋 = π‘ΉπŸ βˆ’ π‘΅βˆ’π‘·βˆ’πŸ Keterangan: 𝑅 2 = Koefisien determinasi 𝑁 = Ukuran sampel 𝑃 = Jumlah variabel bebas Dengan demikian berdasarkan kasus di atas, besarnya koefisien determinasi yang disesuaikan dapat dihitung sebagai berikut: 𝑃(1 βˆ’ 𝑅 2 ) 2(1 βˆ’ 0,875) 𝑅 2 π‘Žπ‘‘π‘— = 𝑅 2 βˆ’ = 0,875 βˆ’ = 0,840 π‘βˆ’π‘ƒβˆ’1 10 βˆ’ 2 βˆ’ 1 4. Kesalahan Baku Estimasi (Standard Error of the Estimate) Kesalahan baku estimasi merupakan satuan yang digunakan untuk mengukur tingkat penyimpangan antara persamaan regresi dengan nilai riilnya. Formula yang digunakan untuk mengukur kesalahan baku estimasi adalah sebagai berikut: Μ‚ )𝟐 βˆ‘(𝒀 βˆ’ 𝒀 √ 𝑺𝒆 = π’βˆ’π’Œ 𝑆𝑒 = Kesalahan baku estimasi 2 (π‘Œ βˆ’ π‘ŒΜ‚) = Kuadrat selisih nilai Y riil dengan nilai Y prediksi 𝑛 = Ukuran sampel π‘˜ = Jumlah variabel yang diamati Berdasarkan perhitungan dalam lembar kerja di atas maka dapat ditentukan besarnya penyimpangan baku estimasi, yaitu sebagai berikut: 2



βˆ‘(π‘Œ βˆ’ π‘ŒΜ‚) 9,777 𝑆𝑒 = √ =√ = 1,182 π‘›βˆ’π‘˜ 10 βˆ’ 3 Semakin rendah nilai kesalahan baku estimasi semakin baik untuk digunakan sebagai alat proyeksi. Sebaliknya, semakin tinggi nilai kesalahan baku estimasi maka semakin lemah kemampuan persamaan regresi tersebut untuk digunakan dalam membuat proyeksi.



5. Kesalahan Baku Koefisien Regresi Digunakan untuk mengukur besarnya penyimpangan dari masing-masing koefisien regresi yang terbentuk. Semakin rendah kesalahan baku koefisien regresi maka semakin berperan variabel tersebut dalam model. Sebaliknya, semakin tinggi kesalahan baku koefisien regresi maka semakin tidak berperan variabel tersebut dalam persamaan regresi. Kesalahan baku koefisien regresi dapat diukur dengan formula sebagai berikut: 𝑺𝒆 𝟐 √ 𝑺𝒃 = (π‘²π’Šπ’Š) 𝑫𝒆𝒕[𝑨] Keterangan: 𝑆𝑏 = Kesalahan baku koefisien regresi 𝑆𝑒 = Kesalahan baku estimasi 𝐷𝑒𝑑[𝐴] = Determinasi matriks A 𝐾𝑖𝑖 = Kofaktor matriks A K11 atau kofaktor 11 Matriks A dapat dicari dengan mencari determinan matriks A, tetapi baris pertama dan kolom penama matriks A dihapus. Dengan begitu maka kofaktor K11 dapat dihitung dengan cara sebagai berikut:



𝐾11 = (180 βˆ— 237) βˆ’ (192 βˆ— 192) = 3060 Sedangkan K22 dan K33 dapat dicari dengan cara sebagai berikut:



𝐾22 = (10 βˆ— 237) βˆ’ (47 βˆ— 47) = 161



𝐾33 = (10 βˆ— 180) βˆ’ (40 βˆ— 40) = 200 Berdasarkan lembar kerja di atas maka dapat dihitung besarnya kesalahan baku intercept dan koefisien regresinya, yaitu sebagai berikut: π‘†π‘Ž = √



(1,182)2 (5796) = 1,626 3060



𝑆𝑏1 = √



(1,182)2 (161) = 0,271 3060



𝑆𝑏2



=√



(1,182)2 (200) = 0,302 3060



6. Nilai πΉβ„Žπ‘–π‘‘π‘’π‘›π‘” Nilai πΉβ„Žπ‘–π‘‘π‘’π‘›π‘” digunakan untuk menguji ketepatan model (goodness of fit). Uji F ini sering disebut sebagai uji simultan yang digunakan untuk menguji apakah variabel bebas yang digunakan dalam model mampu menjelaskan perubahan nilai variabel tergantung atau tidak. Untuk menyimpulkan apakah model masuk dalam kategori good of fit atau tidak, kita harus membandingkan nilai πΉβ„Žπ‘–π‘‘π‘’π‘›π‘” , dengan nilai πΉπ‘‘π‘Žπ‘π‘’π‘™ dengan derajat bebas: 𝑑𝑓: 𝛼, (π‘˜ βˆ’ 1), (𝑛 βˆ’ π‘˜). Untuk menghitung besarnya nilai πΉβ„Žπ‘–π‘‘π‘’π‘›π‘” digunakan formula sebagai berikut: π‘ΉπŸ /(π’Œ βˆ’ 𝟏) 𝑭= 𝟏 βˆ’ π‘ΉπŸ /(𝒏 βˆ’ π’Œ) Keterangan: 𝐹 = Nilai πΉβ„Žπ‘–π‘‘π‘’π‘›π‘” 𝑅 2 = Koefisien determinasi π‘˜ = Jumlah variabel 𝑛 = Jumlah pengamatan (ukuran sampel) Dengan menggunakan lembar kerja di atas maka besarnya nilai πΉβ„Žπ‘–π‘‘π‘’π‘›π‘” dari persamaan regresi yang terbentuk dapat dihitung sebagai berikut: 𝑅 2 /(π‘˜ βˆ’ 1) 0,875/(3 βˆ’ 1) 𝐹= = = 24,567 1 βˆ’ 𝑅 2 /(𝑛 βˆ’ π‘˜) 1 βˆ’ 0,875/(10 βˆ’ 3) Dengan 𝑑𝑓: 𝛼, (π‘˜ βˆ’ 1), (𝑛 βˆ’ π‘˜) atau 0,05, (3 βˆ’ 1), (10 βˆ’ 3) diperoleh besarnya nilai sebesar 4,737. Karena nilai πΉβ„Žπ‘–π‘‘π‘’π‘›π‘” (24,567) > nilai πΉπ‘‘π‘Žπ‘π‘’π‘™ , (4,737) maka dapat disimpulkan bahwa model persamaan regresi yang terbentuk masuk kriteria good of fit. Untuk melihat nilai πΉπ‘‘π‘Žπ‘π‘’π‘™ dapat dilakukan dengan menggunakan bantuan tabel F atau menggunakan program Microsoft Excel dengan langkah-langkah sebagai berikut: ο‚· Klik menu Formulas οƒ  Insert Function. Pada Or select a Category, pilih Statistical. Pada Select a function, pilih F.INV.RT. Klik OK sehingga tampilannya menjadi seperti berikut:



Gambar 11. Function Arguments-F.INV.RT ο‚· Pada Probability, isi dengan 0,05. Pada Deg_freedom1, isi dengan 2. Pada Deg_freedom2, isi dengan 7. Klik OK sehingga muncul nilai sebesar 4,737.



7. Nilai π‘‘β„Žπ‘–π‘‘π‘’π‘›π‘” Nilai π‘‘β„Žπ‘–π‘‘π‘’π‘›π‘” digunakan untuk menguji apakah variabel tersebul berpengaruh secara signifikan terhadap variabel tergantung atau tidak. Suatu variabel akan memiliki pengaruh yang berarti jika nilai π‘‘β„Žπ‘–π‘‘π‘’π‘›π‘” variabel tersebut lebih besar dibanding nilai π‘‘π‘‘π‘Žπ‘π‘’π‘™ . Dalam pengujian ini digunakan uji t satu ujung karena hipotesis yang diajukan sudah menunjukkan arah, yaitu terdapat pengaruh negatif harga terhadap penjualan dan terdapat pengaruh positif pendapatan terhadap penjualan. Jika menggunakan satu ujung maka 𝑑𝑓: 𝛼, 𝑛 βˆ’ π‘˜, tetapi jika menggunakan dua ujung maka derajat bebasnya adalah 𝑑𝑓: 𝛼/2 , 𝑛 βˆ’ π‘˜ Untuk menghitung besarnya nilai π‘‘β„Žπ‘–π‘‘π‘’π‘›π‘” digunakan rumus sebagai berikut: 𝑏𝑗 𝑑𝑖 = 𝑆𝑏𝑗 Keterangan: 𝑑 = Nilai π‘‘β„Žπ‘–π‘‘π‘’π‘›π‘” 𝑏𝑗 = Koefisien regresi 𝑆𝑏𝑗 = Kesalahan baku koefisien regresi Dengan menggunakan perhitungan koefisien regresi dan kesalahan baku koefisien regresi di atas maka kita dapat menghitung besarnya nilai π‘‘β„Žπ‘–π‘‘π‘’π‘›π‘” sebagai berikut: βˆ’1,092 𝑑𝑋1 = = βˆ’4,029 0,271 1,961 𝑑𝑋2 = = 6,490 0,302 Dengan 𝑑𝑓: 𝛼, (𝑛 βˆ’ π‘˜) atau 0,05, (12 βˆ’ 2) diperoleh besarnya nilai π‘‘π‘‘π‘Žπ‘π‘’π‘™ sebesar 1,812. Untuk melihat nilai π‘‘π‘‘π‘Žπ‘π‘’π‘™ dapat dengan menggunakan bantuan tabel t atau menggunakan program Microsoft Excel dengan langkah-langkah sebagai berikut: ο‚· Klik menu Formulas οƒ  Insert Function. Pada Or select a Category, pilih Statistical. Pada Select a function, pilih T.INV.2T. Klik OK sehingga tampilannya menjadi seperti berikut:



Gambar 12. Function Arguments-T.INV.2T ο‚·



Probability diisi 0,05, Deg_freedom diisi 7. Klik OK sehingga akan muncul nilai sebesar 2,365.



Kesimpulan: ο‚· Karena nilai π‘‘β„Žπ‘–π‘‘π‘’π‘›π‘” (-4,029) < nilai βˆ’π‘‘π‘‘π‘Žπ‘π‘’π‘™ , (-2.365) maka dapat disimpulkan bahwa variabel harga memiliki pengaruh negatif yang signifikan terhadap variabel penjualan. ο‚· Karena nilai π‘‘β„Žπ‘–π‘‘π‘’π‘›π‘” (6,490) > nilai π‘‘π‘‘π‘Žπ‘π‘’π‘™ (2,365) maka dapat disimpulkan bahwa variabel pendapatan memiliki pengaruh positif yang signifikan terhadap variabel penjualan. b. Dengan menggunakan program Microsoft Excel melalui menu Data ο‚· Buka program Microsoft Excel. ο‚· Buat Data Analisis Regresi Linear Berganda



Gambar 13. Data Analisis Regresi Linear Berganda ο‚· Klik menu Data οƒ  Data Analysis ο‚· Pada Data Analysis, pilih Regression.



Gambar 14. Data Analysis-Regression ο‚· Klik OK sehingga muncul tampilan Regression. ο‚· Pada kotak Input Y Range, isi dengan $D$2:$D$11 atau blok range data variabel tergantungnya. ο‚· Pada kotak Input X Range, isi dengan $B$2:$C$11 atau blok range data variabel bebasnya.



Gambar 15. Regression ο‚· Pada Output Options, pilih New Worksheet Ply. ο‚· Klik OK. ο‚· Menghasilkan output pada sheet yang lain, yaitu sebagai berikut:



Gambar 16. Summary Output-Regression Analisis: 1. Multiple R = 0,936 Artinya bahwa korelasi antara variabel bebas dengan variabel tergantungnya adalah sebesar 0,936. Dalam hal ini karena regresi linear berganda dengan dua variabel bebas maka dapat dikatakan bahwa korelasi berganda antara harga dan pendapatan terhadap penjualan adalah sebesar 0,936. 2. R Square = 0,875 R Square atau koefisien determinasi sebesar 0,875 berarti bahwa variasi penjualan dapat dijelaskan oleh variasi harga dan pendapatan sebesar 87,5 persen atau variabel harga dan pendapatan mampu mempengaruhi penjualan sebesar



3.



4.



5.



6.



7.



8.



9.



87,5 persen. Koefisien determinasi sebesar 0,875 merupakan kuadrat dari multiple R (0,936 x 0,936 = 0,875). Adjusted R Square = 0,840 Merupakan koefisien determinasi yang telah dikoreksi dengan jumlah variabel dan ukuran sampel sehingga dapat mengurangi unsur bias jika terjadi penambahan variabel maupun penambahan ukuran sampel. Adjusted R Square sebesar 0,840 berarti variasi penjualan dapat dijelaskan oleh variasi harga dan pendapatan sebesar 84,0 persen atau variabel harga dan pendapatan memengaruhi penjualan sebesar 84.0 persen. Koefisien Adjusted R Square sebesar 84,0 diperoleh dari perhitungan sebagai berikut: 𝑃(1 βˆ’ 𝑅 2 ) 2(1 βˆ’ 0,875) 2 2 𝑅 π‘Žπ‘‘π‘— = 𝑅 βˆ’ = 0,875 βˆ’ = 0,840 π‘βˆ’π‘ƒβˆ’1 10 βˆ’ 2 βˆ’ 1 Standard Error = 1,182 Artinya bahwa penyimpangan antara persamaan regresi dengan nilai dependen adalah sebesar 1,182 satuan variabel dependen (jika penjualan dalam satuan juta maka besarnya penyimpangan adalah sebesar 1,182 juta). Semakin kecil nilai standard error, semakin baik persamaan regresi tersebut sebagai alat prediksi. Observation =10 Nilai observation sebesar 10 berasal dari jumlah pengamatan atau ukuran sampel yang digunakan. yaitu sebanyak 10 Df Regression (Degree of freedom Regression) = 2 Nilai Df regression sebesar 2 berasal dari nilai π‘˜ βˆ’ 1, jumlah variabel dikurangi 1 (3 βˆ’ 1 = 2). Df Residual (Degree of freedom Residual) = 7 Nilai Df Residual sebesar 7 berasal dari nilai 𝑛 βˆ’ π‘˜, jumlah pengamatan dikurangi jumlah variabel (10 βˆ’ 3 = 7) . Df Total (Degree of freedom Total) = 9 Nilai Df Total sebesar 11 berasal dari nilai 𝑛 βˆ’ 1, jumlah pengamatan dikurangi 1 (10 βˆ’ 1 = 9) atau merupakan penjumlahan dari df regression dengan df residual (2 + 7 = 9). SS Regression (Sum Square Regression) = 68,624 Nilai SS Regression merupakan nilai yang menunjukkan jumlah kuadrat dari selisih antara nilai prediksi dengan nilai rata-rata prediksi atau dapat diperoleh 2 dengan formula βˆ‘(π‘Œπ‘π‘Ÿπ‘’π‘‘ βˆ’ π‘ŒΜ…π‘π‘Ÿπ‘’π‘‘ ) .



10. SS Residual (Sum Square Residual) = 9,776 Nilai SS Residual merupakan nilai yang menunjukkan jumlah kuadrat dari selisih antara nilai riil dengan nilai prediksi atau dapat diperoleh dengan formula 2



βˆ‘(π‘Œ βˆ’ π‘Œπ‘π‘Ÿπ‘’π‘‘ ) . Dalam lembar kerja di atas, lihat pada sel F12. 11. SS Total (Sum Square Total) = 78,400 Nilai SS Total merupakan nilai yang menunjukkan jumlah kuadrat dari selisih antara nilai riil dengan nilai rata-rata Y riil. Dapat pula diperoleh dengan formula βˆ‘(π‘Œ βˆ’ π‘ŒΜ…)2 . Dalam lembar kerja di atas, lihat pada sel G12. 12. MS Regression (Mean Square Regression) =34,312 Nilai MS Regression diperoleh dari formula berikut:



𝑆𝑆 π‘…π‘’π‘”π‘Ÿπ‘’π‘ π‘ π‘–π‘œπ‘› 68,624 = = 34,312 𝑑𝑓 π‘…π‘’π‘”π‘Ÿπ‘’π‘ π‘ π‘–π‘œπ‘› 2 13. MS Residual (Mean Square Residual) = 1,397 Nilai MS Residual diperoleh dari formula sebagai berikut: 𝑆𝑆 π‘…π‘’π‘ π‘–π‘‘π‘’π‘Žπ‘™ 9,776 𝑀𝑆 π‘…π‘’π‘ π‘–π‘‘π‘’π‘Žπ‘™ = = = 1,397 𝑑𝑓 π‘…π‘’π‘ π‘–π‘‘π‘’π‘Žπ‘™ 7 14. πΉβ„Žπ‘–π‘‘π‘’π‘›π‘” = 24,567 Nilai πΉβ„Žπ‘–π‘‘π‘’π‘›π‘” diperoleh dari formula sebagai berikut: 𝑀𝑆 π‘…π‘’π‘”π‘Ÿπ‘’π‘ π‘ π‘–π‘œπ‘› 34,312 𝐹= = = 24,567 𝑀𝑆 π‘…π‘’π‘ π‘–π‘‘π‘’π‘Žπ‘™ 1,397 15. Significance F = 0,001 Merupakan nilai yang menunjukkan titik kesalahan yang terjadi jika nilai πΉβ„Žπ‘–π‘‘π‘’π‘›π‘” sebesar 24,567. Ternyata tingkat kesalahan atau probabilitas sebesar 0,001 yang berarti lebih kecil dari 0,05. Dengan demikian dapat disimpulkan bahwa variabel bebas secara simultan mampu menjelaskan perubahan pada variabel tergantung atau model dinyatakan good of fit. 16. Coefficients Intercept = 2,553 Coefficients Intercept merupakan konstanta yang artinya jika harga dan pendapatan sama dengan 0 maka penjualan akan sebesar 2,553. Nilai koefisien intercept atau konstanta ini diperoleh dari: 𝐷𝑒𝑑[𝐴1] 7812 π‘Ž= = = 2,553 𝐷𝑒𝑑[𝐴] 3060 17. Coefficients X Variable 1 = -1,092 Coefficients X Variable 1 merupakan koefisien regresi variabel 𝑋1 yang berarti jika harga naik sebesar satu satuan maka penjualan akan turun sebesar 1,092. Nilai koefisien regresi variabel 𝑋1 ini diperoleh dari: 𝐷𝑒𝑑[𝐴2] βˆ’3342 𝑏1 = = = βˆ’1,092 𝐷𝑒𝑑[𝐴] 3060 18. Coefficients X Variable 2 = 1,961 Coefficients X Variable 2 merupakan koefisien regresi variabel 𝑋2 yang berarti jika pendapatan meningkat sebesar satu satuan maka penjualan akan meningkat sebesar 1,961 satuan. Nilai koefisien regresi ini diperoleh dari: 𝐷𝑒𝑑[𝐴3] 6000 𝑏2 = = = 1,961 𝐷𝑒𝑑[𝐴] 3060 19. Standard Error Intercept = 1,626 Standard error intercept merupakan penyimpangan dari konstanta yang ada dalam model persamaan regresi. Standard err or intercept dicari dengan formula sebagai berikut: 𝑀𝑆 π‘…π‘’π‘”π‘Ÿπ‘’π‘ π‘ π‘–π‘œπ‘› =



𝑆𝑒 2 1,1822 (𝐾11) = √ π‘†π‘Ž = √ (5796) = 1,626 𝐷𝑒𝑑[𝐴] 3060 20. Standard Error X Variable 1 = 0,271 Standard error X variable 𝑋1 menunjukkan penyimpangan koefisien regresi variabel 𝑋1. Semakin kecil penyimpangan dalam koefisien regresi tersebut maka semakin berarti kontribusi variabel tersebut terhadap variabel tergantungnya.



Standard error koefisien regresi variabel 𝑋1 dapat dicari dengan formula sebagai berikut: (1,182)2 𝑆𝑒 2 (161) = 0,271 𝑆𝑏 = √ (𝐾22) = √ 𝐷𝑒𝑑[𝐴] 3060 21. Standard Error X Variable 2 = 0,302 Standard error X variable 𝑋2 menunjukkan penyimpangan koefisien regresi variabel 𝑋2. Semakin kecil penyimpangan dalam koefisien regresi tersebut maka semakin berarti kontribusi variabel tersebut terhadap variabel tergantungnya. Standard error koefisien regresi variabel 𝑋2 dapat dicari dengan formula sebagai berikut: (1,182)2 𝑆𝑒 2 √ √ (200) = 0,302 𝑆𝑏 = (𝐾33) = 𝐷𝑒𝑑[𝐴] 3060 22. t-Stat Intercept Digunakan untuk mengetahui apakah intercept tersebut signifikan atau tidak, hanya saja nilai intercept itu biasanya tidak diuji. Yang diuji adalah nilai t-stat koefisien regresinya. t-stat intercept dihitung dengan formula sebagai berikut: πΆπ‘œπ‘’π‘“π‘“π‘–π‘π‘–π‘’π‘›π‘‘π‘  πΌπ‘›π‘‘π‘’π‘Ÿπ‘π‘’π‘π‘‘ 2,553 𝑑 βˆ’ π‘†π‘‘π‘Žπ‘‘ πΌπ‘›π‘‘π‘’π‘Ÿπ‘π‘’π‘π‘‘ = = = 1,570 π‘†π‘‘π‘Žπ‘›π‘‘π‘Žπ‘Ÿπ‘‘ πΈπ‘Ÿπ‘Ÿπ‘œπ‘Ÿ πΌπ‘›π‘‘π‘’π‘Ÿπ‘π‘’π‘π‘‘ 1,626 23. t-Stat X Variable 1 Digunakan untuk mengetahui apakah variabel bebas tersebut signifikan atau tidak. Dalam uji satu ujung, dengan ujung sebelah kiri, jika nilat t-stat lebih kecil dari nilai π‘‘π‘‘π‘Žπ‘π‘’π‘™ dengan 𝑑𝑓: 𝛼, (𝑛 βˆ’ π‘˜) maka varibel tersebut memiliki pengaruh yang signifikan terhadap varibel tergantung. 𝑑 βˆ’ π‘†π‘‘π‘Žπ‘‘ 𝑋 π‘‰π‘Žπ‘Ÿπ‘–π‘Žπ‘π‘™π‘’ 1 =



πΆπ‘œπ‘’π‘“π‘“π‘–π‘π‘–π‘’π‘›π‘‘π‘  𝑋 π‘‰π‘Žπ‘Ÿπ‘–π‘Žπ‘π‘™π‘’ 𝑋1 βˆ’1,092 = = βˆ’4,029 π‘†π‘‘π‘Žπ‘›π‘‘π‘Žπ‘Ÿπ‘‘ πΈπ‘Ÿπ‘Ÿπ‘œπ‘Ÿ 𝑋 π‘‰π‘Žπ‘Ÿπ‘–π‘Žπ‘π‘™π‘’ 𝑋1 0,271



24. t-Stat X Variable 2 Digunakan untuk mengetahui apakah variabel bebas tersebut signifikan apa tidak. Dalam uji satu ujung, ujung sebelah kanan, jika nilat t-stat lebih besar dari nilai π‘‘β„Žπ‘–π‘‘π‘’π‘›π‘” dengan 𝑑𝑓: 𝛼, (𝑛 βˆ’ π‘˜) maka varibel tersebut memiliki pengaruh yang signifikan terhadap varibel tergantung. 𝑑 βˆ’ π‘†π‘‘π‘Žπ‘‘ 𝑋 π‘‰π‘Žπ‘Ÿπ‘–π‘Žπ‘π‘™π‘’ 2 =



πΆπ‘œπ‘’π‘“π‘“π‘–π‘π‘–π‘’π‘›π‘‘π‘  𝑋 π‘‰π‘Žπ‘Ÿπ‘–π‘Žπ‘π‘™π‘’ 𝑋2 1,961 = = 6,490 π‘†π‘‘π‘Žπ‘›π‘‘π‘Žπ‘Ÿπ‘‘ πΈπ‘Ÿπ‘Ÿπ‘œπ‘Ÿ 𝑋 π‘‰π‘Žπ‘Ÿπ‘–π‘Žπ‘π‘™π‘’ 𝑋2 0,302



25. P-Value Intercept Merupakan angka yang menunjukkan besarnya tingkat kesalahan pada nilai tstat intercept yang diperoleh (0,160). Jika nilai t-stat intercept semakin besar maka nilai kesalahan p-value akan semakin kecil. Jika nilai p-value lebih kecil dari 𝛼 (0,05) maka dikatakan signifikan. Dalam output di atas ternyata p-value lebih besar dari 0,05 sehingga intercept tidak signifikan, tetapi dalam analisis regresi hai ini tidak dianalisis karena yang lebih penting adalah signifikansi variabel bebasnya. 26. P-Value X Variable 1 Merupakan angka yang menunjukkan besarnya tingkat kesalahan pada nilai tstat X Variable 1 yang diperoleh (-4,005). Karena nilai p-value X variable 1 lebih



kecil dari 0,05 maka variabel 𝑋1 (harga) memiliki pengaruh negatif yang berarti terhadap Y (penjualan). 27. P-Value X Variable 2 Merupakan angka yang menunjukkan besarnya tingkat kesalahan pada nilai tstat X Variable 2 yang diperoleh (6,490). Karena nilai p-value X variable 2 lebih kecil dari 0,05 maka variabel (pendapatan) memiliki pengaruh yang berarti terhadap Y (penjualan). C. Pengujian Asumsi Klasik Model regresi yang diperoleh dari metode kuadrat terkecil biasa (Ordinary Least Squares-OLS) rnerupakan model regresi yang menghasilkan estimator linear tidak bias yang terbaik (Best Linear Unbias Estimazor/BLUE). Kondisi ini akan terjadi jika beberapa asumsi yang disebut dengan asumsi klasik dipenuhi. Gujarati (1995), dalam bukunya yang berjudul Basic Econometrics, mengemukakan ada beberapa asumsi klasik, yaitu: ο‚· Model regresi adalah linear, yaitu linear dalam parameter. ο‚· Nilai 𝑋𝑖 (variabel independent) adalah tetap untuk sampel yang berulang-ulang. ο‚· Residual, mempunyai nilai rata-rata nol. ο‚· Homoskedastisitas atau varian dari residual adalah konstan. ο‚· Tidak terdapat autokorelasi antara nilai residual. ο‚· Kovarian antara residual dan variabel bebas adalah nol. ο‚· Jumlah observasi harus lebih banyak dibanding parameter yang akan diestimasi. ο‚· Variabel bebas dalam sampel tertentu harus memiliki nilai yang tidak sama. ο‚· Spesifikasi dari model regresi yang digunakan harus benar. ο‚· Tidak terdapat multikolinearitas yang sempuma. ο‚· Nilai residual berdistribusi normal. Dari sebelas asumsi klasik di atas terdapat lima asumsi klasik yang akan dibahas, yaitu: 1. Normalitas a. Pengertian Uji normalitas dimaksudkan untuk mengetahui apakah residual yang telah distandardisasi berdistribusi normal atau tidak. Nilai residual dikatakan berdistribusi normal jika nilai residual tersebut sebagian besar mendekati nilai rata-ratanya sehingga bila residual tersebut berdistribusi normal maka jika digambarkan dalam bentuk kurva, kurva tersebut akan berbentak lonceng (bell-shaped curve) yang kedua sisinya melebar sampai tidak terhingga. Dengan melihat pengertian uji normalitas tersebut maka uji normalitas di sini tidak dilakukan per variabel (univariate), tetapi hanya terhadap nilai residual terstandardisasinya saja (multivariate). b. Penyebab Tidak terpenuhinya normalitas pada umumnya disebabkan karena distribusi data yang dianalisis tidak normal karena terdapat nilai ekstrem dalam data yang diambil. Nilai ektrem ini dapat terjadi karena adanya kesalahan dalam pengambilan sampel, bahkan karena kesalahan dalam melakukan input data atau memang karena karakteristik data tersebut memang aneh. c. Cara mendeteksi Untuk mendeteksi apakah nilai residual terstandardisasi berdistribusi normal atau tidak, dapat digunakan:



ο‚· Metode Analisis Grafik Pengujian normalitas menggunakan analisis grafik dilakukan dengan menggunakan histogram dengan menggambarkan variabel dependen sebagai sumbu vertikal sedangkan nilai residual terstandarisasi digambarkan sebagai sumbu horisontal. Jika Histogram Standardize Regression Residual membentuk kurva seperti lonceng maka nilai residual tersebut membentuk kurva normal. Namun, pengujian dengan menggunakan histogram semacam ini dapat memberikan hasil yang subjektif, artinya antara orang yang satu dengan orang lain dapat berbeda dalam menginterpretasikan kurva yang terbentuk, mungkin dengan kurva yang sama si A menyatakan normal, tetapi si B menyatakan tidak normal. ο‚· Uji Signifikasi Skewness dan Kurtosis Uji ini merupakan uji normalitas berdasarkan koefisien keruncingan (kurtosis) dan koefisien kemiringan (skewness). Uji ini dilakukan dengan menggunakan langkahlangkah sebagai berikut:  Membuat persamaan regresinya.  Mencari nilai prediksinya (π‘ŒΜ‚).  Mencari nilai residualnya (π‘Œ βˆ’ π‘ŒΜ‚ ).  Membuat standardisasi nilai residualnya.  Menghitung koefisien skewness dan kurtosis.  Menstandardisasi nilai skewness dan nilai kurtosis dengan rumus sebagai berikut: π‘π‘ π‘˜π‘’π‘€ =



π‘†βˆ’0 √6/𝑁



π‘π‘˜π‘’π‘Ÿπ‘‘ =



πΎβˆ’0 √24/𝑁



Di mana: S = Nilai Skewness N = Jumlah kasus K = Nilai kurtosis  Membandingkan nilai Z-skew dan Z-kurt dengan nilai kritisnya. Jika menggunakan tingkat toleransi 0,01 atau 1 persen maka nilai kritisnya Β±2,58, tingkat toleransi 0,05 atau 5 persen maka nilai kritisnya Β± 1,96 dan tingkat toleransi 0,10 atau 10 persen maka nilai kritisnya Β±1,65.  Menarik kesimpulan kenormalan data, dengan kriteria jika Zskew dan Zkurt ≀ nilai kritis maka residual terstandardisasi berdistribusi normal. Contoh Pengujian Uji Normalitas Signifikasi Skewness dan Kurtosis Dengan menggunakan data kasus analisis regresi Mr. Wong di atas dengan 𝛼 = 10 persen, ujilah apakah dalam persamaan regresi tersebut asumsi normalitas terpenuhi dengan uji signifikasi skewness dan kurtosis? Jawab: Karena pada pengujian ini digunakan banyak kolom maka akan ditampilkan hasil dari lembar kerjanya saja, sedangkan keterangan dan petunjuk analisis dengan program Microsoft Excel disajikan di bawahnya.



Gambar 17. Lembar Kerja Uji Normalitas-Signifikasi Skewness dan Kurtosis Keterangan: οƒ˜ Berdasarkan hasil regresi 𝑋1, 𝑋2 terhadap Y, diperoleh persamaan regresi sebagai berikut: π‘Œ = 2,553 βˆ’ 1,092𝑋1 + 1,961𝑋2 οƒ˜ Untuk menghitung nilai π‘Œπ‘π‘Ÿπ‘’π‘‘ pada sel E2, ketik formula =2,553(1,092*B2)+(1,961*C2). Kopikan formula tersebut sampai ke sel E11. π‘Œπ‘π‘Ÿπ‘’π‘‘ = 2,553 βˆ’ 1,092(2) + 1,961(3) = 6,252 οƒ˜ Untuk menghitung nilai residual pada sel F2, ketik formula =D2-E2. Kopikan formula tersebut sampai ke sel F11. 𝑅𝑒𝑠𝑖𝑑 = π‘Œ βˆ’ π‘Œπ‘π‘Ÿπ‘’π‘‘ = 5 βˆ’ 6,252 = βˆ’1,252 οƒ˜ Untuk menghitung nilai residual terstandardisasi maka kita harus menghitung nilai rata-rata dan standar deviasai dari residual tersebut sehingga: - Pada sel F13, ketik formula =AVERAGE(F2:F11) - Pada sel F14, ketik formula =STDEV(F2:F11) 𝑋𝑖 βˆ’ 𝑋̅ βˆ’1,200 βˆ’ (βˆ’0,002) π‘π‘Ÿπ‘’π‘ π‘–π‘‘ = = = βˆ’1,200 𝛿 1,042 Pada sel G2, ketik formula =(F2-$F$13)/$F$14. Kopikan formula tersebut sampai dengan sel G11. οƒ˜ Untuk menghitung nilai skewness, tempatkan kursor pada sel yang kosong, misalnya G13. Kemudian ketik formula =SKEW(G2:G11) sehingga muncul koefisien skewness sebesar -0,047. οƒ˜ Untuk menghitung nilai kurtosis, tempatkan kursor pada sel yang kosong, misalnya G14. Kemudian ketik formula =KURT(G2:G11) sehingga muncul koefisien kurtosis sebesar -2,412. οƒ˜ Setelah koefisien skewness dan koefisien kurtosis diketahui maka langkah selanjutnya adalah melakukan standardisasi dengan perhitungan sebagai berikut:



π‘π‘ π‘˜π‘’π‘€ (π‘ƒπ‘’π‘›π‘‘π‘Žπ‘π‘Žπ‘‘π‘Žπ‘›) =



π‘†βˆ’0



βˆ’0,047



= βˆ’0,061 √6/10 βˆ’2,412 π‘π‘˜π‘’π‘Ÿπ‘‘ (π‘ƒπ‘’π‘›π‘‘π‘Žπ‘π‘Žπ‘‘π‘Žπ‘›) = = = βˆ’1,557 √24/𝑁 √24/10 Kesimpulan: Karena nilai standardisasi skewness (-0,061) dan nilai standardisasi kurtosis (1,557) lebih kecil dari 1,65 maka dengan tingkat toleransi 10 persen, variabel tersebut terdistribusi secara normal. ο‚· Uji Lilliefors Uji ini merupakan uji normalitas dengan menggunakan fungsi distribusi kumulatif. Uji ini dilakukan dengan menggunakan langkah-langkah:  Membuat persamaan regresinya.  Mencari nilai prediksinya (π‘ŒΜ‚).  Mencari nilai residualnya (π‘Œ βˆ’ π‘ŒΜ‚ ).  Membuat standardisasi nilai residualnya.  Mengurutkan nilai residual terstandardisasi dari yang terkecil sampai yang terbesar.  Mencari nilai π‘π‘Ÿ relatif kumulatif.  Mencari nilai 𝑍𝑑 teoritis berdasarkan tabel Z.  Menghitung selisih nilai π‘π‘Ÿ dengan 𝑍𝑑 pengamatan sebelumnya atau (π‘π‘Ÿ βˆ’ π‘π‘‘βˆ’1) dan diberi simbol 𝐿𝑖 .  Mencari nilai 𝐿𝑖 mutlak terbesar dan beri nama πΏπ‘–β„Žπ‘–π‘‘π‘’π‘›π‘” . √6/𝑁 πΎβˆ’0



=



 Bandingkan nilai πΏπ‘–β„Žπ‘–π‘‘π‘’π‘›π‘” dengan tabel Lilliefors (πΏπ‘–π‘‘π‘Žπ‘π‘’π‘™ ).  Menarik kesimpulan kenormalan data dengan kriteria jika πΏπ‘–β„Žπ‘–π‘‘π‘’π‘›π‘” < πΏπ‘–π‘‘π‘Žπ‘π‘’π‘™ maka residual terstandardisasi berdistribusi normal. Contoh Pengujian Normalitas dengan Uji Lilliefors Dengan menggunakan data kasus analisis regresi Mr. Wong di atas dengan 𝛼=10 persen, ujilah apakah dalam persamaan regresi tersebut asumsi normalitas terpenuhi dengan uji Lilliefors? Jawab: Karena dalam pengujian ini diperlukan banyak kolom maka ditampilkan hasil dari lembar kerianya saja, sedangkan keterangan dan petunjuk analisis dengan program Microsoft Excel disajikan di bawahnya.



Gambar 18. Lembar Kerja Uji Normalitas-Lilliefors Keterangan: οƒ˜ Berdasarkan hasil regresi 𝑋1, 𝑋2 terhadap Y, diperoleh persamaan regresi sebagai berikut: π‘Œ = 2,553 βˆ’ 1,092𝑋1 + 1,961𝑋2 οƒ˜ Untuk menghitung nilai π‘Œπ‘π‘Ÿπ‘’π‘‘ pada sel E2, ketik formula =2,553(1,092*B2)+(1,961*C2). Kopikan formula tersebut sampai ke sel E11. π‘Œπ‘π‘Ÿπ‘’π‘‘ = 2,553 βˆ’ 1,092(2) + 1,961(3) = 6,252 οƒ˜ Untuk menghitung nilai residual pada sel F2, ketik formula =D2-E2. Kopikan formula tersebut sampai ke sel F11. 𝑅𝑒𝑠𝑖𝑑 = π‘Œ βˆ’ π‘Œπ‘π‘Ÿπ‘’π‘‘ = 5 βˆ’ 6,252 = βˆ’1,252 οƒ˜ Untuk menghitung nilai residual terstandardisasi maka kita harus menghitung nilai rata-rata dan standar deviasai dari residual tersebut sehingga: - Pada sel F13, ketik formula =AVERAGE(F2:F11) - Pada sel F14, ketik formula =STDEV(F2:F11) 𝑋𝑖 βˆ’ 𝑋̅ βˆ’1,200 βˆ’ (βˆ’0,002) π‘π‘Ÿπ‘’π‘ π‘–π‘‘ = = = βˆ’1,200 𝛿 1,042 Pada sel G2, ketik formula =(F2-$F$13)/$F$14. Kopikan formula tersebut sampai dengan sel G11. οƒ˜ Zresid urut merupakan nilai residual terstandardisasi yang telah diurutkan dari nilai yang paling kecil sampai ke nilai yang paling besar. Untuk mengurutkan nilai Zresid dapat dilakukan dengan langkah sebagai berikut: - Blok dan kopi sel G2:G11. - Letakkan kursor pada sel H2. - Klik kanan, pilih Paste Special, pilih Value (V). - Blok dan kopi sel H2:H11. - Klik menu Dataοƒ Sort, pilih Continue with the current selectionοƒ Sortοƒ OK.



Gambar 19. Sort Warning οƒ˜ π‘π‘Ÿ merupakan nilai frekuensi kumulatif untuk setiap pemgamatan. Karena pada contoh tersebut ada 10 pengamatan maka frekuensi kumulatif pertama = 1/10, kedua 1/10 + 1/10 = 2/10, dan seterusnya. Frekuensi kumulatif ini dapat dihitung dengan: Pada sel I2 ketik formula =A2/10. Kopikan formula tersebut sampai dengan sel I11. οƒ˜ Untuk mencari LuasZ, dapat digunakan tabel luas kurva normal dan nilai residual terstandardisasi yang telah diurutkan atau dapat dicari dengan menggunakan program Microsoft Excel sebagai berikut: Pada sel J2 ketik formula =NORMSDIST(H2). Kopikan formula tersebut sampai dengan sel J11. οƒ˜ Untuk mencari nilai Lilliefors dilakukan dengan cara 𝑍𝑑 βˆ’ 𝑍(π‘Ÿβˆ’1) = 0,1414 βˆ’ 0,1 = 0,0414. Pada sel K3 ketik formula =J3-I2. Kopikan formula tersebut sampai dengan sel K11. οƒ˜ Untuk mendapatkan nilai Lilliofers hitung, cari nilai Lilliofers absolut yang paling besar. Langkahnya, pada sel K12 ketik formula =ABS(MAX(K3:K11)) sehingga muncul nilai Lilliefors hitung sebesar 0,2972. Kesimpulan: Dengan uji dua ujung dari tabel Lilliefors dengan 𝑑𝑓: 𝑛, 𝛼/2 atau 𝐿(10;0,05) = 0,410. Karena nilai πΏβ„Žπ‘–π‘‘π‘’π‘›π‘” (0,2972) < dari nilai πΏπ‘‘π‘Žπ‘π‘’π‘™ (0,410) maka 𝐻0 diterima. Itu berarti nilai residual terstandardisasi menyebar secara normal. ο‚· Uji Kolmogorov-Smirnov Uji normalitas dengan menggunakan Kolmogorov-Smirnov juga merupakan uji normalitas dengan emnggunakan fungsi distribusi kumulatif seperti uji Lilliefors. Uji ini dilakukan dengan menggunakan langkah-langkah:  Membuat persamaan regresinya.  Mencari nilai prediksinya (π‘ŒΜ‚).  Mencari nilai residualnya (π‘Œ βˆ’ π‘ŒΜ‚ ).  Membuat standardisasi nilai residualnya.  Mengurutkan nilai residual terstandardisasi dari yang terkecil sampai yang terbesar.  Mencari nilai π‘π‘Ÿ relatif kumulatif.  Mencari nilai 𝑍𝑑 teoritis berdasarkan tabel Z.  Menghitung selisih nilai π‘π‘Ÿ dengan 𝑍𝑑 dan diberi simbol K.  Mencari nilai K mutlak terbesar dan beri nama dengan πΎβ„Žπ‘–π‘‘π‘’π‘›π‘” .



 Bandingkan nilai πΎβ„Žπ‘–π‘‘π‘’π‘›π‘” dengan tabel Kolmogorov-Smirnov (πΎπ‘‘π‘Žπ‘π‘’π‘™ ).  Menarik kesimpulan kenormalan data dengan kriteria jika πΎβ„Žπ‘–π‘‘π‘’π‘›π‘” < πΎπ‘‘π‘Žπ‘π‘’π‘™ maka residual terstandardisasi berdistribusi normal. Contoh Pengujian Normalitas dengan Uji Kolmogorov-Smirnov Dengan menggunakan data kasus analisis regresi Mr. Wong di atas dengan 𝛼 = 10 persen, ujilah apakah dalam persamaan regresi tersebut asumsi normalitas terpenuhi dengan uji Kolmogorov-Smirnov? Jawab: Karena pengujian ini memerlukan banyak kolom maka akan ditampilkan hasil dari lembar kerjanya saja, sedangkan keterangan dan petunjuk analisis dengan program Microsoft Excel disajikan di bawah lembar kerja ini:



Gambar 20. Lembar Kerja Uji Normalitas-Kolmogorov-Smirnov Keterangan: οƒ˜ Berdasarkan hasil regresi 𝑋1, 𝑋2 terhadap Y, diperoleh persamaan regresi sebagai berikut: π‘Œ = 2,553 βˆ’ 1,092𝑋1 + 1,961𝑋2 οƒ˜ Untuk menghitung nilai π‘Œπ‘π‘Ÿπ‘’π‘‘ pada sel E2, ketik formula =2,553(1,092*B2)+(1,961*C2). Kopikan formula tersebut sampai ke sel E11. π‘Œπ‘π‘Ÿπ‘’π‘‘ = 2,553 βˆ’ 1,092(2) + 1,961(3) = 6,252 οƒ˜ Untuk menghitung nilai residual pada sel F2, ketik formula =D2-E2. Kopikan formula tersebut sampai ke sel F11. 𝑅𝑒𝑠𝑖𝑑 = π‘Œ βˆ’ π‘Œπ‘π‘Ÿπ‘’π‘‘ = 5 βˆ’ 6,252 = βˆ’1,252 οƒ˜ Untuk menghitung nilai residual terstandardisasi maka kita harus menghitung nilai rata-rata dan standar deviasai dari residual tersebut sehingga: - Pada sel F13, ketik formula =AVERAGE(F2:F11) - Pada sel F14, ketik formula =STDEV(F2:F11) 𝑋𝑖 βˆ’ 𝑋̅ βˆ’1,200 βˆ’ (βˆ’0,002) π‘π‘Ÿπ‘’π‘ π‘–π‘‘ = = = βˆ’1,200 𝛿 1,042



Pada sel G2, ketik formula =(F2-$F$13)/$F$14. Kopikan formula tersebut sampai dengan sel G11. οƒ˜ Zresid urut merupakan nilai residual terstandardisasi yang telah diurutkan dari nilai yang paling kecil sampai ke nilai yang paling besar. Untuk mengurutkan nilai Zresid dapat dilakukan dengan langkah sebagai berikut: - Blok dan kopi sel G2:G11. - Letakkan kursor pada sel H2. - Klik kanan, pilih Paste Special, pilih Value (V). - Blok dan kopi sel H2:H11. - Klik menu Dataοƒ Sort, pilih Continue with the current selectionοƒ Sortοƒ OK.



Gambar 21. Sort Warning οƒ˜ π‘π‘Ÿ merupakan nilai frekuensi kumulatif untuk setiap pemgamatan. Karena pada contoh tersebut ada 10 pengamatan maka frekuensi kumulatif pertama = 1/10, kedua 1/10 + 1/10 = 2/10, dan seterusnya. Frekuensi kumulatif ini dapat dihitung dengan: Pada sel I2 ketik formula =A2/10. Kopikan formula tersebut sampai dengan sel I11. οƒ˜ Untuk mencari LuasZ, dapat digunakan tabel luas kurva normal dan nilai residual terstandardisasi yang telah diurutkan atau dapat dicari dengan menggunakan program Microsoft Excel sebagai berikut: Pada sel J2 ketik formula =NORMSDIST(H2). Kopikan formula tersebut sampai dengan sel J11. οƒ˜ Untuk mencari nilai Kolmogorov-Smirnov dilakukan dengan cara π‘π‘Ÿ βˆ’ 𝑍𝑑 = 0,100 βˆ’ 0,1151 = βˆ’0,0151. Pada sel K2, ketik formula =12-J2. Kopikan formula tersebut sampai dengan sel K11. οƒ˜ Nilai Kolmogorov-Smimov hitung didapatkan lewat nilai Kolmogorov-Smirnov absolut yang paling besar. Caranya, pada sel K12, ketik formula =ABS(MAX(K3:K11)) sehingga muncul nilai Kolmogorov-Smirnov hitung sebesar 0,257. Kesimpulan: Dengan uji dua ujung dari tabel Kolmogorov-Smimov dengan 𝑑𝑓: 𝑛, 𝛼/2, atau 𝐾(10:0,05) = 0,410. Karena nilai πΎβ„Žπ‘–π‘‘π‘’π‘›π‘” (0,257) < dari nilai πΎπ‘‘π‘Žπ‘π‘’π‘™ (0,410) maka π»π‘Ž ditolak. Artinya, nilai residual terstandardisasi menyebar secara normal.



ο‚· Uji Jarque-Bera (JB Test) Uji ini merupakan uji normalitas berdasarkan koefisien keruncingan (kurtosis) dan koefisien kemiringan (Skewness). Uji ini dilakukan dengan menggunakan langkahlangkah:  Membuat persamaan regresinya.  Mencari nilai prediksinya (π‘ŒΜ‚).  Mencari nilai residualnya (π‘Œ βˆ’ π‘ŒΜ‚).  Membuat standardisasi nilai residualnya.  Menghitung koefisien skewness dan kurtosis.  Menghitung besarnya nilai JB statistik, yaitu dengan rumus: 𝑆 2 (𝐾 βˆ’ 3)2 𝐽𝐡 = 𝑛 [ + ] 6 24 Keterangan: JB = Jarque-Bera hitung. S = Koefisien skewness. K = Koefisien kurtosis.  Bandingkan nilai π½π΅β„Žπ‘–π‘‘π‘’π‘›π‘” dengan tabel 𝑋 2 π‘‘π‘Žπ‘π‘’π‘™ .  Menarik kesimpulan kenormalan data dengan kriteria jika π½π΅β„Žπ‘–π‘‘π‘’π‘›π‘” ≀ 𝑋 2 π‘‘π‘Žπ‘π‘’π‘™ maka residual terstandardisasi berdistribusi normal. d. Konsekuensi Konsekuensi jika asumsi normalitas tidak terpenuhi adalah nilai prediksi yang diperoleh akan bias dan tidak konsisten. e. Cara Mengatasi Untuk mengatasi jika asumsi normalitas tidak terpenuhi, seperti dalam model persamaan di atas, dapat digunakan beberapa metode treatment berikut: ο‚· Menambah jumlah data. Dengan menambah jumlah data maka akibat yang ditimbulkan dari adanya nilai residual yang ekstrem akan semakin berkurang karena dengan semakin banyaknya jumlah data maka pembagi nilai ekstrem akan semakin besar sehingga nilai rata-rata akan semakin mendekati nilai tengah. ο‚· Melakukan transformasi data menjadi log atau LN atau bentuk lainnya. Dengan melakukan transformasi maka selisih antara nilai yang terbesar dengan nilai yang terkteil akan semakin pendek. Dengan demikian data yang memiliki nilai ekstrem akan menjadi semakin dekat dengan nilai rata-ratanya. ο‚· Menghilangkan data yang dianggap sebagai penyebab data tidak normal. Dengan menghilangkan data yang dianggap sebagai penyebab data tidak normal maka sebagian besar data akan semakin mendekati nilai rata-ratanya. Untuk menghilangkan data yang dianggap sebagai penyebab data tidak normal dilakukan dengan menehilangkan seluruh data pada pengamatan tersebut, baik variabel tergantung maupun semua variabel bebasnya. Cara ini merupakan cara yang paling praktis, tetapi jika jumlah data yang dimiliki sangat terbatas maka cara ini bukan merupakan cara yang direkomendasikan. ο‚· Dibiarkan saja, tetapi kita harus menggunakan alat analisis lain. Analisis regresi merupakan salah satu analisis parametrik. Salah satu syarat dari penggunaan analisis parametrik adalah adanya kenormalan data. Oleh karena itu, jika asumsi kenormalan data tidak terpenuhi maka kita dapat menggunakan analisis



nonparametrik yang tidak mensyaratkan adanya kenormalan data, meskipun dengan konsekuensi derajat kesimpulan yang diperoleh lebih lemah dibanding analisis parametrik. 2. Multikolinearitas a. Pengertian Pengertian kolinearitas sering dibedakan dengan multikolinearitas. Kolinearitas berarti terjadi korelasi linear yang mendekati sempurna antara kedua variabel bebas. Sedangkan multikolinearitas berarti terjadi korelasi linear yang mendekati sempurna antara lebih dari dua variabel bebas. Dalam pembahasan ini, kedua istilah tersebut tidak terlalu dibedakan karena lebih pada teknis pengujiannya saja. b. Penyebab ο‚· Kebanyakan variabel ekonomi berubah sepanjang waktu. Besaran-besaran ekonomi dipengaruhi oleh faktor-faktor yang sama maka jika satu faktor memengaruhi variabel dependen maka seluruh variabel akan cenderung berubah dalam satu arah. ο‚· Adanya penggunaan nilai lag (lagged value) dari variabel-variabel bebas tertentu dalam model regresi. ο‚· Metode pengumpulan data yang dipakai (the data collection method employed). ο‚· Adanya kendala dalam model atau populasi yamg menjadi sampel (constaint on the model or in the population being sampled). ο‚· Adanya kesalahan spesifikasi model (specification model). Hal ini dapat terjadi karena seorang peneliti memasukkan variabel penjelas yang seharusnya dikeluarkan dari model empiris. Dapat juga terjadi karena seorang peneliti mengeluarkan variabel penjelas yang seharusnya dimasukkan dalam model empiris. ο‚· Adanya model yang berlebihan (an overdetermined model). Hal ini terjadi ketika model empiris (jumlah variabel penjelas) yang digunakan melebihi jumlah data (observasi). c. Cara Mendeteksi Banyak metode yang dapat digunakan untuk mendeteksi adanya masalah multikolinearitas. Namun, dua metode ini yang paling sering digunakan, yaitu: ο‚· Dengan menggunakan nilai VIP (Variance Inflation Factor). Untuk mengetahui ada tidaknya multikolinearitas antarvariabel, salah satu caranya adalah dengan melihat dari nilai Variance Inflation Factor (VIF) dari masing-masing variabel bebas terhadap variabel terikatnya. Gujarati (1995): jika nilai VIF tidak lebih dari 10 maka model dinyatakan tidak mengandung multikolinearitas. Setelah melalui perhitunganan komputer dihasilkan nilai VIF yang lebih kecil dari 10. Hal ini menunjukkan tidak terjadinya masalah multikolinearitas yang berarti tidak ada hubungan antarvariabel bebas. Uji ini dilakukan dengan menggunakan langkahlangkah: Menghitung Nilai VIF 𝑋1  Meregresikan variabel bebas selain 𝑋1 terhadap 𝑋1. Karena dalam model ini hanya dua variabel bebas saja maka variabel bebas sisanya hanya 𝑋2 saja.  Menghitung koefisien determinasi dari regresi variabel bebas selain 𝑋1 terhadap 𝑋1 dan diperoleh 𝑅𝑗 2 .  Menghitung nilai Tolerance (TOL) dengan rumus 𝑇𝑂𝐿 = 1 βˆ’ 𝑅𝑗 2. 1



 Menghitung nilai Variance Inflation Factor (VIF), dengan rumus 𝑉𝐼𝐹 = 𝑇𝑂𝐿.



Demikian juga untuk menghitung VIF untuk 𝑋2, langkah-langkahnya sama dengan langkah menghitung VIF untuk 𝑋1. Bedanya, ketika menghitung VIF untuk 𝑋1 , yang bertindak sebagai variabel tergantung adalah 𝑋1 dan variabel bebasnya adalah variabel bebas sisanya. Sedangkan untuk menghitung nilai VIF untuk 𝑋2 yang bertindak sebagai variabel tergantung adalah 𝑋2 dan variabel bebasnya adalah variabel bebas sisanya. Karena dalam kasus ini hanya terdiri dari dua variabel bebas maka nilai VIF untuk 𝑋1 akan sama dengan nilai VIF untuk 𝑋2. Contoh Pengujian Multikolinearitas dengan Variance Inflator Factor Dengan menggunakan data kasus analisis regresi Mr. Wong di atas, ujilah apakah dalam persamaan regresi tersebut asumsi multikolinearitas terpenuhi dengan Variance Inflation Factor? Jawab: Untuk melakukan uji multikolinearitas, digunakan bantuan lembar kerja berikut ini:



Gambar 22. Lembar Kerja Uji Multikolinearitas Setelah semua sel pada lembar kerja diisi lengkap dengan mengikuti formula pada lembar kerja di atas maka akan diperoleh hasil sebagai berikut:



Gambar 23. Hasil Lembar Kerja Uji Multikolinearitas



Kesimpulan: Berdasarkan hasil perhitungan nilai Variance Inflation Factor (VTF), pada lembar kerja di atas dapat disimpulkan: VIF 𝑋1 (1,052) < 10 maka tidak terjadi masalah kolinearitas. VIF 𝑋2 (1,052) < 10 maka tidak terjadi masalah kolinearitas. ο‚· Dengan menggunakan matriks korelasi antarvariabel bebas. Selain menggunakan nilai VIF dapat pula dilakukan dengan melihat besarnya nilai koefisien korelasi antarvariabel bebasnya. Jika nilai koefisien korelasi antar masingmasing variabel bebasnya tidak lebih dari 0,7 berarti model tersebut tidak mengandung unsur muitikolinear. Untuk menghitung matriks korelasi antarvariabel bebas dapat dilakukan denean langkah-langkah scbagai berikut:  Buat data seperti berikut ini:



Gambar 24. Tabulasi Data Uji Multikolinearitas-Korelasi Antarvariabel Bebas  Klik menu Data οƒ  Data Analysis.  Muncul tampilan Data Analysis. Pada Analysis Tools, pilih Correlations sehingga tampilannya menjadi seperti berikut:



Gambar 25. Data Analysis-Correlation  Klik OK sehingga muncul tampilan Correlations.  Pada kotak Input Range, isi dengan $B$2:$C$11 atau blok range data yang akan dikorelasikan, yaitu range B2:C11.



Gambar 26. Correlation  Pada Output Options, pilih New Worksheet Ply.  Menghasilkan output pada sheet yang lain sebagai berikut:



Gambar 27. Hasil Data Uji Multikolinearitas-Korelasi Antarvariabel Bebas Kesimpulan: Karena koefisien korelasi antara 𝑋1 dengan 𝑋2 (π‘Ÿπ‘‹1 . 𝑋2 = 0,223) < 0,7 maka tidak terjadi masalah kolinearitas. d. d. Konsekuensi Beberapa akibat yang timbul jika hasil estimasi model empiris mengalami masalah multikolinearitas adalah sebagai berikut: ο‚· Penaksir kuadrat terkecil tidak bisa ditentukan (indeterminate) meskipun hasil estimasi yang dihasilkan masih BLUE (Best Linear Unbiased Estimator). ο‚· Interval kepercayaan (confidence interval) cenderung meningkat lebih besar sehingga mendorong untuk menerima hipotesis nol (antara lain koefisien populasi adalah nol). ο‚· Nilai t-statistik koefisien dari satu atau beberapa variabel penjelas secara statistik tidak signifikan sehingga dapat menyebabkan dikeluarkannya suatu variabel penjelas dalam suatu model regresi, padahal variabel penjelas tersebut memiliki peran yang sangat penting dalam menjelaskan variabel tergantung. ο‚· Penaksir-penaksir OLS dan kesalahan bakunya cenderung tidak stabil dan sangat sensitif bila terjadi perubahan data, meskipun perubahan itu sangat kecil. ο‚· Jika multikolinearitas tinggi maka mungkin 𝑅 2 bisa tinggi, tetapi tidak satu pun (sangat sedikit) taksiran koefisien regresi yang signifikan secara statistik. e. Cara Mengatasi Beberapa cara untuk mengatasi masalah multikolinear adalah: ο‚· Memperbesar ukuran sampel. Masalah multikolinear diharapkan bisa hilang atau berkurang jika ukuran sampel diperbesar (atau jumlah sampel ditambah). Dengan memperbesar ukuran sampel maka kovarian di antara parameter-parameter dapat dikurangi. Hal ini karena kovarian berhubungan terbalik dengan ukuran sampel.



ο‚· Menghilangkan salah satu atau lehih variabel bebas. Untuk menghilangkan beberapa variabel bebas dari model dilakukan satu per satu. Pilih variabel bebas yang memiliki koefisien korelasi paling kecil dengan variabel tergantungnya. ο‚· Menggabungkan data time series dan data cross-section. Metode penggabungan data time series dengan data cross-section sering dikenal sebagai metode pool data. Dengan menggunakan metode ini maka jumlah pengamatan akan bertambah. ο‚· Melakukan transformasi data. Transformasi data merupakan salah satu altematif yang dapat digunakan untuk mengatasi masalah multikolinearitas. Transformasi ini dapat dilakukan dengan pembedaan pertama (first difference form). Model regresi dalam bentuk pembedaan pertama seringkali mengurangi keseriusan multikolinear (Gujarati. 1995). ο‚· Dengan menggunakan metode regresi komponen utama (principle-components regression). Dengan menggunakan metode regresi komponen utama (principle-components regression) maka variabel bebas yang memiliki korelasi yang kuat dapat diringkas menjadi sebuah variabel baru yang mampu mencerminkan variabel pembentuknya. 3. Heteroskedostisitas a. Pengertian Dengan adanya heteroskedastisitas berarti ada varian variabel dalam model yang tidak sama (konstan). Sebaliknya jika varian variabel dalam model memiliki nilai yang sama (konstan) disebut sebagai homoskedastisitas. Masalah heteroskedastisitas sering terjadi pada penelitian yang menggunakan data cross-section. b. Penyebab Berikut ini diberikan beberapa penyebab terjadinya perubahan nilai varian yang kemudian berpengaruh terhadap homoskedastisitas residualnya. ο‚· Adanya pengaruh dari kurva pengalaman (learning curve). Dengan semakin meningkatnya pengalaman maka akan semakin menurun tingkat kesalahannya. Akibatnya, nilai varian makin lama semakin menurun. ο‚· Adanya peningkatan perekonomian Dengan semakin meningkatnya perekonomian maka semakin beragam tingkat pendapatan. Alternatif pengeluaran juga semakin besar sehingga akan meningkatkan varian. ο‚· Adanya peningkatan teknik pengambilan data Jika teknik pengumpulan data semakin membaik, nilai varian cenderung mengecil. Misalnya bank yang menggunakan peralatan Electronic Data Processing (EDP) akan membuat kesalahan yang relatif kecil dalam laporannya dibanding bank yang tidak mempunyai peralatan tersebut. c. Cara Mendeteksi Untuk menguji adanya masalah heteroskedastisitas dapat dilakukan dengan menggunakan beberapa metode, yaitu: ο‚· Metode Analisis Grafik Metode analisis grafik dilakukan dengan mengamati scater plot di mana sumbu horisontal menggambarkan nilai prediksi sedangkan sumbu vertikal menggambarkan nilai residual kuadrat. Jika scater plot membentuk pola tertentu



ο‚·



maka hal itu menunjukkan adanya masalah heteroskedastisitas, sedangkan jika scater plot menyebar secara acak maka hal itu menunjukkan tidak adanya masalah heteroskedastisitas. Sedangkan untuk mendeteksi lebih lanjut mengenai variabel bebas mana yang menjadi penyebab terjadinya masalah heteroskedastisitas maka kita dapat mengamati scater plot di mana variabel bebas sebagai sumbu horisontal dan nilai residual kuadratnya sebagai sumbu vertikal. Namun, demikian metode ini dapat bersifat subyektif di mana dengan scater plot yang sama, antara orang yang satu dengan yang lain dapat memberikan kesimpulan yang berbeda mengenai pola scater plot yang sama. Metode Glejser Uji Glejser dilakukan dengan meregresikan semua variabel bebas terhadap nilai mutlak residualnya. Jika terdapat pengaruh variabel bebas yang signifikan terhadap nilai mutlak residualnya maka dalam model terdapat masalah heteroskedastisitas. Uji Glejser ini dilakukan dengan langkah-langkah sebagai berikut:  Membuat persamaan regresinya.  Mencari nilai prediksinya (π‘ŒΜ‚).  Mencari nilai residualnya (π‘Œ βˆ’ π‘ŒΜ‚).  Memutlakkan nilai residualnya.  Meregresikan variabel bebas terhadap nilai mutlak residualnya.  Menarik kesimpulan uji heteroskedatisitas dengan keriteria jika variabel bebas signifikan terhadap nilai mutlak residualnya maka terjadi masalah heteroskedastisitas, dan sebaliknya. Contoh Pengujian Heteroskedastisitas dengan Uji Glejser Dengan menggunakan data kasus analisis regresi Mr. Wong di atas, ujilah dengan metode Glejser, apakah dalam persamaan regresi tersebut terdapat masalah heteroskedastisitas? Jawab: Untuk melakukan uji heteroskedastisitas dengan menggunakan uji Glejser, buatlah lembar kerja seperti berikut ini:



Gambar 28. Lembar Kerja Uji Heteroskedastisitas-Glejser



Keterangan: o Berdasarkan hasil regresi 𝑋1, 𝑋2 terhadap Y diperoleh persamaan regresi sebagai berikut: π‘Œ = 2,553 βˆ’ 1,092𝑋1 + 1,961𝑋2 o Untuk menghitung nilai pada sel E2, ketik formula =2,553(1,092*B2)+(1,961*C2). Kopikan formula tersebut sampai dengan sel E11. π‘Œπ‘π‘Ÿπ‘’π‘‘ = 2,553 βˆ’ 1,092(2) + 1,961(3) = 6,252 o Untuk menghitung nilai residual pada sel F2, ketik formula = D2-E2. Kopikan formula tersebut sampai dengan sel F11. 𝑅𝑒𝑠𝑖𝑑 = π‘Œ βˆ’ π‘Œπ‘π‘Ÿπ‘’π‘‘ = 5 βˆ’ 6,252 = βˆ’1,252 o Untuk menghitung nilai mutlak residual, pada sel G2, ketik formula =ABS(F2). Kopikan formula tersebut sampai dengan sel G11. Setelah semua sel dilengkapi dengan mengopikan formula sel F2 sampai F11, sel G2 sampai G11, dan sel E12 sampai G12 maka hasilnya adalah sebagai berikut:



Gambar 29. Hasil Lembar Kerja Uji Heteroskedastisitas-Glejser Langkah berikutnya adalah meregresikan variabel bebas, yaitu 𝑋1 dan 𝑋2, terhadap nilai mutlak residualnya dengan langkah-langkah sebagai berikut: οƒ˜ Buat data seperti berikut ini:



Gambar 30. Data Analisis Uji Heteroskedastisitas-Glejser



οƒ˜ Klik menu Data οƒ  Data Analysis. οƒ˜ Akan muncul tampilan Data Analysis. Pada Analysis Tools pilih Regression.



Gambar 31. Data Analysis-Regression οƒ˜ Klik OK sehingga muncul tampilan Regression. οƒ˜ Pada kotak Input Y Range isi dengan $G$2:$G$11 atau blok range data variabel tergantungnya. οƒ˜ Pada kotak Input X Range isi dengan $B$2:$C$11 atau blok range data variabel bebasnya.



Gambar 32. Regression οƒ˜ Pada Output Options pilih New Worksheet Ply. οƒ˜ Akan dihasilkan output pada sheet yang lain, yaitu sebagai berikut:



Gambar 33. Summary Output Analisis Regresi-Uji Glejser Kesimpulan: οƒΌ Karena nilai p-value 𝑋1> 0,05 maka tidak terjadi masalah heteroskedastisitas pada 𝑋1. οƒΌ Karena nilai p-value 𝑋2 < 0,05 maka terjadi masalah heteroskedastisitas pada 𝑋2. ο‚· Metode Park Uji Park dilakukan dengan meregresikan semua variabel bebas terhadap nilai Ln residual kuadrat (Ln 𝑒 2 ). Jika terdapat pengaruh variabel bebas yang signifikan terhadap nilai Ln residual kuadrat (Ln 𝑒 2 ) maka dalam model terdapat masalah heteroskedastisitas. Uji Park ini dilakukan dengan langkah-langkah sebagai berikut:  Membuat persamaan regresinya.  Mencari nilai prediksinya (π‘ŒΜ‚).  Mencari nilai residualnya (π‘Œ βˆ’ π‘ŒΜ‚).  Menguadratkan nilai residualnya.  Mentransformasikan nilai residual kuadrat ke dalam bentuk Ln.  Meregresikan variabel bebas terhadap nilai Ln residual kuadrat.  Menarik kesimpulan uji heteroskedatisitas dengan kriteria jika variabel bebas signifikan terhadap nilai Ln residual kuadrat maka terjadi masalah heteroskedastisitas, dan sebaliknya. Contoh Pengujian Heteroskedastisitas dengan Uji Park Dengan menggunakan data kasus analisis regresi Mr. Wong di atas, ujilah dengan metode Park, apakah dalam persamaan regresi tersebut terdapat masalah heteroskedastisitas? Jawab: Untuk melakukan uji heteroskedastisitas dengan menggunakan uji Park, buatlah lembar kerja seperti berikut ini:



Gambar 34. Lembar Kerja Uji Heteroskedastisitas-Uji Park o Berdasarkan hasil regresi 𝑋1, 𝑋2 terhadap Y diperolah persamaan regresi sebagai berikut: π‘Œ = 2,553 βˆ’ 1,092𝑋1 + 1,961𝑋2 o Untuk menghitung nilai π‘Œπ‘π‘Ÿπ‘’π‘‘ , pada sel E2, ketik formula =2,553(1,092*B2)+(1,961*C2). Kopikan formula tersebut sampai dengan sel E11. π‘Œπ‘π‘Ÿπ‘’π‘‘ = 2,553 βˆ’ 1,092(2) + 1,961(3) = 6,252 o Untuk menghitung nilai residual pada sel F2, ketik formula =D2-E2. Kopikan formula tersebut sampai dengan sel F11. 𝑅𝑒𝑠𝑖𝑑 = π‘Œ βˆ’ π‘Œπ‘π‘Ÿπ‘’π‘‘ = 5 βˆ’ 6,252 = βˆ’1,252 o Untuk menghitung nilai kuadrat residual pada sel G2, ketik formula =F2^2. Kopikan formula tersebut sampai dengan sel G11. o Untuk mentransformasikan nilai kuadrat residual pada sel H2, ketik formula =Ln(H2). Kopikan formula tersebut sampai dengan sel H11. Setelah semua sel dilengkapi dengan mengopi sel F2 sampai F11, sel G2 sampai G11, sel H2 sampai H11, dan sel E12 sampai H12 maka hasilnya adalah sebagai berikut:



Gambar 35. Hasil Lembar Kerja Uji Heteroskedastisitas-Uji Park



Langkah berikutnya adalah meregresikan variabel bebas, yaitu 𝑋1 dan 𝑋2, terhadap nilai mutlak residualnya dengan langkah-langkah sebagai berikut: οƒ˜ Gunakan data seperti pada Gambar 35. οƒ˜ Klik menu Data οƒ  Data Analysis. οƒ˜ Pada Analysis Tools pilih Regression.



Gambar 36. Data Analysis οƒ˜ Klik OK sehingga muncul tampilan Regression. οƒ˜ Pada kotak Input Y Range, isi dengan $H$2:$H$11 atau blok range data variabel tergantungnya. οƒ˜ Pada kotak Input X Range, isi dengan $B$2:$C$11 atau blok range data variabel bebasnya.



Gambar 37. Regression οƒ˜ Pada Output Options pilih New Worksheet Ply. οƒ˜ Menghasilkan output pada sheet yang lain sebagai berikut:



Gambar 38. Summary Output Analisis Regresi-Uji Park Kesimpulan: οƒΌ Karena nilai p-value 𝑋1 > 0,05 maka tidak terjadi masalah heteroskedastisitas pada 𝑋1. οƒΌ Karena nilai p-value 𝑋2 < 0,05 maka terjadi masalah heteroskedastisitas pada 𝑋2. ο‚· Metode White Uji White dilakukan dengan meregresikan semua variabel bebas, variabel bebas kuadrat, dan perkalian (interaksi) variabel bebas terhadap nilai residual kuadratnya. Jika terdapat pengaruh variabel bebas yang signifikan terhadap nilai residual kuadratnya maka dalam model terdapat masalah heteroskedastisitas. Uji White ini dilakukan dengan langkah-langkah sebagai berikut:  Membuat persamaan regresinya.  Mencari nilai prediksinya (π‘ŒΜ‚).  Mencari nilai residualnya (π‘Œ βˆ’ π‘ŒΜ‚ ).  Menguadratkan nilai residualnya.  Menghitung nilai kuadrat variabel bebas dan nilai perkalian (interaksi) antarvariabel bebas.  Meregresikan variabel bebas, kuadrat variabel bebas, perkalian antarvariabel bebas terhadap nilai mutlak residualnya.  Menarik kesimpulan uji heteroskedastisitas dengan kriteria jika variabel bebas signifikan terhadap nilai mutlak residualnya maka terjadi masalah heteroskedastisitas, dan sebaliknya. ο‚· Metode Rank Spearman Uji Rank Spearman dilakukan dengan mengorelasikan semua variabel bebas terhadap nilai mutlak residualnya dengan menggunakan korelasi Rank Spearman. Jika terdapat korelasi variabel bebas yang signifikan terhadap nilai multak residualnya maka dalam model terdapat masalah heteroskedastisitas. Uji Rank Spearman ini dilakukan dengan langkah-langkah sebagai berikut:  Membuat persamaan regresinya.  Mencari nilai prediksinya (π‘ŒΜ‚).



 Mencari nilai residualnya (π‘Œ βˆ’ π‘ŒΜ‚ ).  Memutlakkan nilai residualnya.  Mengorelasikan variabel bebas terhadap nilai mutlak residualnya dengan analisis korelasi Rank Spearman.  Menarik kesimpulan uji heteroskedastisitas dengan kriteria di mana jika variabel bebas berkorelasi signifikan terhadap nilai mutlak residualnya maka terjadi masalah heteroskedastisitas, dan sebaliknya. Untuk melakukan analisis korelasi Rank Spearman antara variabel bebas dengan nilai mutlak residualnya, dapat dicoba sendiri dengan menggunakan langkah-langkah analisis korelasi seperti yang telah diuraikan secara rinci pada bab analisis korelasi. d. Konsekuensi Menurut Gujarati (1995) dalam Aliman (1999) ada beberapa konsekuensi sebagai akibat dari adanya masalah heteroskedastisitas dalam model persamaan regresi adalah: ο‚· Walaupun penaksir OLS masih linear dan masih tidak bias, tetapi akan mempunyai varian yang tidak minimum lagi serta tidak efisien dalam sampel. Lebih lanjut penaksir OLS juga tidak efisien dalam sampel besar. ο‚· Formulasi untuk menaksir varian dari estimasi OLS secara umum adalah bias, di mana bila menaksir secara apriori, seorang peneliti tidak dapat mengatakan bahwa bias tersebut akan positif (upward bias) atau negatif (downward bias). Akibatnya, confidence interval dan uji hipotesis yang didasarkan pada uji t dan nilai distribusi F tidak dapat dipercaya. ο‚· Prediksi (variabel bebas terhadap nilai variabel tergantung) yang didasarkan pada koefisien parameter variabel bebas dari data awal (data asli) akan mempunyai varian yang tinggi sehingga prediksi tidak akan efisien. Lebih lanjut, karena prediksi dari varian meliputi varian dari faktor pengganggu, 𝑒𝑖 , dan dari taksiran parameter (variabel bebas), tidak akan minimal bila ditemukan adanya masalah heteroskedastisitas dalam model empiris yang sedang diestimasi. e. Cara Mengatasi Menurut Imam Ghozali (2005), perbaikan model jika terjadi masalah heteroskedastisitas dapat dilakukan dengan beberapa cara, yaitu: ο‚· Melakukan transformasi dalam bentuk model regresi dan membagi model regresi dengan salah satu variabel independen yang digunakan dalam model tersebut. Misalkan model awal π‘Œπ‘– = 𝑏0 + 𝑏1 𝑋1 + 𝑏2 𝑋2 + 𝑒𝑑 Maka setelah dilakukan transformasi dengan membagi model tersebut dengan salah satu variabel bebas, misalnya 𝑋1 , maka modelnya menjadi: π‘Œ 𝑏0 𝑏2 𝑋2 𝑒𝑑 = + 𝑏1 + + 𝑋1 𝑋1 𝑋1 𝑋1 Dalam bentuk ini maka 𝑏1 akan menjadi intercept dan 𝑏0 akan menjadi koefisien. Jika ingin mengembalikan ke model asal, hendaknya model transformasi yang telah diestimasi dikalikan kembali dengan 𝑋1. ο‚· Melakukan transformasi logaritma sehingga model persamaan regresinya menjadi: πΏπ‘œπ‘” π‘Œ = 𝑏0 + 𝑏1 πΏπ‘œπ‘”π‘‹1 + 𝑏2 πΏπ‘œπ‘”π‘‹2 + 𝑒𝑑 ο‚· Melakukan transformasi Ln sehingga model persamaan regresinya menjadi: 𝐿𝑛 π‘Œ = 𝑏0 + 𝑏1 𝐿𝑛𝑋1 + 𝑏2 𝐿𝑛𝑋2 + 𝑒𝑑



4. Linearitas a. Pengertian Pengujian linearitas ini perlu dilakukan untuk mengetahui model yang dibuktikan merupakan model linear atau tidak. Dengan uji linearitas ini akan diperoleh informasi apakah model empiris sebaiknya linear, kuadrat, atau kubik. b. Cara mcndeteksi Ada beberapa cara untuk menguji apakah model sebaiknya menggunakan persamaan linear atau tidak, yaitu: ο‚· Metode Analisis Grafik Metode analisis grafik dilakukan dengan mengamati scater plot di mana sumbu horisontal menggambarkan nilai prediksi terstandardisasi sedangkan sumbu vertikal menggambarkan nilai residual terstandardisasi. Asumsi linearitas terpenuhi jika plot antara nilai residual terstandardisasi dengan nilai prediksi terstandardisasi tidak membentuk suatu pola tertentu (acak). Namun, metode ini dapat bersifat subjektif, di mana dengan scater plot yang sama antara orang satu dengan orang yang lain dapat memberikan kesimpulan yang berbeda mengenai pola scater plot tersebut. ο‚· Metode Uji MWD (Mac Kinnon, White, dan Davidson) Uji MWD merupakan salah satu metode yang digunakan untuk mengukur linearitas yang dikembangkan oleh tiga orang, yaitu Mac Kinnon, White, dan Davidson. Langkah-langkahnya adalah sebagai berikut:  Membuat persamaan regresinya.  Mencari nilai prediksinya dan diberi nama (π‘ŒΜ‚1 ).  Mentransformasikan variabel bebas dan variabel tergantung ke dalam bentuk Ln.  Membuat persamaan regresi untuk semua variabel yang telah ditransformasikan dalam bentuk Ln.  Mencari nilai prediksi dari persamaan regresi untuk semua variabel yang telah ditransformasikan dalam bentuk Ln dan diberi nama (π‘ŒΜ‚2 ) .  Mentransformasikan nilai prediksinya (π‘ŒΜ‚1 ) ke dalam bentuk Ln dan diberi nama (πΏπ‘›π‘ŒΜ‚1).  Mengurangi nilai (πΏπ‘›π‘ŒΜ‚1) dengan nilai (π‘ŒΜ‚2 ) dan diberi nama 𝑍1 .  Meregresikan variabel bebas dan π‘ŒΜ‚2 terhadap variabel tergantung. Model dikatakan linear jika koefisien π‘ŒΜ‚2 tidak signifikan.  Mentransformasikan nilai prediksinya (π‘ŒΜ‚2 ) ke dalam bentuk AntiLn dan diberi nama (π΄π‘›π‘‘πΏπ‘›π‘ŒΜ‚2).  Mengurang nilai (π΄π‘›π‘‘πΏπ‘›π‘ŒΜ‚2) dengan nilai (π‘ŒΜ‚1) dan diberi nama 𝑍2 .  Meregresikan variabel bebas dan 𝑍1 terhadap variabel tergantung. Model dikatakan linear jika koefisien 𝑍2 signifikan.  Menarik kesimpulan uji linearitas dengan kriteria sebagai berikut: o Jika 𝑍1 linear dan 𝑍2 linear maka model harus linear. o Jika 𝑍1 tidak linear dan 𝑍2 itidak linear maka model harus nonlinear. o Jika 𝑍1 tidak linear dan 𝑍2 linear maka model boleh nonlinear dan boleh linear. o Jika 𝑍1 linear dan 𝑍2 tidak linear maka model boleh linear dan boleh nonlinear. Contoh Uji Linearitas dengan MWD Dengan menggunakan data kasus analisis regresi Mr. Wong di atas, ujilah dengan metode MWD, apakah dalam regresi tersebut sebaiknya menggunakan model linear atau nonlinear?



Jawab: Untuk melakukan uji linearitas dengan menggunakan uji MWD, buatlah lembar kerja seperti berikut (keterangan pengerjaan di bawah tabel):



Gambar 39. Lembar Kerja Uji Linearitas-MWD Keterangan: o Berdasarkan hasil regresi 𝑋1, 𝑋2 terhadap Y diperoleh persamaan regresi sebagai berikut: π‘Œ = 2,553 βˆ’ 1,092𝑋1 + 1,961𝑋2 o Untuk menghitung nilai π‘Œπ‘π‘Ÿπ‘’π‘‘1 pada sel E2, ketik formula =2,553(1,092*B2)+(1,961*C2). Kopikan formula tersebut sampai dengan sel E11. π‘Œπ‘π‘Ÿπ‘’π‘‘1 = 2,553 βˆ’ 1,092(2) + 1,961(3) = 6,252 o Untuk melakukan transformasi 𝑋1, 𝑋2 dan Y ke dalam bentuk Ln, lakukan langkah sebagai berikut: - Pada sel F2, ketikkan formula =Ln(B2). Kopikan formula tersebut sampai dengan sel F11. - Pada sel G2, ketikkan formula =Ln(C2). Kopikan formula tersebut sampai dengan sel G11. - Pada sel H2, ketikkan formula =Ln(D2). Kopikan formula tersebut sampai dengan sel H11. o Regresikan Ln𝑋1 , Ln𝑋2, terhadap LnY sehingga diperoleh persamaan regresi yang kedua sebagai berikut: π‘Œ = 0,552 βˆ’ 0,552𝑋1 + 1,387𝑋2 o Untuk menghitung nilai π‘Œπ‘π‘Ÿπ‘’π‘‘2 pada sel I2 ketik formula =0,552(0,552*F2)+(1,387*G2). Kopikan formula tersebut sampai dengan sel I11. π‘Œπ‘π‘Ÿπ‘’π‘‘2 = 0,552 βˆ’ (0,552 βˆ— 0,693) + (1,387 βˆ— 1.099) = 1,693 o Untuk mentransformasikan π‘Œπ‘π‘Ÿπ‘’π‘‘1 dalam bentuk Ln pada sel J2, ketik formula =Ln(E2). Kopikan formula tersebut sampai dengan sel J11. o Untuk menghitung nilai 𝑍1 pada sel K2 ketik formula =J2-I2. Kopikan formula tersebut sampai dengan sel K11. o Untuk mentransformasikan π‘Œπ‘π‘Ÿπ‘’π‘‘2 ke bentuk AntiLn pada sel L2, ketik formula =EXP(I2). Kopikan formula tersebut sampai dengan sel L11. o Untuk menghitung nilai 𝑍1 pada sel M2 ketikkan formula =E2-L2. Kopikan formula tersebut sampai dengan sel M11. o Kopikan sel E12 sampai dengan sel M12.



Untuk memudahkan dalam meregresikan 𝑋1, 𝑋2 dan 𝑍1 terhadap Y dan meregresikan 𝑋1 , 𝑋2 dan 𝑍2 terhadap Y maka buatlah lembar kerja sebagai berikut:



Gambar 40. Lembar Kerja Uji MWD dengan π’πŸ dan π’πŸ Siap untuk Diregresikan Setelah meregresikan 𝑋1, 𝑋2 dan 𝑍1 terhadap Y dengan cara: - Pilih menu Data οƒ  Data Analysis. - Pada Analysis Tools pilih Regression, OK. - Pada Input Y Range, blok sel A2:A11. - Pada Input X Range, blok sel B2:D11. maka diperoleh output sebagai berikut:



Gambar 41. Summary Output Regression Uji MWD-π’πŸ Karena nilai p-value 𝑍1 (0,170) > 0,05 maka model dinyatakan linear. Setelah meregresikan 𝑋1, 𝑋2 dan 𝑍2 terhadap Y dengan cara: - Pilih menu Data οƒ  Data Analysis. - Pada Analysis Tools pilih Regression, OK. - Pada Input Y Range, blok sel F2:F11. - Pada Input X Range, blok sel G2:I11. maka diperoleh output sebagai berikut:



Gambar 42. Summary Output Regression Uji MWD-π’πŸ Karena nilai p-value 𝑍2 (0,282) > 0,05 maka model dinyatakan linear. Kesimpulan: Karena 𝑍1 merupakan model linear dan 𝑍2 nonlinear maka model dapat menggunakan persamaan linear maupun nonlinear. ο‚· Metodc Uji Lagrange Multiplier (LM-Test) Uji LM-Test rnerupakan salah satu metode yang digunakan untuk mengukur linearitas yang dikembangkan oleh Engle (1982). Prinsip metode ini adalah membandingkan antara nilai 𝑋 2 β„Žπ‘–π‘‘π‘’π‘›π‘” (𝑛 𝑋 𝑅 2 ) dengan nilai 𝑋 2 π‘‘π‘Žπ‘π‘’π‘™ dengan 𝑑𝑓 = (𝑛, 𝛼). Langkah-langkahnya adalah sebagai berikut:  Membuat persamaan regresinya.  Mencari nilai prediksinya dan diberi nama (π‘ŒΜ‚1 ).  Mencari nilai residual (π‘Œ βˆ’ π‘ŒΜ‚).  Menguadratkan semua nilai variabel bebas.  Meregresikan kuadrat variabel bebas terhadap nilai residualnya: π‘ˆ = 𝑏0 + 𝑏1 𝑋1 2 + 𝑏2 𝑋2 2 + 𝑒  Berdasarkan persamaan regresi nilai kuadrat variabel bebas terhadap nilai residu, can nilai koefisien determinasinya 𝑅 2 .  Hitung nilai 𝑋 2 β„Žπ‘–π‘‘π‘’π‘›π‘” dengan persamaan (𝑛 𝑋 𝑅 2 ) di mana 𝑛 adalah jumlah pengamatan.  Menarik kesimpulan uji linearitas, dengan kriteria jika 𝑋 2 β„Žπ‘–π‘‘π‘’π‘›π‘” < 𝑋 2 π‘‘π‘Žπ‘π‘’π‘™ dengan 𝑑𝑓 = (𝑛, 𝛼) maka model dinyatakan linear. Demikian juga sebaliknya. Contoh Uji Linearitas dengan LM-Test Dengan menggunakan data kasus analisis regresi Mr. Wong di atas, ujilah dengan metode LM-Test, apakah regresi tersebut sebaiknya menggunakan model linear atau nonlinear? Jawab: Untuk melakukan uji lienaritas dengan menggunakan LM-Test, buatlah lembar kerja seperti berikut ini:



Gambar 43. Lembar Kerja Uji LM-Test Setelah semua sel dalam lembar kerja dilengkapi dengan mengopikan sel F2 sampai dengan sel F11, sel G2 sampai dengan G11, sel H2 sampai dengan sel H11 dan sel E12 sampai dengan sel H12 maka hasilnya adalah sebagai berikut:



Gambar 44. Hasil Lembar Kerja Uji LM-Test c. Konsekuensi Apabila kita salah dalam menentukan apakah model sebaiknya linear atau nonlinear maka nilai prediksi yang dihasilkan akan menyimpang jauh sehingga nilai prediksinya akan menjadi bias. d. Cara mengatasi Jika berdasarkan uji linearitas diharuskan untuk menggunakan model nonlinear maka model ditransformasikan ke bentuk nonlinear, sedangkan jika berdasarkan uji linearitas diharuskan menggunakan model linear maka model tetap menggunakan model linear.



5. Autokorelasi a. Pengertian Uji autokorelasi bertujuan untuk mengetahui apakah ada korelasi antara anggota serangkaian data observasi yang diuraikan menurut waktu (time series) atau ruang (cross section). b. Penyebab Beberapa penyebab munculnya masaiah autokorelasi dalam analisis regresi adalah: ο‚· Adanya kelembaman (inertia). Salah satu ciri yang menonjol dari sebagian data runtut waktu (time series) dalam fenomena ekonomi adalah kelembaman, seperti data pendapatan nasional, indeks harga konsumen, data produksi, data kesempatan kerja, data pengangguran; menunjukkan adanya pola konjungtur. Dalam situasi seperti ini data observasi pada periode sebelumnya dan periode sekarang, kemungkinan besar akan ada saling ketergantungan (interdependence). ο‚· Bias spesifikasi model kasus variabel yang tidak dimasukkan. Hal ini disebabkan karena tidak dimasukkannya variabel yang menurut teori ekonomi sangat penting perannya dalam menjelaskan variabel tak bebas. Bila hal ini terjadi maka unsur pengganggu (error term) 𝑒𝑖 akan merefleksikan suatu pola yang sistematis di antara sesama unsur pengganggu sehingga terjadilah situasi autokorelasi di antara unsur pengganggu. ο‚· Adanya fenomena laba-laba (cobweb phenomenon). Munculnya fenomena sarang laba-laba terutama terjadi pada penawaran komoditas sektor pertanian. Di sektor pertanian, reaksi penawaran terhadap perubahan harga terjadi setelah melalui tenggang waktu (getation period). Misalnya panen komoditas permulaan tahun dipengaruhi oleh harga yang terjadi pada tahun sebelumnya. Akibatnya, jika pada akhir tahun 𝑑, harga komoditas pertanian ternyata lebih rendah daripada harga sebelumnya maka pada tahun berikutnya (𝑑 + 1) akan cenderung memproduksi lebih sedikit daripada yang diproduksi pada tahun 𝑑. Akibatnya 𝑒𝑖 tidak lagi bersifat acak (random), tetapi akan mengikuti pola, yaitu sarang laba-laba. ο‚· Manipulasi data (manipulation of data) Dalam analisis empiris, terutama pada data time-series, seringkali terjadi manipulasi data. Hal ini terjadi karena data yang diinginkan tidak tersedia. Contohnya adalah data GNP. Data GNP biasanya tersedia dalam bentuk tahunan, sehingga apabila seorang peneliti ingin mendapatkan data GNP kuartalan maka peneliti tersebut harus melakukan interpolasi data. Adanya interpolasi atau manipulasi data ini jelas akan menimbulkan fluktuasi yang tersembunyi yang mengakibatkan munculnya pola sistematis dalam unsur pengganggu dan akhirnya akan menimbulkan masalah autokorelasi. ο‚· Adanya kelambanan waktu (time lags) Dalam regresi dengan menggunakan data time series, pengeluaran konsumsi atas tingkat pendapatan merupakan hal yang lazim untuk mendapatkan bahwa pola pengeluaran konsumsi untuk periode sekarang antara lain ditentukan oleh pengeluaran konsumsi pada periode sebelumnya, di mana model seperti ini dalam ekonometrika dikenal dengan istilah regresi model autoregresif. π‘²π’π’π’”π’–π’Žπ’”π’Š(𝒕) = 𝒇[𝒑𝒆𝒏𝒅𝒂𝒑𝒂𝒕𝒂𝒏(𝒕) , π‘²π’π’π’”π’–π’Žπ’”π’Š(π’•βˆ’πŸ) ]



Dasar pemikiran di atas adalah konsumen tidak bisa mengubah pola konsumsinya seketika, walaupun tingkat pendapatannya meningkat. Hal ini terjadi karena adanya pengaruh psikologis, teknis dan kelembagaan. Jika unsur lag diabaikan dari model di atas maka 𝑒𝑖 yang dihasilkan akan mencerminkan pola sistematis sebagai akibat pengaruh konsumsi pada periode sebelumnya atas konsumsi sekarang. c. Cara Mendeteksi Menurut Gujarati (1995) ada beberapa cara untuk mendeteksi ada atau tidaknya masalah autokorelasi, yaitu dengan menggunakan metode analisis grafik, metode DurbinWatson, metode Van Newmann, dan metode Runtest, sebagai salah satu uji statistik nonparametrik. ο‚· Uji Durbin Watson Durbin-Watson (Uji D-W) merupakan uji yang sangat populer untuk menguji ada tidaknya masalah autokorelasi dari model empiris yang diestimasi. Uji ini pertama kali diperkenalkan oleh J. Durbin dan G.S Watson tahun 1951. Dalam menerapkan uji ini terdapat beberapa asumsi penting yang harus dipenuhi, yaitu:  Model regresi yang dilakukan harus menggunakan konstanta.  Variabel bebas adalah nonstokastik atau relatif tetap untuk sampel yang berulang.  Kesalahan pengganggu atau residual diperoleh dengan autoregresif order pertama. πœΊπ’• = πœΊπ’•βˆ’πŸ + 𝝁𝒕  Model regresi tidak meliputi nilai kelembaman (lag) dari variabel tak bebas sebagai variabel penjelas.  Dalam melakukan regresi tidak boleh ada data atau observasi yang hilang. Rumus yang digunakan untuk uji Durbin-Watson adalah: βˆ‘(𝒆 βˆ’ π’†π’•βˆ’πŸ )𝟐 𝑫𝑾 = βˆ‘ 𝒆𝒕 𝟐 Keterangan: DW = Nilai Durbin-Watson Test 𝑒 = Nilai residual π‘’π‘‘βˆ’1 = Nilai residual satu periode sebelumnya Dengan kriteria pengujian sebagai berikut: Tabel 1. Kriteria Pengujian Autokorelasi dengan Durbin-Watson DW Kesimpulan Ada autokorelasi positif < 𝑑𝐿 Ragu-ragu 𝑑𝐿 s.d. π‘‘π‘ˆ Tidak ada autokorelasi π‘‘π‘ˆ s.d. 4 βˆ’ π‘‘π‘ˆ Ragu-ragu 4 βˆ’ π‘‘π‘ˆ s.d. 4 βˆ’ 𝑑𝐿 Ada autokorelasi negatif > 4 βˆ’ 𝑑𝐿 Contoh Uji Autokorelasi dengan Uji Durbin-Watson Dengan menggunakan data kasus analisis regresi Mr. Wong di atas, ujilah dengan uji Durbin-Watson, apakah dalam persamaan regresi tersebut terdapat masalah autokorelasi? Jawab: Untuk melakukan uji autokorelasi dengan menggunakan uji Durbin-Watson, buatlah lembar kerja seperti berikut ini:



Gambar 47. Lembar Kerja Uji Autokorelasi-Durbin Watson o Berdasarkan hasil regresi 𝑋1, 𝑋2 terhadap Y diperoleh persamaan regresi sebagai berikut: π‘Œ = 2,553 βˆ’ 1,092𝑋1 + 1,961𝑋2 o Untuk menghitung nilai π‘Œπ‘π‘Ÿπ‘’π‘‘1 pada sel E2, ketik formula =2,553(1,092*B2)+(1,961*C2). Kopikan formula tersebut sampai dengan sel E11. π‘Œπ‘π‘Ÿπ‘’π‘‘1 = 2,553 βˆ’ 1,092(2) + 1,961(3) = 6,252 o Setelah semua sel dilengkapi dengan cara mengopikan sel F2 sampai dengan sel F11, sel G2 sampai dengan sel G11, sel H3 sampai dengan sel H11, sel I3 sampai I11, sel J3 sampai dengan sel J11, dan sel E12 sampai dengan sel J12 maka diperoleh hasil seperti berikut:



Gambar 48. Hasil Lembar Kerja Uji Autokorelasi-Durbin Watson Berdasarkan hasil pada lembar kerja di atas kemudian dimasukkan pada rumus Durbin-Watson, seperti berikut ini: βˆ‘(𝑒 βˆ’ π‘’π‘‘βˆ’1 )2 33,104 π·π‘Š = = = 3,386 9,777 βˆ‘ 𝑒𝑑 2 Dengan menggunakan tabel Durbin-Watson dengan derajat bebas 𝐾 (jumlah variabel bebas) dan 𝑛 (jumlah pengamatan), atau dengan derajat bebasnya sebesar 2



dan 10 maka diperoleh nilai 𝑑𝐿 = 0,697 dan π‘‘π‘ˆ = 1,641 sehingga jika dimasukkan ke dalam kriteria pengujian maka hasilnya adalah sebagai berikut:



Gambar 49. Kriteria Penerimaan Uji Autokorelasi-Durbin Watson Kesimpulan: Karena nilai DW sebesar 3,386 > 4 βˆ’ 𝑑𝐿 (3,303) maka model persamaan regresi tersebut mengandung masalah autokorelasi negatif. ο‚· Uji Lagrange Multiplier (LM Test) Uji Langrange Mutiple (LM Test) dapat digunakan untuk menguji adanya masalah autokorelasi tidak hanya pada derajat pertama (first order), tetapi juga digunakan pada berbagai tingkat derajat autokorelasi. Oleh karena itu, banyak penulis yang menyatakan bahwa uji LM Test lebih bermanfaat dibanding uji DW. Hal ini terjadi bila ukuran sampel yang digunakan lebih dari 100 observasi dan derajat autokorelasinya lebih dari satu. Adapun langkah-langkah uji Lagrange Multiplier (uji LM) adalah:  Membuat persamaan regresinya.  Mencari nilai prediksi dan memberinya nama (π‘ŒΜ‚1).  Hitung nilai residual dengan notasi πœ‡π‘– .  Lakukan regresi dengan πœ‡π‘– sebagai variabel tergantung dan masukkan sebagai variabel bebas, atau: ππ’Š = 𝒂 + π’ƒπŸ π‘ΏπŸ + π’ƒπŸ π‘ΏπŸ + ππ’Šβˆ’πŸ + 𝒆  Menghitung nilai 𝑋 2 β„Žπ‘–π‘‘π‘’π‘›π‘” dengan rumus π‘ΏπŸ = (𝒏 βˆ’ 𝟏) βˆ— π‘ΉπŸ .  Menarik kesimpulan dengan membandingkan 𝑋 2 β„Žπ‘–π‘‘π‘’π‘›π‘” dengan 𝑋 2 π‘‘π‘Žπ‘π‘’π‘™ dengan 𝑑𝑓 = (𝛼, 𝑛 βˆ’ 1). Jika nilai 𝑋 2 β„Žπ‘–π‘‘π‘’π‘›π‘” > 𝑋 2 π‘‘π‘Žπ‘π‘’π‘™ , itu menunjukkan adanya masalah autokorelasi. Sebaliknya, jika 𝑋 2 β„Žπ‘–π‘‘π‘’π‘›π‘” ≀ 𝑋 2 π‘‘π‘Žπ‘π‘’π‘™ , itu menunjukkan tidak terjadinya masalah autokorelasi. Contoh Uji Autokorelasi dengan Labgrange Multiplier (LM-Test) Dengan menggunakan data kasus analisis regresi Mr. Wong di atas, ujilah dengan uji Lagrange Multiplier (LM Test), apakah dalam persamaan regresi tersebut terdapat masalah autokorelasi? Jawab: Untuk melakukan uji autokorelasi dengan menggunakan uji Lagrange Multiplier, buatlah lembar kerja berikut ini:



Gambar 50. Lembar Kerja Uji Autokorelasi-LM Test o Berdasarkan hasil regresi 𝑋1 , 𝑋2 terhadap Y diperoleh persamaan regresi sebagai berikut: π‘Œ = 2,553 βˆ’ 1,092𝑋1 + 1,961𝑋2 o Untuk menghitung nilai π‘Œπ‘π‘Ÿπ‘’π‘‘1 pada sel E2, ketik formula =2,553(1,092*B2)+(1,961*C2). Kopikan formula tersebut sampai dengan sel E11. π‘Œπ‘π‘Ÿπ‘’π‘‘1 = 2,553 βˆ’ 1,092(2) + 1,961(3) = 6,252 o Setelah semua sel dilengkapi dengan cara mengopikan sel F2 sampai dengan sel F11, sel G3 sampai dengan sel G11, sel H3 sampai dengan sel H11, sel I3 sampai I11, dan sel E12 sampai dengan sel I12 maka diperoleh hasil seperti berikut:



Gambar 51. Hasil Lembar Kerja Uji Autokorelasi-LM Test Langkah berikutnya adalah meregresikan 𝑋1 , 𝑋2, dan π‘’π‘‘βˆ’1 terhadap 𝑒, kemudian ambil nilai koefisien determinasi 𝑅 2 untuk menghitung nilai 𝑋 2 β„Žπ‘–π‘‘π‘’π‘›π‘” dengan langkah-langkah seperti yang telah diuraikan di atas sehingga tampilan kotak dialog Regression menjadi seperti berikut:



Gambar 52. Regression Pada tampilan kotak dialog Regression di atas terlihat bahwa hanya 9 observasi saja yang dianalisis. Variabel 𝑋1, 𝑋2 observasi pertama pada lembar kerja di atas tidak diikutkan dalam analisis karena variabel π‘’π‘‘βˆ’1 belum mempunyai nilai. Hasil regresi tersebut dapat dilihat pada gambar berikut:



Gambar 52. Summary Output Regression LM Test-Autokorelasi Berdasarkan output di atas diperoleh nilai 𝑅 2 sebesar 0,977 dan jumlah pengamatan sebanyak 9 maka 𝑋 2 β„Žπ‘–π‘‘π‘’π‘›π‘” sebesar (9 βˆ— 0,977) = 8,793. Sedangkan nilai 𝑋 2 π‘‘π‘Žπ‘π‘’π‘™ dengan 𝑑𝑓(9; 0,05) dapat dicari dengan langkah-langkah sebagai berikut: οƒ˜ Klik menu Formulas οƒ  pilih Insert Function. Pada Or select a Category pilih Statistical. Pada Select a function, pilih CHISQ.INV.RT. Klik OK sehingga tampilannya menjadi seperti berikut:



Gambar 53. Function Arguments οƒ˜ Pada Probability, isi dengan 0,05. Pada Deg_freedom, isi 10. Klik OK shingga muncul nilai sebesar 16,919. Kesimpulan: Karena nilai 𝑋 2 β„Žπ‘–π‘‘π‘’π‘›π‘” (8,793) < 𝑋 2 π‘‘π‘Žπ‘π‘’π‘™ (16,919) maka model persamaan regresi tidak mengandung masalah autokorelasi. Hasil uji autokorelasi antara uji Durbin-Watson dengan uji Lagrange Multiplier memberikan kesimpulan yang berbeda. Hal ini disebabkan uji Lagrange Multiplier lebih cocok untuk observasi dalam jumlah besar di atas 100, sedangkan dalam kasus ini penulis paksakan untuk memecahkan kasus yang sama, yaitu dengan menggunakan 10 pengamatan saja. ο‚· Uji Run Test Run Test merupakan salah satu analisis nonparametrik yang dapat digunakan untuk menguji apakah antarresidual terdapat korelasi yang tinggi. Jika antarresidual tidak terdapat hubungan korelasi maka dikatakan nilai residual adalah acak atau random. Run test digunakan untuk melihat apakah data residual terjadi secara random atau tidak. Langkah-langkah untuk melakukan uji autokorelasi dengan Run-Test adalah sebagai berikut:  Membuat persamaan regresinya.  Mencari nilai prediksinya (π‘ŒΜ‚).  Mencari nilai residualnya (π‘Œ βˆ’ π‘ŒΜ‚).  Mencari nilai residual terstandardisasi.  Menghitung nilai median dari data residual terstandardisasinya.  Berilah tanda β€” (negatif) jika nilai residual terstandardisasi lebih kecil dari mediannya dan berilah tanda + (positif) jika nilai residual terstandardisasi lebih kecil dari mediannya.  Menghitung jumlah Run. Jumlah Run merupakan suatu sequence dari tanda-tanda yang sama jenisnya yang dibatasi oleh tanda-tanda dari jenis lainnya (Ingat dalam hal ini hanya ada dua tanda, yaitu β€” dan +). Misalnya untuk tanda sequence (- + +) dianggap 2 Runs, (- + -) dianggap 3 Runs, (- + + - + + ) dianggap 4 Runs, dan seterusnya. Contoh Uji Autokorelasi dengan Run Dengan menggunakan data kasus analisis regresi Mr. Wong di atas, ujilah dengan Uji Run, apakah dalam persamaan regresi tersebut terdapat masalah autokorelasi?



Jawab: Untuk melakukan uji autokorelasi dengan menggunakan uji Run, buatlah lembar kerja seperti berikut ini (petunjuk pengerjaan ada di bawah gambar):



Gambar 54. Lembar Kerja Autokorelasi-Run Test οƒ˜ Berdasarkan hasil regresi 𝑋1, 𝑋2 terhadap Y, diperoleh persamaan regresi sebagai berikut: π‘Œ = 2,553 βˆ’ 1,092𝑋1 + 1,961𝑋2 οƒ˜ Untuk menghitung nilai π‘Œπ‘π‘Ÿπ‘’π‘‘ pada sel E2, ketik formula =2,553(1,092*B2)+(1,961*C2). Kopikan formula tersebut sampai ke sel E11. π‘Œπ‘π‘Ÿπ‘’π‘‘ = 2,553 βˆ’ 1,092(2) + 1,961(3) = 6,252 οƒ˜ Untuk menghitung nilai residual pada sel F2, ketik formula =D2-E2. Kopikan formula tersebut sampai ke sel F11. 𝑅𝑒𝑠𝑖𝑑 = π‘Œ βˆ’ π‘Œπ‘π‘Ÿπ‘’π‘‘ = 5 βˆ’ 6,252 = βˆ’1,252 οƒ˜ Untuk menghitung nilai residual terstandardisasi maka kita harus menghitung nilai rata-rata dan standar deviasai dari residual tersebut sehingga: οƒΌ Pada sel D13, ketik formula =AVERAGE(D2:D11) - Pada sel F13, ketik formula =AVERAGE(F2:F11) - Pada sel F14, ketik formula =STDEV(F2:F11) 𝑋𝑖 βˆ’ 𝑋̅ βˆ’1,200 βˆ’ (βˆ’0,002) π‘π‘Ÿπ‘’π‘ π‘–π‘‘ = = = βˆ’1,200 𝛿 1,042 Pada sel G2, ketik formula =(F2-$F$13)/$F$14. Kopikan formula tersebut sampai dengan sel G11. οƒ˜ Untuk mencari nilai median pada sel G13, ketik formula =MEDIAN(G2:G11). οƒ˜ Untuk memberikan tanda positif atau negatif, pada sel H2, ketik formula =IF(G2>$G$13;"+";"-"). Kopikan formula tersebut sampai dengan sel H11. οƒ˜ Atau dapat menggunakan menu Formulas, dengan langkah-langkah sebagai berikut:



οƒΌ Klik menu Formulas οƒ  pilih Insert Function. Pada Or select a Category pilih Logical. Pada Select a function pilih IF. Klik OK sehingga tampilannya menjadi seperti berikut:



Gambar 55. Function Arguments-IF οƒΌ Pada Logical_test, isi dengan G2>$G$13. Pada Value_if_true, isi "+". Pada Value_if_false, isi "-". Klik OK sehingga muncul tanda "-". Kopikan formula tersebut sampai dengan sel H11. οƒ˜ Untuk menghitung Run yang memiliki tanda positif (+), pada sel H15 ketik formula =COUNTIF(H2:H11;"+"). Sedangkan untuk menghitung Run yang memiliki tanda negatif (-), pada sel H16 ketik formula =COUNTIF(H2:H11;"-"). Kesimpulan: Dari lembar kerja di atas diketahui bahwa jumlah Run=10. Jumlah tanda negatif - (n1) =5, jumlah tanda + (n2)=5. Berdasarkan tabel nilai π‘Ÿ untuk uji Runs dengan 𝛼=0,05 diketahui bahwa batas penerimaan bawah adalah 2 dan batas penerimaan atas adalah 10. Oleh karena π‘Ÿ (=10 run) terletak masih dalam rentang nilai 2 dan 10 (daerah terima) maka hipotesis nihil yang menyatakan nilai residual terstandardisasi menyebar secara acak diterima. Dengan demikian maka tidak terjadi autokorelasi dalam persamaan regresi tersebut. d. Konsekuensi Gujarati (1995) dalam Aliman (1999) menyebutkan beberapa konsekuensi dari munculnya masalah autokorelasi dalam analisis regresi, yaitu sebagai berikut: 1. Penaksir OLS unbiased dalam penyampelan berulang dan konsisten, tetapi sebagaimana dalam kasus heteroskedastistitas, penaksir OLS tadi tidak lagi efisien (mempunyai varian minimum), baik dalam sampel kecil maupun dalam sampel besar. 2. Estimasi varian dari penaksir-penaksir OLS adalah bias di mana hasil perhitungan varian dari kesalahan baku yang sebenarnya. Akibatnya, nilai t-statistik penaksir OLS tersebut menjadi tinggi. Padahal bila estimasi model regresi dari penaksirpenaksir OLS bila tidak terjadi atau tidak terdapat masalah autokorelasi, mungkin akan mempunyai t-statistik yang kecil. Akibatnya, nilai t-statistik dan nilai Fstatistik tidak dapat dipercaya karena menyesatkan. Hal ini akan mengakibatkan: 𝑅𝑆𝑆



- Formulasi untuk menghitung error variance (𝛿 2 = π‘‘π‘’π‘”π‘Ÿπ‘’π‘’ π‘œπ‘“ π‘“π‘Ÿπ‘’π‘’π‘‘π‘œπ‘š) menjadi bias karena 𝛿 2 (penaksir t-varian) akan mengestimasi terlalu rendah (underestimate).



- Nilai 𝑅 2 yang dihasilkan lebih tinggi daripada yang seharusnya sehingga 𝑅 2 tersebut tidak dapat dipercaya. - Nilai variance dan kesalahan baku yang digunakan untuk peramalan tidak efisien. e. Cara mengatasi Menurut Gujarati (1995), untuk memperbaiki autokorelasi yang bermasalah dapat dilakukan dengan cara sebagai berikut: 1. Dengan membuat persamaan perbedaan yang digeneralisasikan. Metode ini dilakukan jika struktur autokorelasi diketahui. Metode ini pada prinsipnya dilakukan dengan melakukan transformasi dari persamaan regresi linear biasa dengan memasukkan unsur 𝜌 dalam model persamaan. Untuk memperjelas transformasi, berikut ini disajikan persamaan: Persamaan awal: 𝒀𝒕 = 𝜷𝟎 + 𝜷𝟏 π‘ΏπŸ + 𝝁𝒕 Persamaan setelah transformasi: (𝒀𝒕 βˆ’ π†π’€π’•βˆ’πŸ ) = 𝜷𝟎 (𝟏 βˆ’ 𝝆) + 𝜷𝟏 (π‘ΏπŸ βˆ’ π†π‘Ώπ’•βˆ’πŸ ) + 𝝁𝒕 Sedangkan nilai 𝜌 sendiri merupakan koefisien regresi yang diperoleh dengan meregresikan nilai residu periode sebelumnya (π‘’π‘‘βˆ’1) terhadap nilai residu pada periode 𝑑 (𝑒𝑑 ). 𝒖𝒕 = π†π’–π’•βˆ’πŸ + πœΊπ’• Dengan prosedur pembedaan ini kita kehilangan satu observasi. Hal ini karena observasi pertama tidak mempunyai pendahulu. Untuk menghindari kehilangan satu observasi ini, observasi pertama atas Y dan X ditransformasikan sebagai berikut: π‘Œ1 √1 βˆ’ 𝜌2 dan 𝑋1 √1 βˆ’ 𝜌2 2. Dengan metode perbedaan pertama. Metode ini dilakukan jika struktur autokorelasi tidak diketahui. Metode ini pada prinsipnya dilakukan dengan mentransformasikan persamaan regresi linear biasa dengan mengurangi nilai variabel pada periode 𝑑 dengan nilai variabel pada periode 𝑑 βˆ’ 1. Untuk memperjelas transformasi, berikut disajikan persamaannya: Persamaan awal: 𝒀𝒕 = 𝜷𝟎 + 𝜷𝟏 π‘ΏπŸ + 𝝁𝒕 Persamaan setelah transformasi: (𝒀𝒕 βˆ’ π’€π’•βˆ’πŸ ) = 𝜷𝟏 (π‘ΏπŸ βˆ’ π‘Ώπ’•βˆ’πŸ ) + πœΊπ’• Atau: βˆ†π’€π’• = 𝜷𝟎 + βˆ†π‘ΏπŸ + πœΊπ’• Satu sifat penting dari model pembedaan pertama adalah tidak ada unsur intercept di dalamnnya. Namun, jika model yang asli adalah: 𝒀𝒕 = 𝜷𝟎 + 𝜷𝟏 π‘ΏπŸ + 𝜷𝟐 𝒕 + πœΊπ’• Di mana 𝑑 adalah variabel tren dan di mana 𝑒𝑑 mengikuti skema autoregresif derajat pertama maka transformasi perbedaan pertama dari persamaan di atas adalah: βˆ†π’€π’• = 𝜷𝟎 + βˆ†π‘ΏπŸ + 𝜷𝟐 + πœΊπ’• Ternyata setelah ditransformasi tampak adanya unsur intercept, yaitu 𝛽2. Jadi, jika ada unsur intercept pada bentuk pembedaan pertama, hal itu menunjukkan bahwa ada unsur trend linear dalam model asli. 3. Dengan metode persamaan perbedaan yang digeneralisasikan di mana 𝜌 didasarkan pada statistik Durbin-Watson. Metode ini dilakukan jika struktur autokorelasi tidak diketahui. Metode ini pada prinsipnya dilakukan dengan mentransformasikan persamaan regresi linear biasa dengan memasukkan unsur 𝜌 dalam model persamaan. Untuk memperjelas transformasi, perhatikan persamaan berikut: Persamaan awal: 𝒀𝒕 = 𝜷𝟎 + 𝜷𝟏 π‘ΏπŸ + 𝝁𝒕



Persamaan setelah transformasi: (𝒀𝒕 βˆ’ π†π’€π’•βˆ’πŸ ) = 𝜷𝟎 (𝟏 βˆ’ 𝝆) + 𝜷𝟏 (π‘ΏπŸ βˆ’ π†π‘Ώπ’•βˆ’πŸ ) + 𝝁𝒕 Berbeda dengan metode pertama, untuk memperoleh nilai 𝜌 Theil dan Nagar (1961) membuat persamaan berikut: 𝑑 𝑁 2 (1 βˆ’ 2) + π‘˜ 2 𝜌= 𝑁2 βˆ’ π‘˜2 Di mana: 𝑁 = Banyaknya observasi 𝑑 = Durbin-Watson Statistik π‘˜ = Banyaknya koefisien (termasuk intersep) yang ditaksir Untuk memberikan ilustrasi atas metode ini diberikan contoh seperti yang disajikan dalam buku Gujarati (1995), yaitu sebagai berikut: Model awal persamaan regresi: πΏπ‘›π»π‘ŠπΌπ‘‘ = 𝛽0 + 𝛽1 π‘™π‘›π‘ˆπ‘‘ + πœ‡ Keterangan: π»π‘ŠπΌ = Indeks ingin bantuan π‘ˆ = Pengangguran Berdasarkan hasil analisis regresi diperoleh persamaan sebagai berikut: πΏπ‘›π»π‘ŠπΌπ‘‘ = 3,1698 βˆ’ 1,5316π‘™π‘›π‘ˆπ‘‘ + πœ‡ 𝑆𝑏 = (0,0487)(0,0719) 𝑑 = (65,0883)(21,3018) 𝑅 2 = 0,9516 𝑑 = 0,9021 Dengan jumlah observasi 24, jumlah variabel bebas 1, dan tingkat toleransi 𝛼=0,05 maka diperoleh nilai 𝑑𝐿 =1,27 dan π‘‘π‘ˆ =1,45. Karena nilai π‘‘β„Žπ‘–π‘‘π‘’π‘›π‘” sebesar 0,9021 lebih kecil dari 𝑑𝐿 maka ada masalah autokorelasi positif. Karena regresi mengandung masalah autokorelasi maka diperlukan tindakan perbaikan. Untuk melakukan perbaikan diperlukan taksiran nilai 𝜌 (dengan mengasumsikan mekanisme autoregresif derajat pertama) dan menggunakannya untuk mentransformasikan data dengan cara perbedaan yang digeneralisasikan. Karena nilai Durbin-Watson hitung tersedia, kita dapat memperoleh nilai 𝜌 taksiran menggunakan teknik Theil Nagar, sebagai berikut: 𝑑 0,9021 𝑁 2 (1 βˆ’ 2) + π‘˜ 2 242 (1 βˆ’ 2 ) + 22 πœŒΜ‚ = = = 0,5598 𝑁2 βˆ’ π‘˜2 242 βˆ’ 22 Dengan menggunakan taksiran ini, kita dapat mentransformasikan data kita sebagai berikut: (π‘™π‘›π»π‘ŠπΌπ‘‘ βˆ’ 0,5598 π‘™π‘›π»π‘ŠπΌπ‘‘βˆ’1 ) dan (π‘™π‘›π‘ˆπ‘‘ βˆ’ 0,5598 π‘™π‘›π‘ˆπ‘‘βˆ’1 ) yaitu, mengurangkan 0,5598 kali nilai variabel sebelumnya dari nilai saat ini. Sedangkan nilai pertama dari π»π‘ŠπΌ dan π‘ˆ ditransformasikan sebagai berikut: √(1 βˆ’ 0,5598)2 π‘™π‘›π»π‘ŠπΌπ‘‘ dan √(1 βˆ’ 0,5598)2 π‘™π‘›π‘ˆπ‘‘ Setelah semua nilai variabel ditransformasikan menjadi π»π‘ŠπΌπ‘‘ * dan π‘ˆπ‘‘ *, kemudian dari analisis regresi diperoleh hasil sebagai berikut: πΏπ‘›π»π‘ŠπΌπ‘‘ βˆ—= 1,4091 βˆ’ 1,4604π‘™π‘›π‘ˆπ‘‘ βˆ— 𝑆𝑏 = (0,0397)(0,1320) 𝑑 = (35,4937)(11,0636)



𝑅 2 = 0,8466 𝑑 = 1,7438 Dengan jumlah observasi 24, jumlah variabel bebas 1, dan tingkat toleransi 𝛼=0,05 maka diperoleh nilai 𝑑𝐿 =1,27 dan π‘‘π‘ˆ =1,45. Karena nilai π‘‘β„Žπ‘–π‘‘π‘’π‘›π‘” sebesar 1,7438 maka tidak ada masalah autokorelasi. Unsur intercept dalam persamaan tersebut adalah suatu taksiran dari 𝛽0 (1 βˆ’ 𝜌). Oleh karena itu, suatu taksiran dari 𝛽0 dapat diperoleh sebagai 𝛽0 (1 βˆ’ 0,5590) = 1,4091; yaitu 𝛽0 = 3,2010. D. Soal Latihan 1. Jelaskan perbedaan antara analisis regresi sederhana dan analisis regresi berganda! 2. Jelaskan tentang uji asumsi klasik dalam analisis regresi? 3. Jelaskan pengertian, penyebab, cara mendeteksi, akibat, dan perbaikan yang dilakukan jika regresi mengandung masalah normalitas? 4. Jelaskan pengertian, penyebab, cara mendeteksi, akibat, dan perbaikan yang dilakukan jika regresi mengandung masalah heteroskedastisitas? 5. Jelaskan pengertian, penyebab, cara mendeteksi, akibat, dan perbaikan yang dilakukan jika regresi mengandung masalah multikolinearitas? 6. Jelaskan pengertian, penyebab, cara mendeteksi, akibat, dan perbaikan yang dilakukan jika regresi mengandung masalah autokorelasi? 7. Jelaskan pengertian, penyebab, cara mendeteksi, akibat, dan perbaikan yang dilakukan jika regresi mengandung masalah linearitas? 8. Berikut ini adalah data tentang besarnya pendapatan (𝑋1), jumlah anggota keluarga (𝑋2), dan pengeluaran keluarga untuk berbelanja dari 12 rumah tangga di Desa Suka Jajan.



Berdasarkan data tersebut: a. Buatlah persamaan regresinya! b. Ujilah persamaan regresi tersebut apakah mengalami masalah normalitas? Jika terjadi masalah normalitas, lakukanlah perbaikannya! c. Ujilah persamaan regresi tersebut, apakah terjadi masalah heteroskedastisitas? Jika terjadi masalah heteroskedastisitas, lakukanlah perbaikannya! d. Ujilah persamaan regresi tersebut apakah terjadi masalah multikolinearitas? Jika terjadi masalah multikolinearitas, lakukanlah perbaikannya! e. Ujilah persamaan regresi tersebut, apakah terjadi masalah linearitas? Jika terjadi masalah linearitas, lakukanlah perbaikannya! f. Ujilah persamaan regresi tersebut, apakah terjadi masalah autokorelasi? Jika terjadi masalah autokorelasi, lakukanlah perbaikan!