Memahami Asumsi Non Multikolinearitas Pada Regresi

Memahami Asumsi Non Multikolinearitas Pada Regresi

Pada pembahasan sebelumnya kita sudah membahas pentingnya pemenuhan asumsi normalitas pada model regresi, utamanya pada pengujian pada residual atau faktor ganguan (ui). Kali ini kita akan membahas asumsi regresi yang berkenaan dengan variabel independen (bebas), dimana satu syarat dalam model regresi hubungan antar variabel independen (bebas) haruslah bernilai sekecil mungkin dan tidak signifikan. Secara logika sederhana apabila antar variabel independen (bebas) terdapat korelasi yang tinggi dan signifikan pastilah salah satunya dapat dijadikan variabel akibat atau dependen (tergantung). Secara lebih rinci apa akibat dari adanya multikolinearitas pada model regresi hingga cara untuk menanggulanginya akan dibahas pada uraian berikut ini.

Sifat Dasar Multikolinearitas

Istilah multikolinearitas mula-mula ditemukan oleh Ragnar Frisch. Pada mulanya kolinearitas berarti adanya hubungan linear yang sempurna atau pasti (nilai korelasi yang terjadi antar variabel independen sama dengan satu), diantara beberapa atau semua variabel yang menjelaskan dari model regresi.

Mengapa model regresi linear klasik mengasumsikan tidak adanya multikolinearitas di antara variabel bebas (X)? Dasar pemikirannya adalah jika multikolinearitas sempurna terjadi, maka koefisien regresi yang didapatkan menjadi tak tentu dan kesalahannya (ui) tak terhingga. Sedangkan, jika multikolinearitas kurang sempurna terjadi, maka koefisien regresi meskipun bisa ditentukan tetapi memiliki kesalahan standar (standar error) yang besar, yang berarti bahwa koefisien regresi tidak dapat ditaksir dengan ketepatan yang tinggi.

Hal lainnya yaitu harus ditekankan dengan sungguh-sungguh bahwa X diasumsikan bernilai tetap atau nonstokastik (bukan nilai peluang) dan multikolinearitas pada dasarnya merupakan fenomena regresi sampel. Suatu yang harus diperhatikan, ketika kita mengendalikan fungsi regresi populasi atau teoritis, kita percaya bahwa semua variabel bebas (X) yang termasuk dalam model mempunyai pengaruh terpisah atau independen atas variabel tak bebas (Y). Tetapi mungkin terjadi bahwa dalam sampel tertentu yang mana pun yang digunakan untuk menguji model populasi atau teoritis, beberapa atau semua variabel bebas (X) sangat kolinear sehingga kita tidak bisa mengisolasi pengaruh individual terhadap variabel tak bebas (Y). Jadi bisa dikatakan, sampel yang digunakan menjatuhkan kita, meskipun secara teori mengatakan bahwa semua variabel bebas (X) penting.

Misal : “Ahli ekonomi berteori bahwa disamping pendapatan, kekayaan konsumen juga suatu penentu penting dari belanja konsumsi.” Sekarang mungkin terjadi ketika kita memperoleh data mengenai pendapatan dan kekayaan, kedua variabel mungkin sangat berkorelasi atau tidak berkorelasi sempurna. Orang kaya biasanya cenderung mempunyai pendapatan yang lebih tinggi. Jadi meskipun dalam teori pendapatan dan kekayaan adalah calon logis untuk menjelaskan perilaku konsumsi, dalam praktek (dalam sampel) mungkin sulit memecah pengaruh terpisah dari pendapatan dan kekayaan atas konsumsi.

Konsekuensi Multikolinearitas

Ingat bahwa jika asumsi model regresi linear klasik dipenuhi, penaksir OLS dari koefisien regresi adalah linear, tak bias dan mempunyai varians minimum (BLUE). Dalam kasus multikolinear sempurna penaksir OLS menjadi tak tentu dan varians atau kesalahan standarnya menjadi tak tentu pula. Jika kolinearitas tajam tetapi tak sempurna, maka konsekuensi ini akan terdapat.

  1. Meskipun penaksir OLS mungkin bisa diperoleh, kesalahan standarnya cenderung semakin besar dengan meningkatnya tingkat korelasi antara peningkatan variabel. (k-variabel)
  2. Karena besarnya kesalahan standar, selang keyakinan untuk parameter populasi yang relevan cenderung untuk lebih besar. (perlu diingat semakin sempit selang keyakinan semakin teliti nilai penaksir atau koefisien regresi yang diperoleh)
  3. Dalam kasus multikolinearitas yang tinggi, data sampel mungkin sesuai dengan sekelompok hipotesis yang berbeda-beda. Jadi probabilitas untuk menerima hipotesis yang salah meningkat.
  4. Selama multikolinearitas tidak sempurna, penaksiran koefisien regresi adalah mungkin tetapi taksiran dan kesalahan standarnya menjadi sangat sensitif terhadap sedikit perubahan dalam data.
  5. Jika multikolinearitas tinggi, seseorang mungkin memperoleh R2 yang tinggi tetapi tidak satu pun atau sangat sedikit koefisien regresi yang ditaksir yang penting secara statistik (tidak signifikan).

Pendeteksian Multikolinearitas

Setelah mempelajari sifat dari konsekuensi multikolinearitas, pertanyaan yang wajar adalah bagaimana orang mengetahui adanya kolinearitas dalam setiap situasi tertentu, terutama dalam model yang meliputi lebih dari dua variabel yang menjelaskan. Ada beberapa metode deteksi, diantaranya adalah

  1. Kolinearitas seringkali diduga ketika R2 tinggi (misal : antara 0,700 s.d 1,00) dan ketika korelasi derajat nol (dua variabel) juga tinggi, tetapi tak satu pun atau sangat sedikit koefisien regresi parsial yang secara individual penting secara statistik atas dasar pengujian t yang konvensional.
  2. Karena multikolinearitas timbul karena satu atau lebih variabel yang menjelaskan merupakan kombinasi linear yang pasti atau mendekati pasti dari variabel yang menjelaskan lainnya, satu cara untuk mengetahui variabel bebas (X) yang mana yang berhubungan dengan variabel bebas (X) lainnya adalah dengan meregresi tiap variabel bebas (X) atas sisa variabel bebas (X) dengan menghitung R2 yang diperoleh.

Multikolinearitas dan Peramalan

Jika satu-satunya tujuan analisis regresi adalah peramalan, maka multikolinearitas bukan merupakan masalah serius, karena semakin tinggi R2 semakin baik peramalan. Tetapi ini hanya benar jika kolinearitas yang ada di antara variabel bebas (X) dalam sampel tertentu juga tetap akan ada dimasa yang akan datang.

Jika hubungan linear yang diperkirakan di antara variabel bebas (X) dalam suatu sampel tidak berlanjut ke (sampel) yang akan datang, peramalan akan menjadi semakin tidak pasti. Lebih jauh lagi, jika tujuan analisis tidak hanya peramalan tetapi juga taksiran yang bisa dipercaya dari parameter, multikolinearitas yang serius akan menjadi masalah karena menyebabkan besarnya kesalahan standar (standar error) dari penaksiran.

Tindakan Perbaikan Multikolinearitas

Apa yang dapat dikerjakan apabila terdapat multikolinearitas yang serius? Ada petunjuk yang tidak mungkin salah karena pada dasarnya multikolinearitas adalah masalah sampel. Tetapi petunjuk praktis berikut dapat dicoba, keberhasilannya tergantung pada keparahan masalah kolinearitas.

  1. Informasi apriori. Bagaimana orang mendapatkan informasi apriori? Ini bisa datang baik dari teori atau dari penelitian empiris sebelumnya di mana masalah kolinearitas ternyata kurang serius.
  2. Menghubungkan data cross-sectional dan data urutan-waktu. Misal : “kita dapat memperoleh taksiran yang dapat dipercaya dari elastisitas permintaan (Y) atas variabel harga dan pendapatan (X) cenderung berkolinearitas, dalam data seperti itu, pada suatu titik waktu, harga tidak banyak berubah sehingga multikolinearitas dapat dihindari.”
  3. Mengeluarkan suatu variabel atau variabel-variabel dan bias spesifikasi. Ketika dihadapkan dengan multikolinearitas yang parah, satu cara yang “paling sederhana” untuk dilakukan adalah mengeluarkan satu dari variabel yang berkolinear. Tetapi dalam mengeluarkan suatu variabel dari model, kita mungkin melakukan bias spesifikasi atau kesalahan spesifikasi. Bias spesifikasi timbul dari spesifikasi yang tidak benar dari model yang digunakan dalam analisis. Misal : “jika teori ekonomi mengatakan bahwa pendapatan dan kekayaan kedua-duanya seharusnya dimasukan ke dalam model yang menjelaskan belanja konsumsi, mengeluarkan variabel kekayaan akan menimbulkan bias spesifikasi.”
  4. Transformasi variabel. Misal : “Kita mempunyai data deret waktu mengenai belanja konsumsi, pendapatan dan kekayaan. Satu alasan untuk multikolinearitas yang tinggi antara pendapatan dan kekayaan dalam data seperti itu adalah bahwa dengan berjalannya waktu, kedua variabel cenderung untuk bergerak dalam arah yang sama.” Untuk menanggulanginya yaitu dengan menggunakan model regresi perbedaan pertama (t-1) sering mengurangi kepelikan multikolinear karena meskipun tingkat Xt mungkin sangat berkorelasi, tidak ada alasan secara apriori untuk percaya bahwa perbedaan (t-1) juga sangat berkorelasi.
  5. Penambahan data baru. Karena multikolinearitas merupakan ciri sampel, maka mungkin bahwa dalam sampel lain yang meliputi kolinear variabel yang sama tidak begitu serius seperti sampel pertama. Kadang-kadang hanya dengan sekedar meningkatnya ukuran sampel, bisa mengurangi masalah kolinearitas.
  6. Teknik lanjutan yang mungkin dicobakan yaitu dengan menggunakan teknik faktor analisis dan prinsipal komponen analisis dalam rumpun multivariat.

Satu kehati-hatian yang perlu diingat yaitu dalam analisis regresi ketika orang mendapatkan nilai t yang tidak signifikan untuk koefisien regresi, seringkali ada godaan untuk menyalahkan tidak adanya signifikan pada multikolinearitas. Tetapi penyebab sebenarnya mungkin bukan multikolinearitas, tetapi hal lain, misalkan bias spesifikasi. Mungkin model yang digunakan dalam analisis dispesifikasi secara salah, atau dukungan teoritis untuk model tadi sangat lemah.

Sumber : Guzarati, Zain, Ekonometrika Dasar

———————————————————————————————————————————————————-

  1. Jika rekan peneliti memerlukan bantuan Survey Lapangan, Survey Online ataupun Olah Data dapat menghubungi mobilestatistik.com di :
  1. Klik “Konsultasi Gratis” untuk mendapatkan informasi atau solusi terkait dengan pertanyaan-pertanyaan seputar metodologi penelitian.
  • “1st Kirim Pertanyaan, Kami Jawab . . . InsyaAllah”

———————————————————————————————————————————————————-

online survey BPKH RI | LISREL | SEM | Eviews | Analisis Faktor | Validitas | SWOT | multikolinearitas


survey lapangan kampung ketandan I path analisis | analisis jalur | LISREL

2 thoughts on “Memahami Asumsi Non Multikolinearitas Pada Regresi

    1. Terima kasih mb. Della sudah mengunjungi mobilestatistik.com.
      Multikolinearitas terjadi jika ada korelasi yang kuat antar variabel X (independennya). Penanggulangannya bisa dg pembentukan varibel baru dg PCA atw menghilangkan variabel X yang memiliki indikasi menyebabkan korelasi tinggi dg variabel X lainnya.

Leave a Reply to Della Puspita Cancel reply

Your email address will not be published. Required fields are marked *