Multikolinieritas adalah fenomena statistik yang ditemui dalam pemodelan regresi linier berganda dimana terdapat hubungan yang tinggi antara dua atau lebih variabel prediktor. Karena multikolinieritas melihat seberapa erat hubungan antara variabel prediktor, maka uji multikolinieritas hanya diperlukan pada model regresi linier berganda, tidak untuk regresi linier sederhana. Hal ini artinya terdapat pola hubungan linier juga diantara variabel prediktor dalam satu model. Jika terjadi demikian, tentunya menyebabkan model regresi menjadi bias. Jika kita memasukan variabel prediktor yang memiliki hubungan yang erat antara variabel tersebut dalam satu model, maka model tersebut menjadi redundant. Sebetulnya berapa nilai korelasi antara variabel prediktor yang masih dapat ditoleransi? Beberapa teori mengatakan dibawah 0,9 masih dapat ditoleransi, namun beberapa teori lain mengatakan harus kurang dari 0,8 bahkan 0,7.
Mendeteksi Multikolinieritas di dalam model
1. Jika dalam model terdapat multikolinieritas, maka akan terjadi perubahan yang besar pada nilai koefisien regresi ketika kita mengeluarkan satu variabel prediktor dari dalam model.
2. Jika dalam model regresi linier berganda, koefisien variabel prediktor tidak signifikan secara statistik, namun ketika kita mencobanya satu persatu variabel prediktor dalam analisis regresi linier sederhana hasilnya menjadi signifikan. Kondisi tersebut juga menunjukkan kemungkinan adanya multikolinieritas.
3. Kita mendapati nilai F hitung yang begitu besar atau signifikan secara statistik, namun ketika diuji secara parsial dengan uji t tidak ada satupun yang signifikan.
3. Ketika terdapat koefisien regresi yang negatif padahal secara teori seharusnya positif. Atau sebaliknya.
4. Untuk memastikan agar lebih yakin terdapat multikolinieritas di dalam model, sebaiknya uji dengan menggunakan nilai VIF menggunakan SPSS atau Eviews. Beberapa ahli mengatakan nilai VIF harus kurang dari 5 dan beberapa ahli lainnya mengatakan cukup dibawah 10.
Bagaimana mengatasi multikolinieritas dalam model
1. Jika kita menjumpai terdapat variabel prediktor yang memiliki nilai VIF lebih dari 5 atau 10, maka kita perlu untuk mengeluarkan salah satu variabel tersebut dari model. Tujuannya adalah untuk mengeluarkan informasi yang redundant yang sebenarnya sudah diwakili oleh variabel prediktor yang lain. Namun jangan khawatir, mengeluarkan salah satu variabel prediktor tidak akan menurunkan nilai R kuadrat secara drastis, jika memang terdapat multikolinieritas dalam model.
2. Untuk menghasilkan kombinasi variabel prediktor yang menghasilkan R kuadrat tertinggi, gunakanlah metode regresi stepwise dalam SPSS.
3. Lakukanlah transformasi data misalnya menjadi bentuk logaritma atau bentuk diferensarialnya. Tansformasi data ke dalam diferensial lebih cocok untuk data time series. Sementara untuk data-data penelitian survei sosial kurang cocok karena akan sulit menginterpretasikan model diferensialnya.
3. Gunakanlah Principal Component Analysis (PCA). Prinsipnya adalah menyederhanakan atau menggabungkan jumlah variabel prediktor menjadi lebih sedikit jumlah variabel tanpa mereduksi satupun variabel prediktor, namun dengan menjadikannya dalam satu skor. Hasil dari pca adalah skor dari variabel prediktor baru yang memiliki korelasi yang minimum sehinggi efektif untuk mengatasi multikolinieritas.
4. Gunakanlah Partial Least Square Regression(PLS). Jika kita menggunakan PCA maka bisa dipastikan kita akan mendapatkan variabel prediktor baru yang memiliki korelasi minimum diantara variabel prediktornya. Permasalahan yang mungkin muncul adalah, variabel prediktor baru tersebut bisa saja tidak memiliki hubungan yang signifikan juga dengan variabel respon (Y). Maka kita akan menghadapi permasalahan baru berikutnya yaitu tidak signifikannya model regresi. Jalan tengahnya adalah PLS, dimana secara perhitungan masih mempertimbangkan variabel prediktor yang memiliki hubungan tinggi dengan variabel respon namun mencari kombinasi variabel prediktor yang memiliki nilai korelasi minimum diantara mereka.
Sumber referensi:
http://en.wikipedia.org/wiki/Multicollinearity
http://blog.minitab.com/blog/understanding-statistics/handling-multicollinearity-in-regression-analysis