Asumsi Homoskedastisitas Dalam Regresi

Asumsi Homoskedastisitas Dalam Regresi

Pengujian asumsi pada model regresi berikutnya yang akan kita bahas adalah terkait dengan non heteroskedastisitas pada model regresi. Sama halnya dengan pengujian asumsi normalitas model regresi yang menjadi sumber pengujian adalah faktor gangguan atau residual ui, pengujian hetorskedastisitas pun berkaitan dengan faktor gangguan atau residual ui yang dihasilkan oleh model.

Sifat dasar heteroskedastisitas

Satu dari asumsi penting model regresi linear klasik adalah bahwa varians tiap unsur gangguan u­­­­i yang tergantung pada nilai yang dipilih dari variable yang menjelaskan (X) adalah suatu angka konstan yang sama dengan σ2 (varians yang sama).

Sebagai misal untuk membuat perbedaan antara homoskedastisitas dan heteroskedastisitas menjadi jelas, asumsikan bahwa terdapat model 2 variabel Y menyatakan tabungan dan X menyatakan pendapatan. Kemungkinan pertama, menunjukkan bahwa meningkatnya pendapatan, tabungan secara rata-rata juga meningkat. Pada kondisi pertama memungkinkan varians gabungan dari variable tabungan akan tetap sama (homogen) untuk semua perubahan pada pendapatan. Kemungkinan kedua, varians tabungan meningkat bersamaan dengan peningkatan pendapatan. Keluarga berpendapatan tinggi secara rata-rata menabung lebih banyak dari pada keluarga berpendapatan rendah maka variabilitas dalam tabungannya pun akan lebih besar.

Dalam konsep homoskedastisitas dari factor gangguan ui dalam model regresi linear klasik dikehendaki kemungkinan yang pertama dan jika terjadi kemungkinan yang kedua maka factor gangguan ui pada model regresi linear klasik terdapat heteroskedastisitas.

Konsekuensi Heteroskedastisitas

Ingat bahwa jika semua asumsi model regresi linear klasik dipenuhi, penaksir OLS adalah BLUE, yaitu penaksir yang dihasilkan memiliki varians yang minimum atau efisien. Jika kita tetap memiliki semua asumsi kecuali homoskedastisitas, dapat ditunjukkan bahwa penaksi OLS yang dihasilkan tetap tidak bias dan konsisten tetapi penaksir tadi tidak lagi efisien baik dalam sampel kecil maupun besar (asimtotik). Dengan perkataan lain, dalam penyampelan berulang penaksir OLS secara rata-rata sama dengan nilai populasi sebenarnya (sifat tidak bias) dan dengan meningkatnya ukuran sampel sampai tak terhingga penaksir OLS mengarah pada nilai sebenarnya (sifat konsisten) tetapi variansnya tidak lagi minimum bahkan jika besarnya sampel meningkat secara tak terbatas (sifat efisien asimtotik).

Maka jika terdapat permasalahan heteroskedastisitas pada model regresi maka akan terdapat hal berikut pada nilai taksiran koefisien regresi :

  1. Jika heteroskedastisitas dicurigai ada maka secara teori BLUE dari nilai koefisien regresi b adalah penaksir kuadrat terkecil tertimbang (weighted least square-WLS), bukan penaksir b konvensional (ordinary least square-OLS)
  2. Varians taksiran dari koefisien regresi b yang diperoleh dengan asumsi heteroskedastisitas tidak lagi minimum, varians taksiran dari koefisien regresi b tertimbang yang minimum.
  3. Dalam kaitannya dengan poin 2, jika menggunakan varians dengan asumsi heteroskedastisitas, maka selang keyakinan untuk koefisien regresi b adalah lebar yang sebenarnya tidak diperlukan dan pengujian signifikansi menjadi kurang kuat.
  4. Sebagai konsekuensi lanjutan dalam penggunaan varians yang tidak tepat (terdapat heteroskedastisitas), kita mungkin mengambil kesimpulan yang sama sekali salah karena pengujian t dan F dari hasil OLS sangat mungkin untuk membesar-besarkan signifikansi statistic dari parameter yang ditaksir secara OLS. Oleh karena itu dalam kasus heteroskedastisitas penaksir OLS konvensional tidak sesuai. Secara idealnya, tentu saja kita harus menggunakan metoda WLS sebagaii gantinya.

 

Pendeteksian heteroskedastisitas

Bagaimana orang tahu bahwa heteroskedastisitas terdapat dalam model regresi linear klasik? Dalam hal ini ahli ekonometrika berbeda dengan ahli pengetahuan dalam bidang seperti pertanian atau biologi dimana mereka mempunyai kontrol yang cukup baik atas subjek mereka. Lebih sering dalam penelitian ekonomis hanya terdapat satu sampel nilai Y yang berhubungan dengan suatu nilai X tertentu. Dan tidak ada cara untuk orang mengetahui nilai varians σ2 dari hanya satu observasi Y. Jadi dalam sebagian besar kasus yang melibatkan penelitian ekonometrika, heteroskedastisitas mungkin merupakan persoalan “spekulasi” atau seperti dikatakan oleh seorang pengarang, bersifat ad hock. (professor Zvi Griliches). Beberapa metode informal dan “formal” untuk mendeteksi heteroskedastisitas diantaranya,

  1. Sifat dasar masalah. Seringkali sifat dasar masalah yang sedang dipelajari menyarankan apakah heteroskedastisitas nampak dijumpai. Pada kenyataanya, dalam data cross sectional yang meliputi unit yang heterogen, heteroskedastisitas mungkin lebih merupakan kelaziman (aturan) dari pada pengecualian. Jadi misal, dalam analisis cross sectional yang melibatkan pengeluaran investasi dalam hubungannya dengan penjualan, tingkat bunga dan seterusnya, heteroskedastisitas biasanya bisa diperkirakan akan ada jika perusahaan kecil, menengah dan besar disampel secara bersamaan.
  2. Metode grafik. Jika tidak ada informasi apriori atau empiris mengenai sifat heteroskedastisitas, dalam praktek orang dapat melakukan analisis regresi atas asumsi bahwa tidak ada heteroskedastisitas dan kemudian melakukan pengujian sesudahnya (post mortem) dari kuadrat residual yang ditaksir untuk melihat jika residual tadi menunjukkan pola yang sistematis. Meskipun kuadrat residual tidak sama dengan factor gangguan ui, residual kuadrat tadi dapat digunakan sebagai pendekatan khususnya jika ukuran sampel cukup besar. Metode grafik digunakan dengan cara memetakan kuadrat residual terhadap nilai Y yang ditaksir dari persamaan regresi, idenya adalah untuk mengetahui apakah nilai rata-rata yang ditaksir dari Y secara sistematis berhubungan dengan kuadrat residual.
  3. Pengujian Park. Park memformalkan metode grafik dengan menyarankan bahwa varians σ2 (kuadrat residual) adalah suatu fungsi yang menjelaskan variable X. Dengan kata lain pengujian Park dilakukan dengan cara meregresikan varians σ2 (kuadrat residual) atas variable X. Jika nilai koefisien regresi b signifikan secara statistic, ini menyarankan bahwa dalam data terdapat heteroskedastisitas. Apabila ternyata tidak signifikan, kita bisa menerima asusmsi homoskedastisitas. Pengujian Park merupakan prosedur 2 tahap, tahap pertama, melakukan regresi OLS dengan tidak memandang persoalan heteroskedastisitas dan diperoleh residual. Kemudian tahap kedua, melakukan regresi kuadrat residual dengan variable X.
  4. Pengujian Glesjer. Pengujian Glesjer mempunyai semangat yang sama dengan pengujian Park. Setelah mendapatkan residual dari regresi OLS, Glesjer menyarankan untuk meregresikan nilai absolute dari residual terhadap variable X yang diperkirakan mempunyai hubungan erat dengan varians yang dihasilkan.
  5. Pengujian rank korelasi dari Spearman. Langkah pertama, cocokan regresi terhadap data mengenai Y dan X dan dapatkan nilai residual. Langkah kedua, dengan mengambil nilai mutlak residual lalu merangking baik harga mutlak dari residual dan variable X sesaui dengan urutan yang meningkat atau menurun dan menghitung koefisien rank korelasi Spearman. Langkah ketiga, dengan mengasumsikan bahwa koefisien rank korelasi populasi adalah nol (0) dan n > 8, tingkat signifikansi dari rank korelasi Spearman diuji dengan pengujian t. Jika t yang dihitung melebihi t kritis, kita bisa menerima hipotesis adanya heteroskedastisitas, kalau tidak kita menolaknya. Jika model regresi meliputi lebih dari satu variable X, koefisien rank korelasi Spearman dapat dihitung dan diuji pada tiap variable X secara terpisah.

 

Tindakan Perbaikan

Seperti telah diutarakan sebelumnya, heteroskedastisitas tidak merusak sifat ketidakbiasan dan konsistensi dari penaksir OLS, tetapi penaksir tadi tidak lagi efisien. Ketidakefisienan ini membuat prosedur pengujian hipotesis yang biasa, nilainya menjadi diragukan. Oleh karena itu, tindakan perbaikan jelas-jelas diperlukan. Ada dua pendekatan untuk dilakukan yaitu jika varians σ2 diketahui dan jika tidak diketahui.

  1. Jika varians σ2 diketahui, Metode Kuadrat Terkecil Tertimbang (Weighted Least Square). Dalam metode kuadrat terkecil biasa atau tidak tertimbang diperoleh dengan meminimumkan Residual Sum of Square (RSS) terhadap yang tidak diketahui (unknown). Dalam meminimumkan RSS ini, metode kuadrat terkecil tak tertimbang secara implicit memberikan bobot yang sama untuk setiap kuadrat residual. Sedangkan, metode kuadrat terkecil tertimbang memperhitungkan titik-titik ekstrim dari nilai kuadrat residual, dengan meminimumkan bukan RSS biasa atau tak tertimbang melainkan RSS yang sudah terboboti (weighted). Dimana nilai bobot (weight) dipilih sedemikian rupa sehingga observasi yang ekstrim mendapatkan bobot yang lebih kecil.
  2. Jika varians σ2 tidak diketahui. Dalam penelitian ekonometrik pengetahuan sebelumnya mengenai varians jarang dimiliki. Sebagai hasilnya, metode kuadrat terkecil tertimbang yang dibahas sebelumnya tidak dapat segera digunakan. Oleh karena itu, dalam praktek orang bisa terpaksa menggunakan suatu asumsi ad hoc mengenai varians dan mentransformasikan model regresi asli dengan cara sedemikian rupa sehingga model yang telah ditransformasikan akan memenuhi asumsi homoskedastisitas.
    1. Asumsi 1 : Jika semata-mata karena metode grafik “spekulasi” atau pendekatan Park dan Glejser dipercayai bahwa varians dari ui proporsional terhadap kuadrat variable yang menjelaskan X, orang bisa mentransformasikan model regresi asli dengan cara membagi model asli seluruhnya dengan variabel Xi.
    2. Asumsi 2 : Jika percaya bahwa varians dari ui bukan proporsional terhadap kuadrat variable yang menjelaskan X, tetapi proporsional terhadap variable yang menjelaskan X itu sendiri, maka model asli dapat ditransformasikan dengan cara membagi model asli seluruhnya dengan akar kuadrat dari variable Xi.
    3. Asumsi 3 : Jika nilai yang diharapkan dari varians ui proporsional dengan nilai yang diharapkan dari Y (nilai taksiran Y), maka model asli dapat ditransformasikan dengan cara membagi model asli seluruhnya dengan nilai Yi yang ditaksir.
    4. Asumsi 4 : Transformasi Log (Ln) pada model asli. Sering kali ini mengurangi heteroskedastisitas. Hal ini disebabkan karena transformasi yang memampatkan skala pengukuran variable mengurangi perbedaan antara kedua nilai tadi dari sepuluh kali lipat menjadi perbedaan dua kali lipat. Misal, angka 80 adalah 10 kali lipat dari 8, tetapi Ln 80 hanya 2 kali lipat dari Ln 8.

 

Untuk menyimpulkan pembahasan mengenai tindakan perbaikan, harus ditekankan kembali bahwa semua transformasi yang dibahas tadi adalah bersifat ad hoc, pada dasarnya kita berspekulasi terhadap varians. Yang mana di antara transformasi yang dibahas tadi akan bekerja tergantung sifat dari masalah dan keparahan dari Heteroskedastisitas. SELAMAT MEMPELAJARI!!!

———————————————————————————————————————————————————-

  1. Jika rekan peneliti memerlukan bantuan survey lapangan, data entry ataupun olahdata dapat menghubungi mobilestatistik.com :
  1. Klik “Konsultasi Gratis” untuk mendapatkan informasi atau solusi terkait dengan pertanyaan-pertanyaan seputar metodologi penelitian, aplikasi software statistik ataupun olahdata.
  • “1st Kirim Pertanyaan, Pasti Kami Jawab . . . InsyaAllah”

———————————————————————————————————————————————————-

3 Prinsip Dalam Rancangan Percobaan (RANCOB)

3 Prinsip Dalam Rancangan Percobaan (RANCOB)

Apa yang dimaksud dengan Rancangan Percobaan?? Rancangan percobaan merupakan suatu metode yang digunakan dalam penelitian dimana terdapat rekayasa melalui penentuan jenis perlakuan yang diberikan kepada satuan pengamatan atau objek yang dijadikan percobaan itu sendiri.

Kita flashback sejenak siapa sebernarnya penemu metode Rancangan Percobaan. Ia adalah R.A Fisher. R.A Fisher yang memperkenalkan konsep modern dari pengacakan dan analisis ragam (analysis of variance) dalam membandingkan perlakuan-perlakuan pada tahun 1922. So… Rancangan Percobaan merupakan metode lama dalam suatu penelitian. Untuk kekinian kebanyakan peneliti atau mahasiswa banyak mengenal lebih kepada tools pengolahaan data hasil penelitiannya yaitu ANOVA dengan uji F-nya.

Ada 3 hal prinsip ketika kita berbicara tentang Rancangan Percobaan. (1) Pengacakan (2) Pengulangan dan (3) Kontrol Lokal. Apa maksud dari ketiga hal prinsip tersebut? Ketiga hal prinsip tersebut wajib diketahui oleh para peneliti sebelum masuk dan melakukan tindakan percobaan didalam laboratoriumnya. Prinsip-prinsip tersebut perlu memdapatkan perhatian yang baik oleh peneliti guna mengoptimalkan proses perencanaan, pelaksanaan dan hasil penelitian itu sendiri.

(1) Pengacakan

Pengacakan berarti membuat sesuatu menjadi berantakan?? hehe… bukan itu maksud dari pengacakan disini. Jika kita mempunyai sejumlah objek yang akan diberikan treatment oleh beberapa jenis dari perlakuan, maka sejumlah objek tersebut memiliki kesempatan yang sama untuk mendapatkan satu diantara beberapa perlakuan tersebut. Singkatnya kita tidak tahu sebelumnya dan tidak mempunyai kecenderungan untuk memberikan treatment suatu perlakuan terhadap sejumlah objek pengamatan pada penilaian subjektif dari peneliti, akan tetapi just chosen by its drawn.

Kegunaan pengacakan ini diantaranya menjamin kesahihan (validity) atas pendugaan tak bias dari kekeliruan percobaan, nilai tengah perlakuan serta perbedaan diantara satuan percobaan.

(2) Pengulangan

Pengulangan dalam suatu percobaan diartikan dimana suatu perlakuan dasar yang muncul lebih dari satu kali dari suatu percobaan atas satuan percobaan. Ini diartikan bahwa dari satu kelompok perlakuan terdapat beberapa satuan percobaan yang dikenakan perlakuan yang sama.

Kegunaan pengulangan ini diantaranya memberikan dugaan dari kekeliruan percobaan, meningkatkan ketelitian suatu percobaan melalui pengurangan simpangan baku dari nilai tengah perlakuan, memperluas cakupan penarikan kesimpulan dan mengendalikan ragam kekeliruan (error variance)

(3) Kontrol Lokal

Kontrol lokal dalam suatu percobaan diartikan sebagai teknik mengurangi kekeliruan percobaan dengan cara sedemikian rupa sehingga keragaman yang ada di antara satuan-satuan percobaan tidak “masuk ke dalam” perbedaan di antara perlakuan-perlakuan.

Pengendalian lokal dapat dikerjakan melalui (1) Perancangan Percobaan -pemilihan jenis rancangan percobaan yang tepat bagi satuan percobaan- (2) Penggunaan Pengamatan Pengiring dan (3) Pemilihan Ukuran Satuan Percobaan

Dengan memahami ketiga prinsip dasar dari metoda Perancangan Percobaan di atas, diharapkan ketika peneliti menentukan dan menerapkan model percobaan pada satuan pengamatan bisa menuntun penelitian yang dilakukan pada hasil yang efisien dan optimal.

Ada beberapa jenis dari rancangan percobaan yang akan dibahas dalam artikel selanjutnya diataranya Rancangan Acak Lengkap (RAL), Rancangan Acak Kelompok (RAK), Rancangan Bujur Sangkar Latin (RBL), Rancangan Bujur Sangkar Graceo Latin (RBGL), Rancangan Kelompok Tak Lengkap, Rancangan Faktorial, Rancangan Petak Terbagi (RPT) dan Rancangan Petak-petak Terbagi (RPPT)

———————————————————————————————————————————————————-

  1. Jika rekan peneliti memerlukan bantuan survey lapangan, data entry ataupun olahdata dapat menghubungi mobilestatistik.com :
  1. Klik “Konsultasi Gratis” untuk mendapatkan informasi atau solusi terkait dengan pertanyaan-pertanyaan seputar metodologi penelitian, aplikasi software statistik ataupun olahdata.
  • “1st Kirim Pertanyaan, Pasti Kami Jawab . . . InsyaAllah”

———————————————————————————————————————————————————-

Pengujian Asumsi Multikolinearitas Dalam Regresi Dengan SPSS

Pengujian Asumsi Multikolinearitas Dalam Regresi Dengan SPSS

Salah satu pengujian terhadap model regresi yang sudah dibahas pada artikel sebelumya adalah tentang multikolinieritas pada model regresi utamanya regresi dengan lebih dari satu variabel bebas (independent). Multikolinieritas pada model regresi salah satunya dapat menyebabkan selang taksiran penaksir (koefisien regresi) menjadi lebar, dalam artian presisi yang didapatkan dari hasil penaksiran menjadi berkurang dan itu merupakan suatu kelemahan bagi model. Adapun salah satu yang menyebabkan terjadinya multikolinieritas adalah bias spesifikasi yaitu penetapan pola struktur keterkaitan variabel yang dimodelkan berdasarkan teori, yang berlaku pada populasi tetapi kurang terpenuhi secara sampel.

Lalu bagaimanakah kita mengetahui dalam model regresi yang kita hasilkan mengandung multikolinearitas? Dengan bantuan software SPSS dapat dengan mudah kita ketahui melalui hasil proses perhitungan, dua diantara ukuran yang sering dipakai adalah nilai VIF (variance inflation factor)  atau TOL (tolerance). Dengan ketentuan bahwa nilai VIF berada di bawah 10,00 dan TOL lebih dari 0,10, maka diambil keputusan bahwa model regresi tidak terdapat masalah multikolinearitas.

Berikut kita perlihatkan tahapan untuk menguji koliniearitas pada model regresi dengan menggunakan SPSS.

  1. Buka software SPSS lalu definisikan variabel penelitian kita pada jendela Variabel View, setelahnya masukan data kedalam software SPSS melalui jendela Data View. Dalam tampilan SPSS akan terlihat seperti gambar berikut : 

 

  1. Pilih menu Analyze lalu klik Regression lalu pilih Linear lalu klik, maka akan muncul jendela SPSS seperti gambar di bawah ini, yang berisikan menu-menu kelengkapan analisis regresi. 

 

  1. Masukan variabel-variabel pada sisi sebelah kanan ke dalam kolom pendefinisian variabel yaitu variabel dependent dan variabel independent guna menghasilkan model regresi yang kita inginkan. 

 

  1. Untuk mendapatkan hasil pengujian multikolinearitas pada model, maka klik menu Statistics, maka akan muncul tampilan jendela seperti gambar di bawah. Lalu centang pada Colinearity Diagnostic lalu klik Continue. 

 

  1. Setelah masuk ke jendela utama analisis regresi, lalu klik OK. Maka SPSS akan memproses pembentukan model dan pengujian asumsi multikolinearitas pada residual dan akan muncul tampilan output SPSS seperti gambar di bawah ini. 

 

  1. Pada gambar output SPSS, kita mengidentifikasi nilai multikolinearitas pada menu Coefficients, dimana terdapat nilai Tolerance dan VIF. Sesuai dengan kriteria yang sudah dijelaskan di atas, pada hasil pengujian dapat dikatakan memenuhi kedua kriteria tadi, sehingga dapat dikatakan model regresi yang dihasilkan terbebas dari masalah multikolinearitas

 

Dengan menggunakan software SPSS mempermudah proses pembuktian pemenuhan asumsi non multikolinearitas bagi model regresi yang dihasilkan. Pada bahasan selanjutkan kita akan jelaskan pula cara penggunaan software SPSS untuk pengujian asumsi regresi lainnya diantaranya heteroskedastisitas, autokorelasi dan linieritas. Sampai jumpa pada pembahasan artikel selanjutnya. SELAMAT MENCOBA!!!

———————————————————————————————————————————————————-

  1. Jika rekan peneliti memerlukan bantuan survey lapangan, data entry ataupun olahdata dapat menghubungi mobilestatistik.com :
  1. Klik “Konsultasi Gratis” untuk mendapatkan informasi atau solusi terkait dengan pertanyaan-pertanyaan seputar metodologi penelitian, aplikasi software statistik ataupun olahdata.
  • “1st Kirim Pertanyaan, Pasti Kami Jawab . . . InsyaAllah”

———————————————————————————————————————————————————-

Asumsi Non Multikolinearitas Pada Regresi

Asumsi Non Multikolinearitas Pada Regresi

Pada pembahasan sebelumnya kita sudah membahas pentingnya pemenuhan asumsi normalitas pada model regresi, utamanya pada pengujian pada residual atau faktor ganguan (ui). Kali ini kita akan membahas asumsi regresi yang berkenaan dengan variabel independen (bebas), dimana satu syarat dalam model regresi hubungan antar variabel independen (bebas) haruslah bernilai sekecil mungkin dan tidak signifikan. Secara logika sederhana apabila antar variabel independen (bebas) terdapat korelasi yang tinggi dan signifikan pastilah salah satunya dapat dijadikan variabel akibat atau dependen (tergantung). Secara lebih rinci apa akibat dari adanya multikolinearitas pada model regresi hingga cara untuk menanggulanginya akan dibahas pada uraian berikut ini.

Sifat Dasar Multikolinearitas

Istilah multikolinearitas mula-mula ditemukan oleh Ragnar Frisch. Pada mulanya kolinearitas berarti adanya hubungan linear yang sempurna atau pasti (nilai korelasi yang terjadi antar variabel independen sama dengan satu), diantara beberapa atau semua variabel yang menjelaskan dari model regresi.

Mengapa model regresi linear klasik mengasumsikan tidak adanya multikolinearitas di antara variabel bebas (X)? Dasar pemikirannya adalah jika multikolinearitas sempurna terjadi, maka koefisien regresi yang didapatkan menjadi tak tentu dan kesalahannya (ui) tak terhingga. Sedangkan, jika multikolinearitas kurang sempurna terjadi, maka koefisien regresi meskipun bisa ditentukan tetapi memiliki kesalahan standar (standar error) yang besar, yang berarti bahwa koefisien regresi tidak dapat ditaksir dengan ketepatan yang tinggi.

Hal lainnya yaitu harus ditekankan dengan sungguh-sungguh bahwa X diasumsikan bernilai tetap atau nonstokastik (bukan nilai peluang) dan multikolinearitas pada dasarnya merupakan fenomena regresi sampel. Suatu yang harus diperhatikan, ketika kita mengendalikan fungsi regresi populasi atau teoritis, kita percaya bahwa semua variabel bebas (X) yang termasuk dalam model mempunyai pengaruh terpisah atau independen atas variabel tak bebas (Y). Tetapi mungkin terjadi bahwa dalam sampel tertentu yang mana pun yang digunakan untuk menguji model populasi atau teoritis, beberapa atau semua variabel bebas (X) sangat kolinear sehingga kita tidak bisa mengisolasi pengaruh individual terhadap variabel tak bebas (Y). Jadi bisa dikatakan, sampel yang digunakan menjatuhkan kita, meskipun secara teori mengatakan bahwa semua variabel bebas (X) penting.

Misal : “Ahli ekonomi berteori bahwa disamping pendapatan, kekayaan konsumen juga suatu penentu penting dari belanja konsumsi.” Sekarang mungkin terjadi ketika kita memperoleh data mengenai pendapatan dan kekayaan, kedua variabel mungkin sangat berkorelasi atau tidak berkorelasi sempurna. Orang kaya biasanya cenderung mempunyai pendapatan yang lebih tinggi. Jadi meskipun dalam teori pendapatan dan kekayaan adalah calon logis untuk menjelaskan perilaku konsumsi, dalam praktek (dalam sampel) mungkin sulit memecah pengaruh terpisah dari pendapatan dan kekayaan atas konsumsi.

Konsekuensi Multikolinearitas

Ingat bahwa jika asumsi model regresi linear klasik dipenuhi, penaksir OLS dari koefisien regresi adalah linear, tak bias dan mempunyai varians minimum (BLUE). Dalam kasus multikolinear sempurna penaksir OLS menjadi tak tentu dan varians atau kesalahan standarnya menjadi tak tentu pula. Jika kolinearitas tajam tetapi tak sempurna, maka konsekuensi ini akan terdapat.

  1. Meskipun penaksir OLS mungkin bisa diperoleh, kesalahan standarnya cenderung semakin besar dengan meningkatnya tingkat korelasi antara peningkatan variabel. (k-variabel)
  2. Karena besarnya kesalahan standar, selang keyakinan untuk parameter populasi yang relevan cenderung untuk lebih besar. (perlu diingat semakin sempit selang keyakinan semakin teliti nilai penaksir atau koefisien regresi yang diperoleh)
  3. Dalam kasus multikolinearitas yang tinggi, data sampel mungkin sesuai dengan sekelompok hipotesis yang berbeda-beda. Jadi probabilitas untuk menerima hipotesis yang salah meningkat.
  4. Selama multikolinearitas tidak sempurna, penaksiran koefisien regresi adalah mungkin tetapi taksiran dan kesalahan standarnya menjadi sangat sensitif terhadap sedikit perubahan dalam data.
  5. Jika multikolinearitas tinggi, seseorang mungkin memperoleh R2 yang tinggi tetapi tidak satu pun atau sangat sedikit koefisien regresi yang ditaksir yang penting secara statistik (tidak signifikan).

Pendeteksian Multikolinearitas

Setelah mempelajari sifat dari konsekuensi multikolinearitas, pertanyaan yang wajar adalah bagaimana orang mengetahui adanya kolinearitas dalam setiap situasi tertentu, terutama dalam model yang meliputi lebih dari dua variabel yang menjelaskan. Ada beberapa metode deteksi, diantaranya adalah

  1. Kolinearitas seringkali diduga ketika R2 tinggi (misal : antara 0,700 s.d 1,00) dan ketika korelasi derajat nol (dua variabel) juga tinggi, tetapi tak satu pun atau sangat sedikit koefisien regresi parsial yang secara individual penting secara statistik atas dasar pengujian t yang konvensional.
  2. Karena multikolinearitas timbul karena satu atau lebih variabel yang menjelaskan merupakan kombinasi linear yang pasti atau mendekati pasti dari variabel yang menjelaskan lainnya, satu cara untuk mengetahui variabel bebas (X) yang mana yang berhubungan dengan variabel bebas (X) lainnya adalah dengan meregresi tiap variabel bebas (X) atas sisa variabel bebas (X) dengan menghitung R2 yang diperoleh.

Multikolinearitas dan Peramalan

Jika satu-satunya tujuan analisis regresi adalah peramalan, maka multikolinearitas bukan merupakan masalah serius, karena semakin tinggi R2 semakin baik peramalan. Tetapi ini hanya benar jika kolinearitas yang ada di antara variabel bebas (X) dalam sampel tertentu juga tetap akan ada dimasa yang akan datang.

Jika hubungan linear yang diperkirakan di antara variabel bebas (X) dalam suatu sampel tidak berlanjut ke (sampel) yang akan datang, peramalan akan menjadi semakin tidak pasti. Lebih jauh lagi, jika tujuan analisis tidak hanya peramalan tetapi juga taksiran yang bisa dipercaya dari parameter, multikolinearitas yang serius akan menjadi masalah karena menyebabkan besarnya kesalahan standar (standar error) dari penaksiran.

Tindakan Perbaikan Multikolinearitas

Apa yang dapat dikerjakan apabila terdapat multikolinearitas yang serius? Ada petunjuk yang tidak mungkin salah karena pada dasarnya multikolinearitas adalah masalah sampel. Tetapi petunjuk praktis berikut dapat dicoba, keberhasilannya tergantung pada keparahan masalah kolinearitas.

  1. Informasi apriori. Bagaimana orang mendapatkan informasi apriori? Ini bisa datang baik dari teori atau dari penelitian empiris sebelumnya di mana masalah kolinearitas ternyata kurang serius.
  2. Menghubungkan data cross-sectional dan data urutan-waktu. Misal : “kita dapat memperoleh taksiran yang dapat dipercaya dari elastisitas permintaan (Y) atas variabel harga dan pendapatan (X) cenderung berkolinearitas, dalam data seperti itu, pada suatu titik waktu, harga tidak banyak berubah sehingga multikolinearitas dapat dihindari.”
  3. Mengeluarkan suatu variabel atau variabel-variabel dan bias spesifikasi. Ketika dihadapkan dengan multikolinearitas yang parah, satu cara yang “paling sederhana” untuk dilakukan adalah mengeluarkan satu dari variabel yang berkolinear. Tetapi dalam mengeluarkan suatu variabel dari model, kita mungkin melakukan bias spesifikasi atau kesalahan spesifikasi. Bias spesifikasi timbul dari spesifikasi yang tidak benar dari model yang digunakan dalam analisis. Misal : “jika teori ekonomi mengatakan bahwa pendapatan dan kekayaan kedua-duanya seharusnya dimasukan ke dalam model yang menjelaskan belanja konsumsi, mengeluarkan variabel kekayaan akan menimbulkan bias spesifikasi.”
  4. Transformasi variabel. Misal : “Kita mempunyai data deret waktu mengenai belanja konsumsi, pendapatan dan kekayaan. Satu alasan untuk multikolinearitas yang tinggi antara pendapatan dan kekayaan dalam data seperti itu adalah bahwa dengan berjalannya waktu, kedua variabel cenderung untuk bergerak dalam arah yang sama.” Untuk menanggulanginya yaitu dengan menggunakan model regresi perbedaan pertama (t-1) sering mengurangi kepelikan multikolinear karena meskipun tingkat Xt mungkin sangat berkorelasi, tidak ada alasan secara apriori untuk percaya bahwa perbedaan (t-1) juga sangat berkorelasi.
  5. Penambahan data baru. Karena multikolinearitas merupakan ciri sampel, maka mungkin bahwa dalam sampel lain yang meliputi kolinear variabel yang sama tidak begitu serius seperti sampel pertama. Kadang-kadang hanya dengan sekedar meningkatnya ukuran sampel, bisa mengurangi masalah kolinearitas.
  6. Teknik lanjutan yang mungkin dicobakan yaitu dengan menggunakan teknik faktor analisis dan prinsipal komponen analisis dalam rumpun multivariat.

Satu kehati-hatian yang perlu diingat yaitu dalam analisis regresi ketika orang mendapatkan nilai t yang tidak signifikan untuk koefisien regresi, seringkali ada godaan untuk menyalahkan tidak adanya signifikan pada multikolinearitas. Tetapi penyebab sebenarnya mungkin bukan multikolinearitas, tetapi hal lain, misalkan bias spesifikasi. Mungkin model yang digunakan dalam analisis dispesifikasi secara salah, atau dukungan teoritis untuk model tadi sangat lemah.

———————————————————————————————————————————————————-

  1. Jika rekan peneliti memerlukan bantuan survey lapangan, data entry ataupun olahdata dapat menghubungi mobilestatistik.com :
  1. Klik “Konsultasi Gratis” untuk mendapatkan informasi atau solusi terkait dengan pertanyaan-pertanyaan seputar metodologi penelitian, aplikasi software statistik ataupun olahdata.
  • “1st Kirim Pertanyaan, Pasti Kami Jawab . . . InsyaAllah”

———————————————————————————————————————————————————-

Pengujian Asumsi Normalitas Dalam Regresi Dengan SPSS

Pengujian Asumsi Normalitas Dalam Regresi Dengan SPSS

Pada artikel sebelumnya kita sudah membahas secara teoritis mengenai asumsi normalitas pada regresi. Kita sudah mengetahui makna dan pentingnya untuk mencari tahu apakah model regresi yang didapatkan merupakan model yang memenuhi syarat sebagai model yang memenuhi asumsi normalitas? Agar mudahnya pada kesempatan kali ini kita akan bahas penggunaan software SPSS untuk mendapatkan hasil pengujian normalitas dari model regresi. Adapun langkah-langkahnya adalah sebagai berikut :

  1. Buka software SPSS lalu definisikan variabel penelitian kita pada jendela Variabel View, setelahnya masukan data kedalam software SPSS melalui jendela Data View. Dalam tampilan SPSS akan terlihat seperti gambar berikut : 

 

  1. Pilih menu Analyze lalu klik Regression lalu pilih Linear lalu klik, maka akan muncul jendela SPSS seperti gambar di bawah ini, yang berisikan menu-menu kelengkapan analisis regresi. 

 

  1. Masukan variabel-variabel pada sisi sebelah kanan ke dalam kolom pendefinisian variabel yaitu variabel dependent dan variabel independent guna menghasilkan model regresi yang kita inginkan. 

 

  1. Untuk mendapatkan hasil pengujian normalitas pada model, maka klik menu Plots, maka akan muncul tampilan jendela seperti gambar di bawah. Lalu centang pada kolom Standardized Residual Plots untuk Histogram dan Normal Probability Plots lalu klik Continue. 

 

  1. Lalu klik pada menu Save, pada kolom residual centang Standardized lalu klik Continue, fungsinya adalah untuk memunculkan nilai residual yang sudah terstandarkan (normal baku) pada jendela Data View untuk dilakukan pengujian lebih lanjut. 

 

  1. Setelah masuk ke jendela utama analisis regresi, lalu klik OK. Maka SPSS akan memproses pembentukan model dan pengujian asumsi normalitas pada residual dan akan muncul tampilan output SPSS seperti gambar di bawah ini. 

 

  1. Pada gambar output SPSS, kita mengidentifikasi normalitas residual dalam bentuk gambar. Dimana residual dari model regresi dikatakan normal apabila histogram yang dihasilkan membentuk lonceng simetris antara sisi kanan dan sisi kiri atau sebaran titik-titik residual menyebar pada garis diagonal pada gambar Normal P-P Plot. Pada pengujian di atas dapat dikatakan memenuhi kedua kriteria tadi, sehingga dapat dikatakan sebaran dari residual yang dihasilkan dari model regresi berdistribusi normal. 

 

  1. Untuk memastikan apakah sebaran residual yang dihasilkan sudah berdistribusi normal, maka ada satu cara lagi untuk memastikannya yaitu menguji data residual yang telah distandardkan (normal baku) yang sudah terlebih dahulu kita simpan pada jendela Data View. 

 

  1. Untuk pengujiannya, umum digunakan uji normalitas dengan menggunakan uji Kolmogorov-Smirnov. Caranya klik Analyze pilih Nonparametric Test pilih 1 Sampel K-S lalu klik, maka akan muncul jendela seperti gambar di bawah ini. 

 

  1. Untuk menguji normalitas pada residual geser variabel Standardized Residual pada kolom sebelah kanan ke sebelah kiri. Pada kolom Test Distribution centang pada pilihan Normal lalu klik OK.
  2. Setelah klik OK maka akan muncul jendela output SPSS seperti dibawah ini. Kriteria uji untuk menyatakan residual berdistribusi normal adalah nilai Asymp. Sig harus bernilai lebih besar dari 0,05 (alpha : 5%). Pada output SPSS terlihat bahwa nilai Asymp Sig. yang didapat sebesar 0,941 lebih besar dari 0,05 maka dikatakan bahwa residual yang dihasilkan model regresi memenuhi asumsi normalitas. 

 

Dengan menggunakan software SPSS mempermudah proses pembuktian pemenuhan asumsi normalitas bagi model regresi yang dihasilkan. Pada bahasan selanjutkan kita akan jelaskan pula cara penggunaan software SPSS untuk pengujian asumsi regresi lainnya diantaranya multikolinieritas, heteroskedastisitas, autokorelasi dan linieritas. Sampai jumpa pada pembahasan artikel selanjutnya. SELAMAT MENCOBA!!!

———————————————————————————————————————————————————-

  1. Jika rekan peneliti memerlukan bantuan survey lapangan, data entry ataupun olahdata dapat menghubungi mobilestatistik.com :
  1. Klik “Konsultasi Gratis” untuk mendapatkan informasi atau solusi terkait dengan pertanyaan-pertanyaan seputar metodologi penelitian, aplikasi software statistik ataupun olahdata.
  • “1st Kirim Pertanyaan, Pasti Kami Jawab . . . InsyaAllah”

———————————————————————————————————————————————————-

Asumsi Normalitas Dalam Regresi

Asumsi Normalitas Dalam Regresi

Yang banyak dibicarakan ketika menggunakan metoda statistik adalah uji normalitas. Dalam konteks regresi berbeda dalam penentuan objek uji variabel-nya. Dalam penentuan suatu metode yang akan digunakan apakah rumpun parametrik atau non parametrik kita menguji normalitas data atas variabel-variabel yang akan diujikan. Sedangkan uji normalitas yang diterapkan pada regresi dalam rangkan menghasilkan model yang optimal (BLUE) yaitu salah satunya pengujian normailtas pada faktor gangguan ui (disturbace) yang dihasilkan dari model regresi.

Distribusi Probabilitas Gangguan (u)

Seperti kita ketahui bahwa metode populis dalam menaksir persamaan regresi adalah dengan metode kuadrat terkecil biasa (ordinary least square, OLS). Dengan menggunakan metode OLS akan dihasilkan model persamaan regresi linier beserta faktor gangguan (ui). Asumsi yang dibuat mengenai ui hanyalah bahwa gangguan yang dihasilkan memiliki nilai yang diharapkan (rata-rata) nol, tidak berkorelasi dan memiliki varians konstan. Kalau tujuan dari OLS hanya untuk melakukan penaksiran titik, maka OLS akan mencukupi. Tetapi penaksiran titik hanyalah satu aspek inferensi statistik, sedangkan lainnya adalah pengujian statistik.

Jadi, perhatian kita tidak hanya dalam mendapatkan nilai koefisien regresi (b), tetapi dalam menggunakannya untuk membuat penyataan atau kesimpulan mengenai koefisien regresi (b) yang sebenarnya. Lebih umum lagi, tujuan kita bukan semata-mata untuk memperoleh fungsi regresi sampel, tetapi menggunakannya dalam mengambil kesimpulan mengenai fungsi regresi populasi. Karena tujuan kita adalah penaksiran maupun pengujian hipotesis, kita perlu menetapkan spesifikasi distribusi, utamanya pada probablitias gangguan (disturbance) ui.

Asumsi Kenormalan

Regresi linier normal klasik mengasumsikan bahwa tiap ui didistribusikan secara normal dengan rata-rata nol dan varians σ2. Kenapa harus distribusi normal? Ada beberapa alasan diantaranya :

  1. ui merupakan pengaruh gabungan (terhadap variabel tak bebas) dari sejumlah besar variabel bebas yang tidak dimunculkan secara explisit dalam model regresi. Pengaruh variabel-variabel yang diabaikan ini diharapkan kecil dan dalam keadaan paling baik, random. Berdasarkan pendekatan central limit theorem dapat ditunjukkan bahwa kalau ada sejumlah besar variabel random yang didistribusikan secara independen dan identik, maka distribusi jumlahnya cenderung ke distribusi normal bila banyaknya variabel seperti itu meningkat tak terbatas.
  2. Suatu varians dari central limit theorem menyatakan bahwa bahkan apabila banyaknya variabel tidak sangat besar atau jika variabel ini tidak independen benar, jumlahnya masih bisa didistribusikan secara normal.
  3. Dengan asumsi kenormalan, distribusi probabilitas penaksir OLS dengan mudah diperoleh, karena merupakan sifat distribusi normal bahwa setiap fungsi linier dari variabel-variabel yang diditribusikan secara normal dengan sendirinya didistribusikan secara normal. Maka berlaku jika faktor gangguan ui berdistribusi normal, maka penaksir OLS yaitu koefisien regresi (b) juga berdistribusi normal.
  4. Distribusi normal adalah distribusi yang relatif sederhana yang hanya melibatkan dua parameter (rata-rata dan varians), distribusi ini sangat dikenal dan sifat-sifat teoritisnya telah dipelajari secara luas dalam statistik matematik.

Sifat-sifat Penaksir OLS Menurut Asumsi Normalitas

  1. Penaksir OLS tidak bias
  2. Penaksir OLS mempunyai varians yang minimum. Ini berarti penaksir OLS tidak bias dengan varians yang minimum dikatakan sebagai penaksir yang efisien
  3. Konsisten yaitu dengan meningkatnya ukuran sampel secara tak terbatas, penaksir mengarah ke (convergen) nilai populasi yang sebenarnya

Dari uraian di atas kiranya dapat kita sama-sama pahami bahwa untuk memahami penggunaan asumsi normalitas pada model regresi yang dihasilkan, fokus perhatian kita adalah pada faktor gangguan ui atau umum digunakan dalam proses pengujian oleh software SPSS yaitu pengujian nilai residual yang dihasilkan oleh model regresi. Secara prinsip semakin kecil residual yang dihasilkan dapat diartikan semakin presisi model yang dihasilkan untuk meramalkan hasil yang sebenarnya terjadi secara numerik (angka). Oleh karenanya pada bahasan sebelumnya disebutkan bahwa rata-rata untuk faktor gangguan u­i mendekati atau sama dengan nol adalah baik. Selain itu, nilai varians (nilai keragaman) dari residual yang cenderung konsisten menandakan bahwa nilai gangguan tiap pengamatan dari nilai rata-ratanya cenderung konsisten dan ini yang diharapkan dari suatu peramalan yang dihasilkan dari suatu model. Dengan terpenuhi dua konsep tersebut maka terpenuhilah asumsi normalitas pada faktor gangguan ui dimana rata-rata cenderung mendekati atau sama dengan  nol (0) dan varians cenderung konstan.

Efek dari terpenuhinya faktor gangguan ui yang memenuhi asumsi normalitas, maka dalam hal ini menunjukkan bahwa koefisien regresi (b) yang dihasilkan dalam model juga semakin baik dan memiliki distribusi normal pula. Oleh karenanya, teramat penting dalam suatu penaksiran model regresi terpenuhi asumsi normalitas pada nilai gangguan ui dengan benefit-benefit yang telah dipaparkan sebelumnya.

———————————————————————————————————————————————————-

  1. Jika rekan peneliti memerlukan bantuan survey lapangan, data entry ataupun olahdata dapat menghubungi mobilestatistik.com :
  1. Klik “Konsultasi Gratis” untuk mendapatkan informasi atau solusi terkait dengan pertanyaan-pertanyaan seputar metodologi penelitian, aplikasi software statistik ataupun olahdata.
  • “1st Kirim Pertanyaan, Pasti Kami Jawab . . . InsyaAllah”

———————————————————————————————————————————————————-

Sifat Dasar Regresi

Sifat Dasar Regresi

Statement yang sering kita temui dalam keseharian kita terkait dengan suatu phenomena yang kita temui diantaranya “pengaruh” atau “hubungan”. Kata “pengaruh” atau “hubungan” sering digunakan dalam rangka mencari keterkaitan dua keadaan yang terjadi baik itu karena adanya sebab akibat atau karena hanya adanya singgungan atau keterkaitan saja. Umum kita menggunakan “pengaruh” atau “hubungan” hanya sebatas asumsi melalui evaluasi panca indera saja, tanpa membuktikannya melalui proses kuantifikasi (peng-angka-an). Salah satu alat statistik yang membantu proses kuantifikasi asumsi-asumsi tadi adalah Regresi.

Asal Sejarah Istilah Regresi

Istilah regresi diperkenalkan oleh Francis Galton. Dalam suatu makalah yang terkenal, Galton mengemukakan bahwa meskipun ada kecenderungan bagi orang tua yang tinggi mempunyai anak-anak yang tinggi dan bagi orang tua yang pendek untuk mempunyai anak-anak yang pendek, distribusi tinggi suatu populasi tidak berubah secara mencolok (besar) dari generasi ke generasi. Penjelasannya adalah bahwa ada kecenderungan bagi rata-rata tinggi anak-anak dengan orang tua yang mempunyai tinggi tertentu untuk bergerak atau mundur (regress) ke arah tinggi rata-rata seluruh populasi. Hukum regresi semesta (law of universal regression) dari Galton diperkuat oleh temannya Karl Pearson, yang mengumpulkan lebih dari seribu catatan tinggi anggota kelompok keluarga. Ia menemukan bahwa rata-rata tinggi anak laki-laki kelompok ayah (yang) tinggi kurang daripada tinggi ayah mereka dan rata-rata tinggi anak laki-laki kelompok ayah (yang) pendek lebih besar dari pada tinggi ayah mereka, jadi “mundurnya”  (“regressing”) anak laki-laki yang tinggi maupun yang pendek serupa ke arah rata-rata tinggi semua laki-laki. Dengan kata-kata Galton, ini adalah “kemunduran ke arah sedang”.

Secara sederhana analisis Regresi dapat diartikan berkenaan dengan studi ketergantungan satu variabel, variabel tak bebas, pada satu atau lebih variabel lain, variabel yang menjelaskan (explanatory variables), dengan maksud menaksir dan atau meramalkan nilai rata-rata hitung (mean) atau rata-rata (populasi) variabel tak bebas, dipandang dari segi nilai yang diketahui atau tetap (dalam pengambilan sampel berulang) variabel yang menjelaskan (yang belakangan).

Ketergantungan Statistik Vs Fungsional

Analisis regresi menaruh perhatian pada apa yang dikenal dengan ketergantungan di antara variabel yang bersifat statistik, bukannya fungsional atau deterministik, seperti pada ilmu fisika klasik. Dalam hubungan di antara variabel yang bersifat statistik, pada dasarnya menghadapi variabel random atau stokhastik (proses stokhastik adalah proses yang penuh dengan kegagalan), yaitu variabel yang mempunyai distribusi probabilitas. Dalam ketergantungan fungsional atau deterministik, berhadapan dengan variabel tetapi variabel tidak bersifat statistik atau stokhastik.

Misal :

Ketergantungan hasil panen pada suhu, curah hujan, sinar matahari dan pupuk, pada dasarnya bersifat statistik dalam arti bahwa variabel yang menjelaskan (explanatory variables), meskipun jelas penting, tidak akan memungkinkan ahli agronomi untuk meramalkan hasil panen secara akurat karena kesalahan yang terdapat dalam pengukuran variabel-variabel dan juga sekelompok faktor (variabel) lain yang secara bersama-sama mempengaruhi hasil panen tadi. Jadi ada sesuatu yang hakiki atau variabilitas random dalam variabel tak bebas (hasil panen), yang tidak bisa dijelaskan sepenuhnya (tidak peduli berapapun banyaknya variabel yang diperhitungkan).

Dalam fenomena deterministik, berhadapan dengan hubungan sejenis, yang ditunjukkan oleh hukum Newton mengenai gravitasi, yang menyatakan : setiap partikel dalam alam semesta menarik setiap partikel lain dengan suatu gaya yang langsung sebanding dengan hasil kali masanya dan berbanding terbalik dengan kuadrat jarak antar partikel-pertikelnya. F = k(m1m2/r2).

Semisal, jikalau ada kesalahan pengukuran, katakan k dari hukum Newton mengenai grafitasi, hubungan yang seharusnya deterministik menjadi hubungan statistik. Karena dalam keadaan ini gaya hanya dapat diramalkan secara kira-kira dari mulai k (dan m1, m2, r2) tertentu yang mengandung kesalahan. Variabel F dalam kasus tersebut menjadi suatu variabel random.

Regresi dan Sebab Akibat

Meskipun analisis regresi berurusan dengan ketergantungan satu variabel pada variabel lain, ini tidak perlu berarti sebab akibat. Dalam perkataan Kendall dan Struart :”Sesuatu hubungan statistik, bagaimanapun kuat dan sugestif, tidak pernah dapat menetapkan hubungan sebab akibat. Gagasan mengenai sebab akibat harus datang dari luar statistik, pada akhirnya dari beberapa teori atau lainnya.”

Regresi Vs Korelasi

Analisis korelasi tujuan utamanya adalah untuk mengukur kuat atau derajat hubungan linier antara dua variabel. Sedangkan regresi tujuan utamanya untuk menaksir atau meramalkan nilai rata-rata satu variabel atas dasar nilai yang tetap variabel-variabel lain.

Teknik regresi dan korelasi mempunyai beberapa perbedaan yang mendasar. Dalam analisis regresi berlaku sifat asimetri yaitu cara bagaimana variabel tak bebas dan variabel yang menjelaskan diperlakukan. Variabel tak bebas diasumsikan bersifat statistik, random atau stokhastik, yaitu mempunyai distribusi probabilitas. Dipihak lain, variabel yang menjelaskan (explanatory variables) diasumsikan mempunyai nilai yang tetap (dalam pengambilan sampel secara berulang). Sedangkan, dalam analisis korelasi, kita memperlakukan yang manapun dari (dua) variabel secara simetris, tidak ada perbedaan antara variabel tak bebas dan variabel yang menjelaskan.

Istilah dan Notasi dalam Regresi

Dalam literatur istilah variabel tak bebas (dependent variables) dan variabel yang menjelaskan (explanatory variables) digambarkan dengan berbagai cara, sebagai berikut :

  1. Variabel tak bebas (dependent variables) = variabel yang menjelaskan (explained variables) = yang diramalkan (predictand) = yang diregresi (regressand) = tanggapan (response)
  2. Variabel yang menjelaskan (explanatory variables) = variabel bebas (independent variables) = peramal (predictor) = yang meregresi (regressor) = perangsang atau variabel kendali (stimulus or control variables)

Jika kita sedang mempelajari ketergantungan satu variabel pada hanya satu variabel yang menjelaskan, studi itu dikenal dengan analisis regresi sederhana atau dua variabel. Tetapi kalau kita mempelajari ketergantungan satu variable pada lebih dari satu variabel yang menjelaskan, maka dikenal sebagai analisis regresi majemuk (multiple regression analysis).

Dalam prakteknya ada beberapa persiapan dan pemahaman yang perlu dibangun oleh peneliti sebelum menerapkan data pada metode regresi. Satu bahasan telah diuraikan pada artikel sebelumnya, yaitu prasyarat skala ukur data yang kita gunakan dalam perhitungan regresi pada variabel penelitian (variabel bebas dan variabel tak bebas) karena sedikit banyak berpengaruh pada pemilihan jenis dari regresi itu sendiri (ex : regresi logistik dan regresi dengan variabel dummy). Selain itu, perlunya suatu proses pengujian pada model berupa pengujian asumsi regresi linier klasik yang memuat pengujian normalitas, multikolinieritas, heteroskedastisitas, autokorelasi dan linieritas yang menguatkan bahwa model yang dihasilkan merupakan model yang memiliki taksiran yang baik.

Pada artikel selanjutnya kita akan ulas identifikasi kebagusan model berdasarkan asumsi-asumsi yang tadi diutarakan, diantaranya normalitas, multikolinieritas, heteroskedastisitas, autokorelasi dan linieritas.

———————————————————————————————————————————————————-

  1. Jika rekan peneliti memerlukan bantuan survey lapangan, data entry ataupun olahdata dapat menghubungi mobilestatistik.com :
  1. Klik “Konsultasi Gratis” untuk mendapatkan informasi atau solusi terkait dengan pertanyaan-pertanyaan seputar metodologi penelitian, aplikasi software statistik ataupun olahdata.
  • “1st Kirim Pertanyaan, Pasti Kami Jawab . . . InsyaAllah”

———————————————————————————————————————————————————-

SEM dengan SmartPLS

SEM dengan SmartPLS

Para ahli metode penelitian mengelompokan SEM menjadi dua pendekatan. Pendekatan pertama disebut sebagai Covariance Based SEM (CBSEM) dan pendekatan lainnya adalah Variance Based SEM atau yang lebih dikenal dengan Partial Least Square (PLS). Untuk melakukan analisa dengan menggunakan CBSEM maka software yang sering digunakan adalah AMOS dan LISREL sedangkan untuk PLS software yang sering digunakan adalah smartPLS, warpPLS dan XLStat.

Mengapa Menggunakan PLS

PLS menggunakan metode bootstraping atau penggandaan secara acak. Oleh karenanya asumsi normalitas tidak akan menjadi masalah bagi PLS. Selain terkait dengan normalitas data, dengan dilakukannya bootstraping maka PLS tidak mensyaratkan jumlah minimum sampel. Penelitian dengan memiliki sampel kecil dapat tetap menggunakan PLS.

Perbedaan PLS dengan CBSEM

  1. Hal utama yang membedakan antara PLS dan CBSEM adalah tujuan dari penggunaan metode. Tujuan dari penggunaan PLS adalah melakukan prediksi. Prediksi yang dimaksudkan adalah prediksi hubungan antar kosntruk. Sedangkan CBSEM lebih ditujukan sebagai metode untuk melakukan konfirmasi teori.
  2. Berdasarkan asumsi statistiknya, PLS digolongkan sebagai jenis non-parametrik sedangkan CBSEM lebih kepada normal distribution dan independent observation (parametrik).
  3. Dari sisi konstruk, CBSEM hanya dapat mengakomodir konstruk yang berbentuk reflektif. Sedangkan PLS dapat mengakomodir baik formatif maupun reflektif.
  4. Mengenai jumlah sampel. Dikarenakan PLS berbasis pada variance maka jumlah sampel yang digunakan dapat berkisar antara 30 s.d 100 sampel. Sedangkan CBSEM karena dasarnya covariance, maka sampel yang digunakan berkisar 200 s.d 800 sampel.
  5. Dari jumlah kosntruk dan indikator. PLS dapat mengakomodir hingga 100 konstruk dan 1000 indikator sedangkan CBSEM hanya bisa mengakomodir sampai 100 indikator.

Menggunakan SmartPLS 3.0

  1. Tampilan Smart PLS terdiri dari tiga jendela diantaranya jendela projek, jendela variabel atau indikator dan jendela tempat struktural model di gambar. 

  1. Sebelum menggambar model struktural yang harus dilakukan adalah menginputkan file yang akan dianalisis. Untuk menjalankan smartPLS 3.0 data harus disimpan dalam format .csv (disetting pada microsoft excel pada menu save as).
  2. Langkah pertama untuk memasukan data ke dalam smartPLS 3.0 adalah dengan cara membuat projek yang akan dikerjakan. Disudut kiri atas klik New Project. Lalu akan muncul jendela baru lalu isikan nama project yang akan dikerjakan. 

  1. Setelah diisikan nama project dan klik tombol OK maka project akan muncul pada jendela di sebelah kiri. Terdapat 2 menu yaitu menu untuk memasukan data pada smartPLS 3.0 dan menu untuk menggambarkan struktur model penelitian. 

  1. Untuk memasukan data double klik pada icon menu. Setelah di klik maka akan muncul layar yang berisikan file dimana kita menaruh data mentah dan filih file dengan format .csv. 

  1. Jika data telah dimasukan maka akan tampak pada jendela smartPLS. Indikator lain jika data sudah masuk dalam smartPLS secara sempurna adalah icon warna hijau, yang berarti data sudah komplit. Tetapi jika icon berwarna kuning maka maknanya data masih mengandung missing value. Adapun isi dari data yang diperlihatkan oleh smartPLS diantaranya adalah variabel atau indikator penelitian disertai nilai statistik deskrptifnya. 

  1. Setelah data berhasil dinputkan dengan sempurna maka langkah berikutnya adalah menggambar model struktural. Menggambar model struktural dapat dimulai dengan melakukan double klik pada menu nama project disebelah kiri jendela. Setelah di klik akan muncul tab baru di bagian kanan atas. 

  1. Nah jika tampilan sudah seperti poin 7 maka model struktural siap untuk digambar. Dalam menggambar gunakan dua icon yaitu “latent variabel” dan “connect” dengan cara klik icon laten variabel lalu klik pada bidang gambar dan seterusnya lakukan hal yang sama sesuai jumlah laten variabel. Lalu untuk menghubungkan pola hubungan gunakan icon connect

  1. Untuk memasukan observed variabel ke dalam laten variabel maka cukup men-drag atau menarik satu persatu observed variabel yang ada pada layar sebelah kiri bawah ke dalam bidang gambar disesuaikan dengan pasangan laten variabel-nya. 

  1. Jika observed variabel sudah dimasukan ke dalam laten variabel maka model berubah menjadi biru. Seperti gambar berikut ini. 

  1. Jika perlu mengganti nama dari masing-masing laten variabel cukup klik kanan pada laten variabel dan melakukan rename.
  2. Untuk melakukan pengujian pada menu smartPLS 3.0 pilih menu calculate dan pilih bootstrapping untuk menguji hipotesis. 

  1. Setelah di klik akan muncul jendela baru, pada menu subsampel isikan sebanyak 500 kali, lalu klik start calculation

  1. Maka akan muncul tab baru dalam smartPLS 3.0 hasil analisanya. Seperti gambar berikut.

(output ukuran numerik SEM oleh SmartPLS)

(output diagram jalur SEM oleh SmartPLS)

SELAMAT MENCOBA!!!

———————————————————————————————————————————————————-

  1. Jika rekan peneliti memerlukan bantuan survey lapangan, data entry ataupun olahdata dapat menghubungi mobilestatistik.com :
  1. Klik “Konsultasi Gratis” untuk mendapatkan informasi atau solusi terkait dengan pertanyaan-pertanyaan seputar metodologi penelitian, aplikasi software statistik ataupun olahdata.
  • “1st Kirim Pertanyaan, Pasti Kami Jawab . . . InsyaAllah”

———————————————————————————————————————————————————-

SEM dengan LISREL 8.80 (Student)

SEM dengan LISREL 8.80 (Student)

Pada artikel sebelumnya kita sudah mengenal interface LISREL secara umum dan bagaimana membangkitkan data pada program LISREL. Selain itu dikenalkan juga menu-menu yang terdapat pada program LISREL. Pada kesempatan kali ini kita akan sedikit banyak mengupas penggunaan program LISREL pada metode khusus yaitu Structural Equation Modeling (SEM). Konsepsi SEM merupakan gabungan pemahaman kita terhadap analisis regresi, analisis jalur dan analisis faktor konfirmatori, karena berbasis metode-metode tadi secara fungsi dan interpretasi keluaran dari SEM akan tidak jauh berbeda, hanya saja dikarenakan gabungan dari metode-metode tadi SEM kadang kala dipandang rumit dan kompleks.

Sebelum kita langsung dalam pengoperasian program LISREL untuk SEM, ada baiknya kita telaah alur atau tahapan yang harus dipahami oleh peneliti dalam menggunakan metode Structural Equation Modeling (SEM), sebagai berikut

Prosedur aplikasi SEM

 Umumnya LISREL digunakan untuk memecahkan masalah model persamaan struktural (SEM). Hair, Anderson, Tatham dan Black mengemukakan 7 langkah dalam mengaplikasikan SEM sebagai berikut :

  1. Merumuskan model berbasis teori : teridentifikasi variabel laten endogen dan eksogen, argumentasi hubungan kausal antar variabel laten, serta mengidentifikasi indikator atau variabel manifest eksogen dan endogen.
  2. Mengkontruksi diagram jalur : tergambar dengan jelas setting atau adegan hubungan antar variabel laten dan teridentifikasi jumlah parameter yang akan diestimasi
  3. Merumuskan persamaan : model pengukuran dan model struktural
  4. Menentukan data input dan metode estimasi : menentukan matrik korelasi atau matriks kovarians dan metode estimasi maximum likelihood, dll
  5. Identifikasi model : model dapat menghasilkan estimasi yang bersifat unik (tunggal) atau tidak. Syarat suatu model menghasilkan estimasi unik adalah model tersebut bersifat just-identified atau over identified. Model dikatakan just-identified apabila derajat bebas model tersebut nol (0) dan dikatakan over identified apabila derajat bebas model lebih dari nol (> 0)
  6. Uji kesesuaian model : pendekatan dua tahap, secara individual digunakan uji t dan secara keseluruhan digunakan kriteria Goodness of Fit (GOF).
  7. Interpretasi dan modifikasi model : menjawab masalah penelitian dan memodifikasi model berdasarkan justifikasi teoritis tertentu.

Yang patut menjadi perhatian bersama adalah poin no 1, dimana dalam penggunaan SEM haruslah berbasis suatu teori tertentu. Ini dikarenakan fungsi SEM adalah mengkonfirmasikan model yang dibentuk pada data riil yang diperoleh dilapangan. Selain itu, penentuan arah hubunngan yang dibangun dalam model haruslah dikuatkan secara teori. Hal, ini juga yang akan berpengaruh pada penentuan jumlah data atau sampel penelitian yang layak digunakan dalam SEM dan layak dilihat dari sisi kecukupan sampel dalam menguji suatu model yang berbasiskan teori.

Oleh karenanya, apabila peneliti meragukan teori yang dipakainya dalam metode SEM dan ketidaksanggupan dalam memenuhi kecukupan sampel yang disyaratkan, pada bahasan berikutnya akan diuraikan konsepsi lain yaitu Partial Least Square (PLS) yang dapat mengakomodasi kekurangan-kekurangan tersebut.

Menggunakan LISREL

  • Transfer data mentah ke program LISREL
  1. Buka program LISREL, lalu klik File, sehingga tampil kotak dialog berikut : 
  2. Klik Import Data, sehingga muncul tampilan berikut: 
  3. Pada menu List file of type pilih .sav (file SPSS) dan pada menu Drives tempat menyimpan data SPSS untuk dimasukan ke dalam LISREL. 
  4. Klik OK, maka dilayar monitor akan tampil berikut : 
  5. Pada menu utama, klik Data, pilih Define Variables, maka dimonitor akan tampil kotak dialog sebagai berikut : 
  6. Blok semua variabel seperti tampil kotak dialog berikut: 
  7. Selanjutnya klik Variable Type maka dilayar akan muncul tampilan berikut : 
  8. Plih Continous dan Aplly to all, kemudian klik OK. Sekarang telah lengkap data ditransfer ke program LISREL.

 

  • Komputasi matriks kovarians dan uji normalitas
  1. Untuk memperoleh matriks kovarians dan uji normalitas, dari menu utama LISREL Windows Application-SEM.psf, klik menu Statistics, pilih Output Options, sehingga muncul menu berikut : 
  2. Pada Moment Matrix pilih Covariance, pilih Save to File dan LISREL System Data, isikan nama file misal SEM.cov dan pilih Perform test of multivariate normality, seperti tampilan berikut : 
  3. Selanjutnya klik OK, hasilnya adalah matriks kovarians langsung disimpan dalam file SEM.cov, sedangkan hasil uji normalitas ditunjukkan dalam keluaran sebagai berikut : 
  4. Dengan sudah diperolehnya file matriks kovarians, berarti pengolahan data dengan metode analisis SEM dapat dikerjakan.

 

  • Membangun diagram jalur
  1. Untuk membangun sebuah diagram jalur dalam program LISREL berdasarkan atas teori yang sudah ditetapkan sebelumnya dan sudah teridentifikasi klasifikasi jenis dari variabel-variabelnya, maka pada program LISREL pilih menu File lalu klik New, maka akan muncul tampilan jendela sebagai berikut : 
  2. Setelih dipilih menu Path Diagram kemudian klik OK maka akan muncul tampilan jendela kosong, lalu klik Setup untuk mengklasifikasikan variabel yang digunakan dalam model klik Variables. Perlu diperhatikan penggolongan variabel berdasarkan variabel manifest dan variabel laten yang digunakan dalam peneltian 
  3. Setelah semua variabel diklasifikasikan maka akan terlihat seperti pada jendela berikut ini dan siap untuk dibentuk menjadi model dalam diagram jalur. 
  4. Setelah semua variabel manifest dan variabel laten diklasifikasikan, klik Next untuk mendifinisikan sumber dan tipe data yang akan digunakan dalam pengolahan oleh program LISREL. Isikan pada Statistics from yaitu covariance karena file yang kita punya sebelumnya dalam bentuk covariance. File Type yaitu LISREL System Data dan pada File Name biarkan default dan isikan jumlah sampel data pada Number of Observation. Lalu klik OK. 
  5. Untuk proses pembuatan diagram jalur, kita tinggal men-drag atau menarik variabel-variabel yang ada pada daftar sebelah kiri ke jendela kosong sebelah kanan, lalu gunakan tools untuk membentuk korelasional atau jalur antar tiap variabel sesuai dengan kosep teoritisnya. Maka model diagram jalur yang sudah dibuat akan terlihat sebagai berikut : 
  6. Setelah seluruh variabel dipasangkan dengan dari variabel manifest ke masing-masing variabel latennya. Langkah selanjutnya adalah memproses diagram jalur dari data yang diinputkan dengan cara meng-klik gambar L (run Lisrel). Maka akan muncul jendela sytax program sebagai berikut : 
  7. Setelahnya klik kembali L (run Lisrel) maka akan muncul jendela berupa diagram jalur yang telah dilengkapi oleh program LISREL dengan nilai-nilai sepeti bobot faktor, koefisien jalur, erorr, t hitung. Seperti gambar berikut : 
  8. Dari diagram jalur tersebut, dapat dilihat beberapa opsi tampilan klik Estimate untuk merubah tampilan ke Standardized Solution, dll. Klik Model untuk merubah tampilan ke X-model, Y-model, Structural Model, dll.
  9. Dari hasil proses L (run Lisrel) tadi dihasilkan juga ouput LISREL yang berisi hasil perhitungan secara lengkap baik itu statistik deskriptif, matriks korelasi, matriks kovarians, model pengukuran, model struktural dan nilai-nilai GOF.

(output ukuran numerik SEM oleh LISREL)

(output ukuran GOF SEM oleh LISREL)

Dari hasil perhitungan data dengan menggunakan program LISREL di atas, untuk interpretasi hasil pengolahan atau analisis disesuaikan tahapannya dengan 7 tahapan yang sudah diutarakan sebelumnya. SELAMAT MENCOBA!!

———————————————————————————————————————————————————-

  1. Jika rekan peneliti memerlukan bantuan survey lapangan, data entry ataupun olahdata dapat menghubungi mobilestatistik.com :
  1. Klik “Konsultasi Gratis” untuk mendapatkan informasi atau solusi terkait dengan pertanyaan-pertanyaan seputar metodologi penelitian, aplikasi software statistik ataupun olahdata.
  • “1st Kirim Pertanyaan, Pasti Kami Jawab . . . InsyaAllah”

———————————————————————————————————————————————————-

Linear Structural Relationships (LISREL)

Linear Structural Relationships (LISREL)

Kali ini kita akan sedikit berkenalan dengan salah satu software statistika yang sering digunakan juga oleh praktisi dan kekhususannya dalam hal pengujian suatu model. Beberapa jenis pemodelan dalam statistik khususnya ditinjau dari jenis data crossectional diantaranya adalah regresi, path analisis dan lebih kompleks lagi kita mengenal istilah SEM (Structural Equation Modelling). Nah, pada kesempatan kali ini kita akan berkenalan dengan software LISREL yang memiliki kekhususan dalam mengolah data crossectional tadi pada model-model regresi, path dan SEM.

Apa itu LISREL

Lisrel for Windows (joreskog & Sorbom 2006) adalah suatu aplikasi windows yang diperuntukkan untuk suatu perhitungan pemodelan diantaranya Structural Equation Modeling, Multilevel Structural Equation Modeling, Multilevel Linear and Nonlinear Modeling, Formal Inference-based Recursive Modeling dan Generalized Linear Modeling. Selain itu data yang digunakan oleh LISREL dapat berupa file yang diambil dari data eksternal dengan format data SPSS, SAS, STATA, Statistica, Microsoft Escel, SYSTAT dan lain sebagainya yang disimpan oleh LISREL sebagai PRELIS System File (PSF).

Software LISREL

Lisrel for Windows mengunakan PRELIS System File (PSF) sebagai media untuk menyimpan data mentah yang akan diolah oleh LISREL itu sendiri. Sebuah model persamaan struktural dapat di spesifikan dengan pembuatan suatu diagram jalur atau path diagram, SIMPLIS project file, LISREL project file, SIMPLIS syntax file atau LISREL syntax file. Kelima tipe file tersebut dapat mengolahdata dari file PSF. Jika pengguna telah mempersiapkan kelima file tadi, barulah LISREL dapat digunakan untuk mencari model yang fit bagi data yang ada pada file PSF.

Ketika kita membuka LISREL sedikitnya ada 3 menu utama yang akan muncul. Pertama, file menu yang digunakan untuk membuka data PSF dan file PTH. Juga untuk membuka file project LISREL dan SIMPLIS (LPJ dan SPJ). Kedua, jendela text editor yang digunakan untuk menampilkan syntak dan file output LISREL. Dan ketiga, jendela text editor yang memiliki jendela menu yang spesifik

Interface LISREL

Keterangan :

  1. Menu bar merupakan ikon-ikon perangkat operasi dari LISREL dimana fungsi-fungsinya berupa fungsi pembuka file .psf dan membuat diagram jalur .pth
  2. Jendela berwarna abu-abu merupakan jendela display hasil pemrosesan dengan program LISREL
  3. Untuk mengimport data klik File lalu Klik Import Data pada menu List file of type pilih .sav dan pada menu Drives tempat menyimpan data SPSS untuk dimasukan ke dalam LISREL lalu simpan menjadi file .psf.

Interface LISREL Import Data SPSS

Interface LISREL Data .PSF

Jika data telah dinputkan (.psf) ke dalam program LISREL maka interface program LISREL akan nampak seperti gambar di bawah ini, dimana akan muncul menu-menu yang dapat digunakan dalam pemrosesan data .psf :

Interface LISREL menu Data

Keterangan :

  1. Menu data berfungsi dalam mendefinisikan data variabel yang telah diinputkan kedalam program LISREL.
  2. Ataupun jika ingin melakukan peng-edit-an data yang telah dimasukan ke dalam program LISREL dapat dilakukan pada menu data

Setelah data didefinisikan dan siap untuk dilakukan pengolahan secara statistik, terdapat beberapa menu yang dapat dijadikan pilihan diantaranya statistics, graph, multilevel, surveyGLM. Pemilihan penggunaan metode statistik disesuaikan dengan kebutuhan dari penelitian.

Interface LISREL menu Statistics

Keterangan :

  1. Menu statistics berisikan metode statistik dalam rumpun structural equation modeling (analisis faktor, analisis regresi, dll)
  2. Dengan meng-klik salah satu metode yang diinginkan, prosedur pengaplikasian program LISREL dapat dilakukan.

Interface LISREL menu Statistics-Regresi

Keterangan :

  1. Dengan mengklik menu regresi linier maka akan tampak jendela untuk mendefinisikan variabel kedalam model regresi
  2. Jika telah didefinisikan variabelnya, dengan mengklik run, maka proses perhitungan dengan program LISREL dilakukan

Interface LISREL Output Regresi

Keterangan :

  1. Ouput program LISREL dengan metode regresi berisi persamaan regresi yang dihasilkan berdasarkan perhitungan
  2. Selain persamaan regresi yang dihasilkan oleh program LISREL juga berupa statistik deskriptif dari variabel penelitian

———————————————————————————————————————————————————-

  1. Jika rekan peneliti memerlukan bantuan survey lapangan, data entry ataupun olahdata dapat menghubungi mobilestatistik.com :
  1. Klik “Konsultasi Gratis” untuk mendapatkan informasi atau solusi terkait dengan pertanyaan-pertanyaan seputar metodologi penelitian, aplikasi software statistik ataupun olahdata.
  • “1st Kirim Pertanyaan, Pasti Kami Jawab . . . InsyaAllah”

———————————————————————————————————————————————————-