Autokorelasi Spasial Dengan Geoda

Autokorelasi Spasial Dengan Geoda

Pada kesempatan sebelumnya kita sudah membahas dan menguraikan salah satu asumsi data pada analisis regresi spasial yaitu terkait dengan identifikasi ada atau tidaknya autokorelasi spasial pada data yang kita miliki. Salah satu statistik yang kita ukur adalah Indeks Moran, baik itu dalam konsepsi Global (keseluruhan data) maupun yang bersifat lokal.

Nah pada kesempatan kali ini kita akan coba ulas pengaplikasiannya dengan menggunakan software Geoda. Selain pada software ArcGis, pada software Geoda pun difasilitasi perhitungan Indeks Moran dan cenderung lebih mudah tahapannya dibandingkan proses pada ArcGis. Jadi untuk peneliti yang tidak mempunyai basic penguasaan aplikasi ArcGis (aplikasi pembuatan peta), untuk mengidentifikasi autokorelasi spasial pada data sangat disarankan untuk menggunakan software Geoda.

Berikut kita uraikan tahapan pada software Geoda untuk mencari atau mengindentifikasi efek spasial pada data dengan menggunakan statistik Indeks Moran.

1. Pastikan file yang kita siapkan untuk diolah dengan sofware Geoda salah satunya adalah dalam format .shp. Perlu diperhatikan juga jika data yang akan diolah dengan software Geoda sudah termasuk didalamnya data yang akan di analisis. Jika antara file peta .shp dan data masih terpisah (format .xls), untuk menyatukan antar 2 (dua) file yang berbeda format dapat menggunakan software OpenJump.

2. Jika file yang akan dianalisis sudah siap, buka sofware Geoda yang sudah terinstall seperti tampak pada gambar berikut.

3. Setelahnya klik folder pada kolom Input File, lalu pilih file yang akan digunakan dalam penelitian yang sudah mengandung data penelitian yang akan di analisis dalam bentuk format .shp, seperti tampak pada gambar berikut.

4. Jika sudah kita masukan file penelitian kita pada software Geoda dengan klik OK, maka akan muncul gambar peta penelitian yang akan dianalisis seperti tampak pada gambar berikut.

5. Untuk melihat data apa saja yang tekandung dalam peta data yang sudah dimasukan kedalam software Geoda, pada tool bar menu dapat meng-klik simbol tabel (disamping simbol weight – W). Jika data .shp yang kita masukan ke software Geoda merupakan peta tematik pada umumnya, umumnya tabel akan berisi informasi umum wilayah sesuai dengan lokasi peta (desa, kabupaten/kota, provinsi, koordinat dll). Jika peta yang dinputkan sesuai dengan poin 1 (satu) maka pada tabel akan muncul tambahan data penelitian yang akan dianalisis lebih lanjut.

6. Langkah selanjutnya adalah menentukan dan mendefinisikan nilai pembobot. Pada tahap ini kita akan mendefinisikan jenis pembobot berdasarkan input data kewilayahan dan tipe pembobot (silahkan baca artikel kita tentang “Autokorelasi Spasial’), seperti tampak pada gambar berikut,

Menu Pendefinisian Pembobot “Weights Manager”

Jendela Input Pembobotan

7. Setelah muncul tampilan software Geoda seperti pada poin sebelumnya, kita klik menu “Creat” untuk membentuk fungsi pembobot baru (jika belum ada) dan “Load” untuk menampilkan fungsi pembobot yang sudah kita buat sebelumnya. Dengan klik menu “Creat” maka akan muncul jendela pendefinisian sebagai berikut,

8. Isi kolom “Weight File ID Variabel” dengan nama file primary key pada data penelitian yang kita miliki, biasanya variabel yang dimaksudkan disini adalah kode wilayah (base data kependudukan atau penomoran wilayah secara lokal maupun nasional). Lalu masukan tipe pembobot kewilayahan yang kita konsepkan pada wilayah penelitian yang akan kita analisis. (silahkan baca artikel kita tentang “Autokorelasi Spasial’). Setelahnya klik Create maka akan diarahkan untuk menyimpan file output hasil dan akan tampak gambar seperti berikut,

Pendefinisian Variabel ID dan Tipe Pembobotan Wilayah

Pembobot Kewilayahan Berhasil Dibuat

9. Setelah proses pendefinisian variabel dan pembobot selesai kita buat berdasarkan pada poin sebelumnya. Langkah selanjutnya adalah pengujian autokorelasi spasial dengan menggunakan Moran’s I Global dan Lokal (LISA). Bagi peneliti yang baru menemukan artikel ini silahkan pelajari artikel kita tentang “Autokorelasi Spasial”. Kita dapat melakukan kedua analisis tersebut pada menu “Space” klik “Univariate Moran’s I” untuk mengujikan autokorelasi spasial Global untuk variabel tunggal dan “Univariate Local Moran’s I” untuk mengujikan autokorelasi spasial Lokal. Seperti tampak pada gambar berikut.

10. Setelah meng-klik “Univariate Moran’s I” untuk menguji nilai Moran’s I Global maka langkah selanjutnya adalah memilih variabel yang akan kita ujikan keterkaitan (autokorelasi) kewilayahannya. Pada umumnya dalam konsep regresi spasial yang diujikan autokorelasinya cukup pada variabel dependen (Y), akan tetapi jika diperlukan pembuktian untuk variabel independen peneliti dapat melakukan pengujian dengan tahapan yang sama dan akan tampak seperti gambar berikut.

11. Setelah klik “OK” maka software Geoda akan memproses pencarian nilai Moran’s I Global. Dan akan menghasilkan output seperti tampak pada gambar berikut.

Output Moran’s I Global

12. Dengan tahapan yang sama dengan memilih analisis “Univariate Local Moran’s I” maka akan dihasilkan output Moran’s I Lokal (LISA) seperti tampak pada gambar berikut.

Peta Klaster Wilayah Berdasarkan Kuadran

Peta Klaster Wilayah Berdasarkan Signifikansi Nilai Moran’s I Lokal

Hal yang perlu diperhatikan oleh peneliti atau data master adalah pemahaman secara utuh tentang penggunaan autokorelasi spasial itu sendiri. SEMANGAT MENELITI. 

—————————————————————————————————————————————————————————

1. Jika rekan peneliti memerlukan bantuan survey lapangan, data entry ataupun olahdata dapat menghubungi mobilestatistik.com :

2. Klik “Konsultasi Gratis” untuk mendapatkan informasi atau solusi terkait dengan pertanyaan-pertanyaan seputar metodologi penelitian.

  • “1st Kirim Pertanyaan, Pasti Kami Jawab . . . InsyaAllah”

—————————————————————————————————————————————————————————

Autokorelasi Spasial

Autokorelasi Spasial

Pada kesempatan yang lalu kita sudah membahas permasalahan regresi kaitannya dengan aspek keruangan (spasial), yaitu kita curigai salah satu indikatornya adalah tidak terpenuhinya asumsi klasik non heteroskedastisitas pada data yang kita miliki dimana data yang kita miliki memiliki unsur keruangan atau spasial. Sehingga munculah istilah model regresi terboboti pada aspek keruangan (spasial). Sedangkan jika data yang kita miliki tidak miliki aspek keruangan atau spasial maka yang muncul adalah regresi terboboti dengan jenis bobot disesuaikan pada jenis data yang kita miliki.

Nah pada kesempatan kali ini, kita akan coba uraikan salah satu indikator lainnya yang menjadi pertimbangan dalam penggunaan regresi terboboti pada aspek keruangan atau spasial. Indikator tersebut adalah Autokorelasi Spasial. Konsep autokorelasi pun muncul dalam regresi dalam bahasan pengujian asumsi klasik regresi, yaitu adanya korelasi atau saling berhubungannya antar data pengamatan, dalam konteks asumsi klasik regresi peneliti mempertimbangkan ada atau tidaknya korelasi antar residual yang dihasilkan oleh model regresi sedangkan pada regresi terboboti spasial peneliti mempertimbangkan ada atau tidaknya korelasi data pengamatan antar wilayah satu dengan yang lainnya.

Berdasarkan pada konsepsi autokorelasi spasial ini lah, menjadi penting bagi peneliti yang memiliki data pengamatan yang terdapat unsur keruangan atau spasial dalam proses pemodelannya untuk dibuktikan terlebih dahulu apakah autokorelasi terjadi dan signifikan antar wilayah pada data pengamatan yang dimiliki. Seperti halnya pada analisis data deret waktu, jika memang autokorelasi antar data pengamatan tidak terjadi maka cukuplah dilakukan analisis regresi pada umumnya tanpa mempertimbangkan aspek keruangannya.

Setidaknya terdapat 2 (dua) ukuran umum yang dapat digunakan oleh peneliti untuk menidentifikasi ada tidaknya autokorelasi spasial pada data pengamatan yang dimiliki yaitu nilai Moran I yang digunakan untuk mengenali autokorelasi spasial secara global atas sekumpulan data pengamatan dan LISA yang merupakan nilai Moran I lokal untuk mengindentifikasi secara spesifik autokorelasi spasial tiap data pengamatan. Lebih lanjut penjelasan tentang kedua nilai Moran tersebut diuraikan pada bagian berikut.

Matriks Pembobot

Matriks pembobot spasial disebut juga matriks yang menggambarkan kekuatan interaksi antar lokasi. Gambar berikut menunjukkan kedekatan posisi atau letak suatu lokasi dengan lokasi lainnya.

Ilustrasi Pendekatan Pembobot Spasial

Menurut Anselin (1995), matriks pembobot dapat dibedakan menjadi tiga pendekatan, diantaranya :

  1. Rook Contiguity, daerah pengamatannya ditentukan berdasarkan sisi-sisi yang saling bersinggungan dan sudut tidak diperhitungkan.
  2. Bishop Contiguity, daerah pengamatannya ditentukan berdasarkan sudut-sudut yang saling bersinggungan dan sisi tidak diperhitungkan.
  3. Queen Contiguity, daerah pengamatannya ditentukan berdasarkan sisi-sisi yang saling bersinggungan dan sudut juga diperhitungkan.

Matriks pembobot spasial W dapat diperoleh dari dua cara yaitu matriks pembobot terstandarisasi dan matriks bobot tidak terstandarisasi. Matriks pembobot terstandarisasi merupakan matriks pembobot yang diperoleh dengan cara memberikan bobot yang sama rata terhadap tetangga lokasi terdekat dan yang lainnya nol, sedangkan matriks pembobot tak terstandarisasi merupakan matriks pembobot yang diperoleh dengan cara memberikan bobot satu bagi tetangga terdekat dan yang lainnya nol. Pemahaman terhadap pembobotan ini penting untuk menentukan fungsi yang digunakan dalam perhitungan Indeks Moran’s I dan pengaplikasian pada software Geoda nantinya.

Indek Moran’s I (Global)

Koefisien Moran’s I digunakan untuk menguji dependensi spasial atau autokorelasi spasial antar amatan atau lokasi. Dimana nilai indeks Moran’s I terletak antara -1 dan 1. Pengujian statistik Moran’s I melalui pendekatan distribusi peluang Z dengan statistik uji |Zhitung| > Zα/2 dikatakan bahwa pada data terdapat autokorelasi spasial.

Diagram Kuadran Moran’s I Output Sofware GeoDa

Pola pengelompokan dan penyebaran antar lokasi dapat disajikan dengan Moran’s Scatterplot seperti tampak pada gambar di atas, yang menunjukkan hubungan antara nilai amatan pada suatu lokasi (distandarisasi) dengan rata-rata nilai amatan dari lokasi-lokasi yang bertetanggaan dengan lokasi yang bersangkutan (Lee dan Wong, 2001). Scatterplot tersebut terdiri atas 4 (empat) kuadran yaitu

  1. Kuadran I (HighHigh), menunjukkan lokasi yang mempunyai nilai amatan tinggi dikelilingi oleh lokasi yang mempunyai nilai amatan tinggi.
  2. Kuadran II (LowHigh), menunjukkan lokasi yang mempunyai nilai amatan rendah dikelilingi oleh lokasi yang mempunyai nilai amatan tinggi
  3. Kuadran III (LowLow), menunjukkan lokasi yang mempunyai nilai amatan rendah dikelilingi oleh lokasi yang mempunyai nilai amatan rendah
  4. Kuadran IV (HighLow), menunjukkan lokasi yang mempunyai nilai amatan tinggi dikelilingi oleh lokasi yang mempunyai nilai amatan rendah.

Hasil dari perhitungan nilai Moran’s I Global ini memberikan gambaran umum mengenai keterkaitan secara spasial atas data penelitian yang diujikan. Yang nantinya secara spesifik (tiap wilayah) keterikatanya secara spasial akan dijelaskan oleh nilai Moran’s I lokal (LISA).

Local Indicator of Spatial Autocorrelation (LISA)

Moran’s I juga dapat digunakan untuk mengidentifikasi koefisien autocorrelation secara lokal (local autocorrelation) atau korelasi spasial pada tiap daerah. Semakin tinggi nilai lokal Moran’s I memberikan informasi bahwa wilayah yang berdekatan memiliki nilai yang hampir sama atau membentuk suatu penyebaran yang mengelompok. Indentifikasi Moran’s I tersebut adalah Local Indicator of Spatial Autocorrelation (LISA). (Lee dan Wong, 2001)

Peta Kalster Moran’s I (LISA) Output Sofware Geoda

Peta Signifikansi Moran’s I (LISA) Output Sofware Geoda

Dari perhitungan LISA inilah kita dapat mengidentifikasi secara spasial atas data yang diujikan keterikatan dan signifikansinya berdasarkan aspek spasial secara lokal untuk memperkuat dan mempertegas hasil yang dihasilkan oleh pengujian secara global (Moran’s I Global).

Secara garis besar analisis autokorelasi spasial yang dihasilkan dari konsep teori dan diaplikasi dengan menggunakan software (misal : Geoda), terdiri dari 2 (dua) bagian besar yaitu menguji signifikasi autokorelasi spasial secara global dan menguji signifikasi autokorelasi secara lokal. Hal ini menunjang nantinya dalam analisis model spasial yang dihasilkan oleh software (misal : GWR4), dimana akan dihasilkan model secara Global dan model Spasial. Ini menjadi penting agar nantinya peneliti tidak memaksakan model regresi terbobot spasial tanpa didukung adanya efek spasial yang sigfinikan pada data penelitian yang dimiliki..

Hal yang perlu diperhatikan oleh peneliti atau data master adalah pemahaman secara utuh tentang penggunaan regresi spasial itu sendiri. Pada kesempatan lainnya kita akan coba memperlihatkan penggunaan software Goeda dalam menganalisis autokorelasi spasial pada data penelitian. SEMANGAT MENELITI. 

————————————————————————————————————————————————————————

1. Jika rekan peneliti memerlukan bantuan survey lapangan, data entry ataupun olahdata dapat menghubungi mobilestatistik.com :

2. Klik “Konsultasi Gratis” untuk mendapatkan informasi atau solusi terkait dengan pertanyaan-pertanyaan seputar metodologi penelitian.

  • “1st Kirim Pertanyaan, Pasti Kami Jawab . . . InsyaAllah”

————————————————————————————————————————————————————————

Uji Lagrange Multipliers Pada Pool Data

Uji Lagrange Multipliers Pada Pool Data

Artikel sebelumnya sudah kita bahas analisis regresi dengan menggunakan Eviews pada rumpun analisis pada data pool. Dari artikel-artikel sebelumnya kita dapati setidaknya 3 model pokok yang dapat dihasilkan dari pool data dengan pengolahan menggunakan Eviews yakni model regresi dengan Common Effect, Fixed Effect dan Random Effect. Pertanyaan selanjutnya ketika kita mempunyai ketiga model tersebut adalah model manakah yang paling cocok atau paling baik bagi data yang kita miliki. Salah satu kriteria umum yang kita tahu bersama adalah dengan mengevaluasi R Square atau koefisien determinasi dari model, akan tetapi ternyata beberapa uji yang dapat dilakukan untuk menguji kebaikan dari 3 (tiga) model tersebut. Diantara uji-uji tersebut diantaranya uji Chow, Uji Hausman dan Uji Lagrange Multipliers. Dimana ketiga uji tersebut merupakan uji urutan dimana menguji komparasi kombinasi dari ketiga model yang dihasilkan.

Pada kesempatan ini kita akan coba uraikan uji Lagrange Multipliers yang tujuan utamanya adalah untuk menetukan apakah data fit dengan menggunakan model common effect atau dengan model random effect.

Berikut akan disajikan langkah-langkah uji Lagrange Multipliers dengan menggunakan Eviews untuk mendapatkan model terbaik pada data pool yang kita miliki dari ketiga model yang kita hasilkan dari pengolahaan data pool.

Pembentukan Model Regresi Common Effect

1. Sedikit berbeda dengan uji sebelumnya (uji Chow dan uji Hausman), pada uji Lagrange Multipliers jendela Eviews mengharuskan pada jendela equation biasa (bukan entry seperti pada data pool), hal ini karena yang diperbandingakan adalah pada model common effect (regresi OLS biasa). Sehingga tampilan jendela data pada Eviews merupakan jendela data panel. Seperti tampak pada gambar berikut.

Lagrangian Multiplier, Eviews

2. Selanjutnya kita bentuk model Common Effect dengan mengklik Proc – Make Equation, yang merupakan intruksi untuk membuat model regresi common effect. Seperti tampak pada gambar berikut.

Lagrangian Multiplier, Eviews

Gambar 1. Menu Proc – Equation

Lagrangian Multiplier, Eviews

Gambar 2. Membuat Model Regresi Common Effect

Gambar 3. Outout Model Regresi Common Effect

Men-download Add-In Lagrangian Multiplier Test

3. Langkah selanjutnya adalah menambahkan menu Lagrange Multipliers Test pada menu perhitungan Eviews dengan men-download pada popup Add-In. Umumnya menu Add-In terdapat pada Eviews 9 atau 10 (penulis menggunakan Eviews 9), umumnya default hasil instalasi Eviews hanya mennyediakan pengujian regresi pool data hanya untuk uji Chow dan uji Hausman. Sedangkan untuk menu Lagrange Multipliers Test harus telebih dahulu mendownload dan menginstal langsung pada software Eviews, tahapannya tampak seperti gambar berikut.

Lagrangian Multiplier, Eviews

Gambar 1. Menu Add-In Mendownload Lagrange Multipliers Test (BP Test)

Lagrangian Multiplier, Eviews

Gambar 2. Hasil Instalasi Lagrange Multipliers Test

Gambar 3. Default Lagrange Multipliers Test Pada Jendela Proc Equation

Melakukan Lagrange Multipliers Test

4. Setelah memastikan menu Lagrange Multipliers Test  telah masuk pada menu perhitungan Eviews seperti dijelaskan pada langkah sebelumnya. Untuk melakukan perhitungan kembali pada jendela hasil Regresi Common Effect. Untuk melakukan test klik pada menu Proc AddIns Breush Pagan Random (BP Test) seperti tampak pada gambar berikut.

Gambar 1. Menu Lagrange Multipliers Test (Add Ins – BP Test)

Lagrangian Multiplier, Eviews

Gambar 2. Menu Lagrange Multipliers Test

Lagrangian Multiplier, Eviews

Gambar 3. Output Lagrange Multipliers Test

5. Kriteria uji nilai p-value dari crosssectionBreush Pagan lebih besar 0.05 (alpha : 5 %) maka dapat disimpulkan bahwa data fit dengan model common effect. Sedangkan jika sebaliknya maka data fit dengan model random effect.

Yang perlu diperhatikan oleh peneliti atau data master untuk semua proses yang sudah kita paparkan di atas diantaranya, pertama adalah tata cara menginput data dari format excel ke dalam Eviews dan kedua adalah pemilihan objek yang dijadikan sebagai pool data pada metode yang dipilih dalam analisis. Hal ini perlu diperhatikan agar tidak terjadi error ketika import data (data tidak muncul) dan model yang dihasilkan sesuai teori yang mendasari analisis. Dan yang paling utama bagi para peneliti atau data master adalah tahu tujuan dan dasar teori yang mengharuskannya menggunakan metode regresi dengan pool data. SEMANGAT MEMPELAJARI!!!

—————————————————————————————————————————————————————————-

1. Jika rekan peneliti memerlukan bantuan survey lapangan, data entry ataupun olahdata dapat menghubungi mobilestatistik.com :

2. Klik “Konsultasi Gratis” untuk mendapatkan informasi atau solusi terkait dengan pertanyaan-pertanyaan seputar metodologi penelitian

  • “1st Kirim Pertanyaan, Pasti Kami Jawab . . . InsyaAllah”

—————————————————————————————————————————————————————————-

Uji Chow Pada Pool Data

Uji Chow Pada Pool Data

Artikel sebelumnya sudah kita bahas analisis regresi dengan menggunakan Eviews pada rumpun analisis pada data pool. Dari artikel-artikel sebelumnya kita dapati setidaknya 3 model pokok yang dapat dihasilkan dari pool data dengan pengolahan menggunakan Eviews yakni model regresi dengan Common Effect, Fixed Effect dan Random Effect. Pertanyaan selanjutnya ketika kita mempunyai ketiga model tersebut adalah model manakah yang paling cocok atau paling baik bagi data yang kita miliki. Salah satu kriteria umum yang kita tahu bersama adalah dengan mengevaluasi R Square atau koefisien determinasi dari model, akan tetapi ternyata beberapa uji yang dapat dilakukan untuk menguji kebaikan dari 3 (tiga) model tersebut. Diantara uji-uji tersebut diantaranya uji Chow, Uji Hausman dan Uji Lagrange Multipliers. Dimana ketiga uji tersebut merupakan uji urutan dimana menguji komparasi kombinasi dari ketiga model yang dihasilkan.

Pada kesempatan ini kita akan coba uraikan uji Chow yang tujuan utamanya adalah untuk menetukan apakah data fit dengan menggunakan model fixed effect atau dengan model common effect.

Berikut akan disajikan langkah-langkah uji Chow dengan menggunakan Eviews untuk mendapatkan model terbaik pada data pool yang kita miliki dari ketiga model yang kita hasilkan dari pengolahaan data pool.

1. Buka file Eviews yang berisi workfile data pool. Sepeti tampak pada gambar berikut. (pastikan peneliti atau data master paham tipe data apakah itu data panel atau data pool. Jika belum memahami dapat mempelajari pada artikel kita sebelumnya terkait penjelasan tentang data panel dan data pool)

chow, eviews, pool

2. Buka file kerja dengan meng-klik tanda huruf [ P ] pada jendela workfile. Pada jendela pool [ P ] nantinya semua proses estimasi model dilakukan. Jendela pool [ P ] akan tampak seperti gambar berikut.

chow, eviews, pool

3. Cek data pool yang sudah ter-entry pada lembar kerja (workfile) dengan mengklik tombol Sheet. Pastikan data yang kita masukan ter-enrty dengan benar. (kasus import file dari file excel error – pastikan pada file excel terdapat hanya SATU sheet data peruntukan data Eviews).

chow, eviews, pool

4. Jika sudah betul hasil data entry yang kita masukan pada workfile, selanjutnya kita klik menu Estimate. Isikan pada menu ini pengujian untuk Fixed Effect (baca artikel sebelumnya tentang Fixed Effect). Dan masukan variabel dependen dan independent pada kolom yang tersedia, dengan mengetikan nama variabel diakhiri dengan tanda “?”. Seperti tampak pada gambar berikut.

chow, eviews, pool

5. Jika sudah benar isian kita pada menu Estimate – Model Fixed Effect maka akan muncul hasil seperti gambar berikut.

6. Selanjutnya untuk pengujian Chow Test, klik menu View pada jendela pool [ P ] dan arahkan kursor pada pengujian Fixed/Random Effect Testing dan pilih pada pengujian Likelihood Ratio Test. Setelah di klik maka akan muncul output baru seperti pada gambar berikut.

Menu View Fixed/Random Effect Testing
Output Hasil Uji Chow

7. Kriteria uji nilai p-value dari cross section – F / Chi-Square lebih kecil 0.05 (alpha : 5 %) maka dapat disimpulkan bahwa data fit dengan model fixed effect. Sedangkan jika sebaliknya maka data fit dengan model common effect.

Yang perlu diperhatikan oleh peneliti atau data master untuk semua proses yang sudah kita paparkan di atas diantaranya, pertama adalah tata cara menginput data dari format excel ke dalam Eviews dan kedua adalah pemilihan objek yang dijadikan sebagai pool data pada metode yang dipilih dalam analisis. Hal ini perlu diperhatikan agar tidak terjadi error ketika import data (data tidak muncul) dan model yang dihasilkan sesuai teori yang mendasari analisis. Dan yang paling utama bagi para peneliti atau data master adalah tahu tujuan dan dasar teori yang mengharuskannya menggunakan metode regresi dengan pool data. SEMANGAT MEMPELAJARI!!!

———————————————————————————————————————————————————————

1. Jika rekan peneliti memerlukan bantuan survey lapangan, data entry ataupun olahdata dapat menghubungi mobilestatistik.com :

2. Klik “Konsultasi Gratis” untuk mendapatkan informasi atau solusi terkait dengan pertanyaan-pertanyaan seputar metodologi penelitian

  • “1st Kirim Pertanyaan, Pasti Kami Jawab . . . InsyaAllah”

———————————————————————————————————————————————————————

Uji Hausman Pada Pool Data

Uji Hausman Pada Pool Data

Artikel sebelumnya sudah kita bahas analisis regresi dengan menggunakan Eviews pada rumpun analisis pada data pool. Dari artikel-artikel sebelumnya kita dapati setidaknya 3 model pokok yang dapat dihasilkan dari pool data dengan pengolahan menggunakan Eviews yakni model regresi dengan Common Effect, Fixed Effect dan Random Effect. Pertanyaan selanjutnya ketika kita mempunyai ketiga model tersebut adalah model manakah yang paling cocok atau paling baik bagi data yang kita miliki. Salah satu kriteria umum yang kita tahu bersama adalah dengan mengevaluasi R Square atau koefisien determinasi dari model, akan tetapi ternyata beberapa uji yang dapat dilakukan untuk menguji kebaikan dari 3 (tiga) model tersebut. Diantara uji-uji tersebut diantaranya uji Chow, Uji Hausman dan Uji Lagrange Multipliers. Dimana ketiga uji tersebut merupakan uji urutan dimana menguji komparasi kombinasi dari ketiga model yang dihasilkan.

Pada kesempatan ini kita akan coba uraikan uji Hausman yang tujuan utamanya adalah untuk menetukan apakah data fit dengan menggunakan model fixed effect atau dengan model random effect.

Berikut akan disajikan langkah-langkah uji Hausman dengan menggunakan Eviews untuk mendapatkan model terbaik pada data pool yang kita miliki dari ketiga model yang kita hasilkan dari pengolahaan data pool.

1. Buka file Eviews yang berisi workfile data pool. Sepeti tampak pada gambar berikut. (pastikan peneliti atau data master paham tipe data, apakah itu data panel atau data pool. Jika belum memahami dapat mempelajari pada artikel kita sebelumnya terkait penjelasan tentang data panel dan data pool)

hausman, pool, eviews

2. Buka file kerja dengan meng-klik tanda huruf [ P ] pada jendela workfile. Pada jendela pool [ P ] nantinya semua proses estimasi model dilakukan. Jendela pool [ P ] akan tampak seperti gambar berikut.

pool, eviews, hausman

3. Cek data pool yang sudah ter-entry pada lembar kerja (workfile) dengan mengklik tombol Sheet. Pastikan data yang kita masukan ter-entry dengan benar. (kasus import file dari file excel error – pastikan pada file excel terdapat hanya SATU sheet data peruntukan data Eviews).

hausman, pool, eviews

4. Jika sudah benar hasil data entry yang kita masukan pada workfile, selanjutnya kita klik menu Estimate. Isikan pada menu ini pengujian untuk Random Effect. Dan masukan variabel dependent dan independent pada kolom yang tersedia, dengan mengetikan nama variabel diakhiri dengan tanda “?”. Seperti tampak pada gambar berikut.

hausman, pool, eviews

5. Jika sudah benar isian kita pada menu Estimate – Model Random Effect dengan klik OK, maka akan muncul hasil seperti gambar berikut. (Karena kita akan memperbandingan model Random dengan model Fixed, maka pastikan kita berkerja pada jendela pool [ P ] dengan estimasi model Random)

hausman, pool, eviews

6. Selanjutnya untuk pengujian Hausman Test, klik menu View pada jendela pool [ P ] dan arahkan kursor pada pengujian Fixed/Random Effect Testing dan pilih pada pengujian Hausman Test. Setelah di klik maka akan muncul output baru seperti pada gambar berikut.

hausman, pool, eviews
Menu View Fixed/Random Effect Testing
hausman, pool, eviews
Output Hasil Uji Hausman

7. Kriteria uji nilai p-value dari crosssection-random lebih besar 0.05 (alpha : 5 %) maka dapat disimpulkan bahwa data fit dengan model RANDOM effect. Sedangkan jika sebaliknya maka data fit dengan model FIXED effect.

…..

Yang perlu diperhatikan oleh peneliti atau data master untuk semua proses yang sudah kita paparkan di atas diantaranya, pertama adalah tata cara menginput data dari format excel ke dalam Eviews dan kedua adalah pemilihan objek yang dijadikan sebagai pool data pada metode yang dipilih dalam analisis. Hal ini perlu diperhatikan agar tidak terjadi error ketika import data (data tidak muncul) dan model yang dihasilkan sesuai teori yang mendasari analisis. Dan yang paling utama bagi para peneliti atau data master adalah tahu tujuan dan dasar teori yang mengharuskannya menggunakan metode regresi dengan pool data. SEMANGAT MEMPELAJARI!!!

———————————————————————————————————————————————————————–

  1. Jika rekan peneliti memerlukan bantuan survey lapangan, data entry ataupun olahdata dapat menghubungi mobilestatistik.com :

2. Klik “Konsultasi Gratis” untuk mendapatkan informasi atau solusi terkait dengan pertanyaan-pertanyaan seputar metodologi penelitian

“1st Kirim Pertanyaan, Pasti Kami Jawab . . . InsyaAllah”

———————————————————————————————————————————————————————–

SEM Dengan Multi Sample

SEM Dengan Multi Sample

Pada kesempatan yang lalu, pada beberapa artikel yang sudah kita share sedikit banyak telah dikemukakan konsepsi analisis data dalam konteks data tidak dapat diamati secara langsung melainkan melalui indikator-indikator yang menyusunnya sehingga dikenal istilah variabel manifest dan variabel laten pada rumpun analisis model struktural (SEM). Dalam proses pengolahannya pun kita kenal dengan istilah SEM dalam konteks “parametrik” dan SEM dalam konteks “non-parametrik” sehingga memunculkan teknik penggunaannya dengan alat bantu sofware semisal Lisrel atau Amos untuk SEM “parametrik” dan SmartPLS untuk SEM “non-parametrik”. Sekilas kita kemukakan bagi para pembaca yang baru menemukan artikel ini untuk lebih lengkap mempelajari dan memahai kedua kosep tersebut pada artikel-artikel kita sebelumnya yaitu tentang analisis Structural Equation Modeling atau lebih familiar dengan sebutan SEM, baik itu secara teori maupun penggunaan softwarenya. Selain itu, kita juga sudah share juga perbandingan dari SEM “parametrik” dan SEM “non-parametrik” untuk memudahkan para peneliti (pemula terutama) untuk menentukan secara tepat tools yang digunakan pada data dan konsep penelitian yang dimilikinya.

Pada kesempatan kali ini kita akan coba ulas konsep lain dari SEM yang mana melibatkan lebih dari satu kelompok sampel. Pada pembahasan-pembahasan sebelumnya kita memframekan bahwa sampel atau data yang digunakan pada analisis SEM hanya terdiri dari satu kelompok data atau satu sampel. Ternyata dalam konteks penggunaan SEM pun dapat difasilitasi jumlah sampel lebih dari satu kelompok sampel. Sebagai awalan mari kita banyangkan penggunaan analisis pada rumpun uji beda (misal : uji beda t) pada klasifikasi uji beda dengan sampel independen satu sama lain, sehingga kita dapatkan pengujian apakah dari variabel yang dijadikan rujukan pengujian pada uji beda tersebut sama atau kah berbeda secara rata-rata antar kedua sampel tersebut. Nah, pada konteks analisis SEM yang dijadikan acuan perbandingan model antar dua kelompok sampel tersebut adalah terletak pada Koefisien Struktural (model struktural) dan atau pada Koefisien Pengukuran-nya (model pengukuran) dengan membuat salah satunya fixed (tetap) pada proses pengujiannya.

Lebih lanjut terkait dengan konsep pengujian SEM tersebut, kita akan uraiakan pada uraian berikut.

1. Variabel Moderasi

Variabel moderasi yaitu variabel yang mempengaruhi hubungan kausal antar sebuah variabel independen dengan sebuah variabel dependen. Dalam konteks analisis SEM, dikenal dengan istilah Ksi yang secara langsung mempengaruhi variabel Eta, serta hubungannya dengan variabel moderasi (VM) dengan Ksi terhadap Eta. Ketika 2 (dua) variabel berinteraksi (Ksi dan VM) keduanya berdeviasi dari means-nya (rata-ratanya) dalam arah yang sama maka dampak interaksinya (terhadap Eta) positif, sedangkan jika berlawanan arah maka dampak interaksinya negatif. Dalam hal dampak interaksi positif maka interaksi antara VM dan Ksi akan meningkatkan/memperkuat pengaruh Ksi terhadap Eta, sedangkan dampak interaksi negatif akan menurunkan/memperlemah pengaruh Ksi terhadap Eta. Dalam kontek pemaparan kali ini maka kita dapati 2 (dua) konteks penggunaan dari variabel moderasi diantaranya,

  • Pure Moderating Variable (variabel moderasi murni)

Varibel moderasi (VM) dimana VM tidak terlibat secara langsung dalam model, melainkan melalui hanya interaksi dengan variabel Ksi atau dengan kata lain tidak ada pengaruh langsung dari variabel VM terhadap Eta.

  • Quasy Moderating Variable (variabel moderasi kuasi)

Variabel moderasi (VM) dimana ketika VM selain melalui interaksi dengan variabel Ksi, VM juga terlibat secara langsung dan mempunyai hubungan kausal dengan variabel dependen, Eta.

Oleh karena konteks moderasi tersebut, maka dalam SEM kita mempunyai 2 pilihan pengerjaan (Rigdon, Schumacker dan Worthke, 1998):

  • Multi sample (multi-group) approach

Pendekatan ini kita pilih ketika salah satu atau kedua variabel yang berinteraksi adalah diskrit (atau kategorikal), atau dapat dibuat dalam bentuk diskrit. Dampak interaksi akan terlihat ketika ada perbedaan hasil estimasi parameter pada model yang sama dari sampel yang berbeda tetapi berkaitan.

  • Interaction model approach

Pendekatan ini kita pilih, ketika kedua variabel adalah kontinu. Tipe pendekatan ini umumnya banyak digunakan oleh peneliti pada umumnya. Dan pembahasannya seperti yang sudah kita paparkan pada artikel-artikel sebelumnya.

2. Pendekatan Multi Sampel (Multiple Group Approach)

Sebuah populasi bisa mengandung berbagai perbedaan seperti perbedaan negara, provinsi, perbedaan-perbedaan berdasarkan kultur atau ekonomi-sosial, grup-grup yang menerima perlakuan (treatment) yang berbeda, control grup dan lain-lain. Grup-grup yang berbeda ini juga bisa kita bentuk dalam sampel penelitian kita. Setiap grup akan berisi bagian dari sampel penelitian sesuai dengan klasifikasi atau kategori dalam variabel yang digunakan untuk membentuk grup. Variabel ini disebut sebagai variabel moderasi atau interaksi dan berbentuk diskrit atau kategorikal.

Byrne (1998) menambahkan bahwa dalam mencari variasi di antara grup-grup, peneliti biasanya mencari jawaban salah satu dari 5 (lima) pertanyaan berikut, yaitu :

  1. Apakah model pengukuran tidak bervariasi di antara grup-grup (group invariant)?
  2. Apakah model struktural tidak bervariasi di antara grup-grup?
  3. Apakah lintasan-lintasan (path) tertentu yang dispesifikasikan dalam model struktural tidak bervariasi di antara grup-grup?
  4. Apakah laten means dari konstruk-konstruk tertentu dalam model tidak bervariasi di antara grup-grup?
  5. Apakah muatan-muatan faktor dari model pengukuran tidak bervariasi diantara grup-grup?

Secara garis besar prosedur multisampel approach adalah sebagai berikut (Byrne, 1998) :

1. Estimasi model penelitian

Langkah pertama ini adalah mengestimasi model penelitian dengan menggunakan seluruh responden/kasus yang ada dalam sampel. Kita harus yakin bahwa model penelitian memiliki kecocokan data-model (GoF model) yang baik, memiliki model pengukuran dengan validitas dan reliabilitas yang baik, serta model struktural dengan estimasi koefisien struktural dengan estimasi koefisien struktural yang baik, sebelum melakukan analisis multisampel.

2. Pembagian sampel ke dalam grup-grup

Langkah kedua dilakukan dengan membagi sampel ke dalam kelompok-kelompok sesuai dengan kategori yang ada dalam variabel moderasi (VM) dan disimpan pada files yang berbeda. Hal ini dilakukan untuk memudahkan dalam proses analisis pada tahap berikutnya.

3. Pembentukan model dasar (base line model)

Yang dimaksud dengan model base line adalah model penelitian spesifik untuk setiap kelompok atau grup yang mempunyai kecocokan data dengan model (GoF model) yang baik. Dalam kaitannya dengan perbandingan di antara model-model dasar, Bollen (1989) membedakan ke dalam 2 (dua) dimensi yang saling melengkapi satu sama lain yaitu bentuk model dan keserupaan nilai parameter. Lebih lanjut ia menyatakan bahwa kebanyakan para peneliti mengasumsikan bahwa bentuk model adalah sama untuk semua grup dan mereka berkonsentrasi pada keserupaan nilai parameter dalam model tersebut di antara grup-grup.

Byrne (1998) mempunyai pendapat yang agak berbeda yaitu bahwa model dasar untuk setiap grup bisa saja berbeda, meskipun biasanya terbatas pada error covariance maupun adanya tambahan cross loading. Oleh karena itu, perlu dilakukan estimasi secara terpisah terhadap setiap model dasar menggunakan data yang ada dalam kelompok masing-masing.

4. Estimasi Multisample Model dengan parameter ditetapkan sama

Setelah model dasar setiap grup diestimasi dan dihasilkan model dasar dengan kecocokan data-model (GoF model) yang baik, maka pada langkah ini kita akan melakukan estimasi kedua model dasar tersebut secara serempak. Pada langkah sebelumnya kita melakukan estimasi terhadap model dasar sendiri-sendiri dan estimasi ini tidak mengandung between group constraint/batasan. Meskipun demikian, ketika kita menetapkan adanya batasan/constraint kesamaan terhadap beberapa parameter tertentu, maka data untuk semua grup harus diestimasi secara serempak/simultan agar diperoleh estimasi yang efisien. Adapun pola dari parameter yang ditetapkan (fixed) atau dibebaskan (free) mengikuti spesifikasi model dasar untuk setiap grup.

Pada multisample model ini kita menetapkan bahwa nilai parameter-parameter baik pada model pengukuran maupun model struktural dari kedua kelompok adalah sama (model kontrol/pembanding). Untuk parameter-paramater yang hanya ada pada salah satu model dasar tetap diikutkan pada model yang bersangkutan. (lebih jelas akan terlihat pada syntax SIMPLIS pada pemodelannya).

5. Estimasi Multisample Model dengan parameter berbeda

Langkah kelima mengandung estimasi multisampel dimana tidak semua parameter ditetapkan sama nilainya pada semua grup. Parameter-parameter yang ingin kita periksa perbedaan nilainya di antara grup, kita estimasi secara bebas sesuai grup masing-masing, sedangkan yang tidak kita periksa perbedaannya kita tetapkan sama (fixed) di semua grup. (lebih jelas akan terlihat pada syntax SIMPLIS pada pemodelannya)

6. Evaluasi perbedaan parameter di antara grup-grup

Langkah keenam mengandung pengujian statistik terhadap signifikansi perbedaan nilai parameter-parameter dari grup-grup yang diestimasi pada langkah kelima. Pengujian dilakukan dengan menghitung perbedaan chi-square c2 (Dc2)dan degree of freedom (Ddf) yang dihasilkan pada langkah keempat dan kelima. Dari hasil c2 sebesar Dc2 dan df sebesar Ddf dapat diperoleh nilai p value (dengan melihat tabel distribusi chi-square). Jika nilai p-value ≤ 0.05 maka perbedaan parameter-parameter yang dianalisis di antara grup adalah signifikan. Dan nilai p-value ≥ 0.05 maka perbedaan parameter-parameter yang dianalisis di antara grup adalah tidak signifikan.

….

Intinya dari awal pengujian pada data yang kita miliki, pastikan bahwa GoF pada model terpenuhi dengan baik. Hal ini penting agar model-model yang dihasilkan selanjutnya pun (model masing-masing grup) diharapkan memiliki GoF yang sama dengan model awalnya.

Pada artikel-artikel selanjutnya akan kita coba perlihatkan penggunaan software Lisrel dan SmartPLS dalam mengolah data multisampel yang dimiliki oleh peneliti. Penggunaan tipe SEM base nya tetap mengikuti aturan atau ketentuan-ketentuan yang telah kita uraikan pada artikel-artikel kita sebelumnya. Dan pada kedua software tersebut memfasilitasi pengolahan model SEM dengan adanya pembagian sampel atau multisample. SEMANGAT MEMAHAMI!!!

Sumber : Setyo Hari W, Structural Equation Modeling, Konsep dan Tutorial

———————————————————————————————————————————————–

1. Jika rekan peneliti memerlukan bantuan survey lapangan, data entry ataupun olahdata dapat menghubungi mobilestatistik.com :

2. Klik “Konsultasi Gratis” untuk mendapatkan informasi atau solusi terkait dengan pertanyaan-pertanyaan seputar metodologi penelitian.

  • “1st Kirim Pertanyaan, Pasti Kami Jawab . . . InsyaAllah”

———————————————————————————————————————————————–

Jenis Sum of Square (SS) Pada Analisis Varians (ANOVA) Rancangan Percobaan

Jenis Sum of Square (SS) Pada Analisis Varians (ANOVA) Rancangan Percobaan

Pada kesempatan sebelumnya kita sudah cukup banyak membahas tentang rancangan percobaan (rancangan percobaan dasar) baik secara konsepsi maupun pengaplikasiannya dengan menggunakan software SPSS. Bagi para peneliti atau data master yang baru saja menemukan artikel ini, kita sarankan untuk mempelajari pembahasan kita tentang rancangan percobaan pada beberapa artikel sebelumnya.

Pada kesempatan kali ini kita akan coba membahas salah satu bagian dari fungsi ANOVA yang ada pada proses analisis data dengan rancangan percobaan. Kalau pada pembahasan sebelumnya kita mengetahui bahwa harus berhati-hati dengan pemilihan taraf perlakuan apakah itu random atau fixed (karena akan berpengaruh pada proses perhitungan), maka pada kesempatan kali ini kita akan coba uraikan secara singkat  fungsi dari “Sum of Square (SS)” yang utamanya terlihat pada pemilihan opsi model pada software SPSS.

Perlu diketahui oleh peneliti atau data master bahwa fungsi pemilihan tipe Sum of Square (SS) sangat berpengaruh terutama ketika model rancangan percobaan yang digunakan memiliki lebih dari 2 (dua) perlakuan (percobaan faktorial). Dalam software SPSS peneliti atau data master bisa memilih dari tipe 1 sampai dengan tipe 4, akan tetapi pertanyaan mendasarnya adalah tipe mana yang cocok untuk rancangan percobaan dengan perlakuan tunggal dan mana yang cocok untuk rancangan percobaan dengan lebih dari 1 (satu) perlakuan (rancangan percobaan faktorial) serta dipertimbangkan pula faktor interaksi. Berikut kita akan ulas secara sederhana, penjelasan dan perkiraan kecocokan tipe Sum of Square (SS) pada jenis rancangan percobaan yang akan digunakan.

Sum of Square (SS) Tipe 1. Sequential

Secara definisi Sum of Square (SS) tipe 1 dimana Sum of Square (SS) tiap faktor/perlakuan merupakan penambahan perbaikan dari Sum of Square (SS) error (dalam tabel ANOVA terdapat Sum of Square (SS) error – Sum of Square (SS) error semakin terkoreksi) tiap kali pengaruh dari tiap faktor/perlakuan dimasukan kedalam model regresi. Oleh karenanya Sum of Square (SS) dapat dipandang sebagai pengurangan dari Sum of Square (SS) error yang didapat dari penambahan tiap faktor/perlakuan dari faktor-faktor/perlakuan-perlakuan yang sudah dimasukan sebelumnya.

Keunggulan Sum of Square (SS) tipe 1 : dimana Sum of Square (SS) untuk semua perlakuan di tambahkan kepada Sum of Square (SS) total, yang merupakan sebuah dekomposisi yang lengkap dari perkiraan Sum of Square (SS) dari keseluruhan model. Dan hal ini tidak sepenuhnya benar untuk tipe Sum of Square (SS) yang lainnya.

Kekurangan Sum of Square (SS) tipe 1 : Hipotesis yang disusun tergantung pada urutan perlakuan yang dispesifikan (urutan faktor/perlakuan dimasukan ke dalam model). Jika misal dalam pengujian ANOVA 2 arah dengan 2 (dua) model, pertama perlakuan A kemudian perlakuan B, lainnya perlakuan B kemudian perlakuan A, hasilnya tidak hanya bahwa Sum of Square (SS) tipe 1 untuk A berbeda di antara 2 (dua) model, akan tetapi tidak ada cara yang pasti untuk memperkirakan apakah Sum of Square (SS) akan naik atau turun ketika perlakuan A menjadi yang kedua dimasukan kedalam model setelah perlakuan B. Oleh karenanya Sum of Square (SS) tipe 1 sangat terbatas penggunaanya hanya untuk bentuk model yang pasti. Selain itu, Sum of Square (SS) tipe 1 tidak cocok digunakan untuk rancangan percobaan faktorial.

Sum of Square (SS) Tipe 2 : Hierarchical or Partially Sequential

Sum of Square (SS) tipe 2 adalah hasil reduksi dari residual error, oleh karena penambahan dari semua Sum of Square (SS) perlakuan lain ke dalam model kecuali Sum of Square (SS) yang berisi perlakuan yang diujikan. Atau dengan kata lain Sum of Square (SS) tipe 2 adalah hasil pengurangan dalam Sum of Square (SS) residual yang didapatkan dari hasil penambahan semua perlakuan yang dimasukan kedalam model, yang terdiri dari semua perlakuan yang tidak termasuk didalamnya perlakuan yang sedang diujikan. Sebuah interaksi dari suatu perlakuan memainkan perannya ketika semua perlakuan yang ada dimasukan ke dalam model.

Keunggulan Sum of Square (SS) tipe 2 :  Cocok digunakan untuk pembentukan model dan pilihan “natural” untuk regresi. Paling powefull jika tidak ada interaksi dalam model. Dan tidak ada variasi dalam urutan yang mana dari perlakuan dimasukan ke dalam model.

Kekurangan Sum of Square (SS) tipe 2 : Tidak cocok untuk rancangan faktorial.

Sum of Square (SS) Tipe 3 : Marginal atau Orthogonal

Sum of Square (SS) tipe 3 memberikan Sum of Square (SS) yang akan diperoleh untuk tiap variabel jika variabel tersebut dimasukan terakhir ke dalam model. Untuk itu, pengaruh dari tiap variabel di evaluasi setelah semua faktor lainnya dihitung untuk Sum of Square (SS). Karenanya hasil dari tiap faktor adalah serupa dengan apa yang diperoleh dengan menggunakan analisis Sum of Square (SS) tipe 1 ketika perlakuan di masukan kedalam model sebagai urutan yang terakhir.

Keunggulan Sum of Square (SS) tipe 3 : Tidak bergantung pada ukuran sampel. Penaksiran pengaruh/effek perlakuan bukan merupakan sebuah fungsi frekuensi dari observasi dari grup mana pun. (misal : untuk data yang tidak seimbang, dimana kita memiliki observasi dalam grup yang tidak sama jumlahnya). Ketika tidak terdapat missing cell (data hilang) dalam rancangan percobaan, rata-rata dari subpopulasi-nya merupakan “least square mean”, yang merupakan penaksir tak bias dari marginal mean untuk rancangan percobaan.

Kekurangan Sum of Square (SS) tipe 3 : Menguji pengaruh utama perlakuan dimana hadir interaksi antar perlakuan dan tidak cocok untuk rancangan dengan missing cell (data hilang).    

Sum of Square (SS) Tipe 4 : Goodnight or Balanced

Sama bervariasinya dengan Sum of Square (SS) tipe 3, akan tetapi tetapi dikhususkan untuk membangun model dengan adanya missing cells (data hilang).

……

Dari keempat tipe Sum of Square (SS) yang sudah kita uraiakan di atas, selanjutnya untuk penerapannya dapat dipamahi dan secara bijak diimplementasikan kepada data yang dimiliki. Ketepatan dalam pemilihan tipe Sum of Square (SS) harus diselaraskan dengan prioritas dari peneliti atau data master dalam mengeksplorasi pola jawaban atas rancangan percobaan yang ditetapkan di awal, atas pengaruh perlakuan yang khendak dicari dan ditemukan jawabannya.

Jika dilihat dari default software-software statistik, umumnya digunakan Sum of Square (SS) tipe 3 karena secara umum dapat mengakomodir berbagai jenis pencarian pemaknaan terhadap perlakuan-perlakuan (termasuk didalamnya interaksi).   

Sumber :

Langsrud, Ø. (2003), ANOVA for Unbalanced Data: Use Type II Instead of Type III Sums of Squares, Statistics and Computing, 13, 163-167.

—————————————————————————————————————————————————————————

Jika rekan peneliti memerlukan bantuan survey lapangan, data entry ataupun olahdata dapat menghubungi mobilestatistik.com :

Klik “Konsultasi Gratis” untuk mendapatkan informasi atau solusi terkait dengan pertanyaan-pertanyaan seputar metodologi penelitian.

—————————————————————————————————————————————————————————

Rancangan Percobaan Faktorial Dengan SPSS

Rancangan Percobaan Faktorial Dengan SPSS

Pada artikel terdahulu kita telah membahas dan menguraikan secara singkat dan sederhana mengenai rancangan percobaan faktorial. Sedikit kita ulas kembali bahwa pada rancangan percobaan faktorial kita tidak hanya melibatkan satu perlakuan saja pada unit percobaan (tidak seperti pada RAK dan RAL) melainkan dapat hingga k buah perlakuan. Perlu diperhatikan pula pada percobaan faktorial terdapat unsur efek kombinasi perlakuan, sehingga pada penerapannya pada software SPSS perlu ketelitian untuk menambahkan perhitungan efek kombinasi pada model analisisnya. Sebelum kita membahas pengaplikasian rancangan percobaan faktorial pada SPSS, ada baiknya para peneliti atau data master yang baru saja menemukan artikel ini untuk membaca pula artikel kita tentang Rancangan Percobaan Faktorial.

Lebih lanjut langkah-langkah menggunakan software SPSS pada Rancangan Percobaan Faktorial sebagai berikut.

1. Persiapkan data penelitian yang kita miliki dalam software Microsoft Excel, untuk memudahkan pembacaan pada data, buatlah entry data pengamatan seperti yang sudah kita tunjukkan pada artikel sebelumnya

rancangan, percobaan, faktorial
Gambar 1. Layout Data Rancangan Percobaan Faktorial

2. Buka software SPSS dan identifikasikan data pada jendela Variabel View, yang terdiri dari tiga jenis variabel yaitu Data Pengamatan [DATA], Kategori Perlakuan [A] dan Kategori Perlakuan [B]. Pengkategorian pada variabel Kategori Perlakuan [A] dan [B] dilakukan dengan cara melakukan koding pada data pada menu Values sesuai dengan kategori perlakuan yang diujikan. Kemudian pada Data View, data pengamatan dijadikan menjadi satu kolom. Tampilan akhir data pada SPSS yang siap untuk dianalisis adalah sebagai berikut.

rancangan, percobaan, faktorial, SPSS
Gambar 1. Jendela Variabel View
rancangan, percobaan, faktorial, SPSS
Gambar 2. Jendela Data View

3. Setelah data yang kita miliki siap untuk di analisis, langkah selanjutnya klik menu Analyze lalu pilih pada menu General Linear Model (GLM) lalu klik pada menu Univariate, maka akan muncul tabel sebagai berikut.

rancangan, percobaan, faktorial, SPSS
Gambar 1. Menu GLM Univariate
rancangan, percobaan, faktorial, SPSS
Gambar 2. Pendefinisian Variabel Pada GLM Univariate

4. Langkah selanjutnya adalah mendefinisikan variabel yang kita miliki pada kolom-kolom yang ada untuk dilakukan analisis pada data. Pertama, isikan pada tabel Dependent Variable variabel yang berisi data hasil pengamatan dan kedua isikan pada tabel Fixed Factor variabel yang berisikan kategori perlakuan yang kita libatkan dalam penelitian, seperti tampak pada gambar berikut. (baca kembali teori pada buku acuan untuk menentukan perlakuan yang kita miliki sebagai Fixed atau Random)

rancangan, percobaan, faktorial, SPSS
Gambar 1. Ploting Variabel Penelitian

5. Setelah men-set variabel kita dengan tepat sesuai dengan kolom variabelnya, maka langkah selanjutnya adalah mendefinisikan output apa saja yang kita kehendaki, 3 (tiga) menu utama yang sering digunakan adalah Models yang digunakan untuk mendefinisikan model matematis secara teori (main effect dan interaksi) serta metode perhitungan pada Anova, Post Hoc untuk melakukan uji lanjut antar data kelompok perlakuan dan Options untuk memberikan hasil analisis tambahan yang diperlukan dalam rangka interpretasi hasil analisis pada data (noted : untuk jenis analisis tertentu diperlukan teori pendukungnya), seperti tampak pada gambar berikut.

rancangan, percobaan, faktorial, SPSS
Gambar 1. Menu Pendefinisian Model Matematis Rancangan Faktorial
rancangan, percobaan, faktorial, SPSS
Gambar 2. Opsi Output SPSS
rancangan, percobaan, faktorial, SPSS
Gambar 3. Menu Post Hoc (Uji Lanjut) Pada Rancangan Percobaan

6. Setelah kita yakin dengan data yang kita miliki dan output tambahan yang kita perlukan, setelahnya kita klik OK dan SPSS akan memproses data hasil Rancangan Percobaan Faktorial kita. Output yang dihasilkan dari data Rancangan Percobaan Faktorial yang kita inputkan akan tampak seperti gambar berikut.

rancangan, percobaan, faktorial, SPSS
Gambar 1. Output SPSS Untuk Rancangan Faktorial

Sekilas tahapan yang dilakukan mirip atau hampir sama dengan langkah yang dilakukan untuk menguji data pada Rancangan Acak Kelompok (RAK). Yang perlu diperhatikan dan dipahami oleh peneliti atau data master adalah ciri pada “interaksi antar perlakuan” yang ada pada pengujian rancangan percobaan faktorial sehingga yang dipakai adalah “full faktorial” atau secara manual dapat pula disusun pada menu custom dengan menyertakan pula interaksi perlakuan. Oleh karenanya yang paling penting adalah pemahaman peneliti atau data master bahwa pada rancangan percobaan faktorial selalu dipertimbangkan efek interaksi dari perlakuan yang diujikan. Sedangkan pada rancangan acak kelompok (RAK) hanya dipertimbangkan levelisasi atau kategorisasi pada unit pengamatan (kelompok pengamatan) dan perlakuan yang dikenakan terhadap unit pengamatan hanyalah perlakuan tunggal. Jadi terdapat perbedaan mendasar yang harus dipahami oleh para peneliti atau data master agar tidak menimbulkan kebingungan ketika pengaplikasian data pada software SPSS.

Sekali lagi, yang menjadi perhatian penulis adalah penguasaan teori tentang Rancangan Percobaan Faktorial yang telah kita uraikan pada artikel sebelumnya sebelum mengaplikasikan pada software SPSS. SEMANGAT MENCOBA!!.

——————————————————————————————————————————————————————————

Jika rekan peneliti memerlukan bantuan survey lapangan, data entry ataupun olahdata dapat menghubungi mobilestatistik.com :

Klik “Konsultasi Gratis” untuk mendapatkan informasi atau solusi terkait dengan pertanyaan-pertanyaan seputar metodologi penelitian.

——————————————————————————————————————————————————————————

Rancangan Percobaan Faktorial

Rancangan Percobaan Faktorial

Pada pembahasan yang lalu kita sudah menyelesaikan pembahasan 2 rancangan dasar pada rumpun analisis rancangan percobaan yang harus peneliti ketahui dan pahami, karena dapat membantu memahami dan mengidentifikasi jenis dan pola data yang akan dihasilkan oleh penelitian dengan menggunakan rancangan percobaan. Dua teknik yang sebelumnya sudah kita bahas yaitu Rancangan Acak Lengkap (RAL) dan Rancangan Acak Kelompok (RAK). Bagi pembaca yang baru menemukan artikel ini silahkan untuk mempelajari dan memahami konsepsi dan aplikasi dengan menggunakan SPSS pada 4 artikel sebelumnya.

Rancangan Percobaan Faktorial

Pada kesempatan kali ini kita akan coba ulas secara konsepsi jenis dari teknik rancangan percobaan lainnya yaitu rancangan percobaan faktorial. Dalam pembahasan sebelumnya (RAL dan RAK) yang diulas hanyalah mengenai eksperimen dengan hanya melibatkan satu factor, yang secara umum dinyatakan dengan perlakuan, yang terdiri atas beberapa taraf. Analisis dilakukan untuk menyelidiki apakah terdapat perbedaan yang berarti mengenai rata-rata efek tiap taraf ataukah tidak. Akan tetapi sering terjadi bahwa kita ingin menyelidiki secara bersamaan efek beberapa factor yang berlainan, misalkan efek perubahan temperature, tekanan dan konsentrasi zak reaksi pada suatu proses kimia. Dalam hal ini tiap perlakuan merupakan kombinasi dari temperature, tekanan dan sejumlah konsentrasi zat reaksi. Apabila tiap factor terdiri dari beberapa taraf maka kombinasi tertentu dari taraf factor menentukan sebuah kombinasi perlakuan. Jika semua atau hampir semua kombinasi antar setiap factor kita perhatikan, maka eksperimen yang terjadi karenanya dinamakan eksperimen faktorial. Dikatakan dengan cara lain, eksperimen factorial adalah eksperimen yang semua (hampir semua) taraf sebuah factor tertentu dikombinasikan atau disilangkan dengan semua (hampir semua) taraf tiap factor lainnya yang ada dalam eksperimen tersebut. Berdasarkan adanya banyak taraf dalam tiap factor, eksperimen ini sering diberi nama dengan menambahkan perkalian antara banyak factor yang satu dengan banyak taraf factor lainnya (misal : a x b taraf faktor).

Model dan Anova  Desain Eksperimen Faktorial

Sebagai misal akan diambil huruf-huruf besar A, B, C dan seterusnya untuk menyatakan factor pada umumnya. Misalkan suatu eksperimen meliputi dua factor A dan B yang masing-masing mempunyai taraf i = 1, 2, …, a dan j = 1, 2, …, b. Misal eksperimen dilakukan dengan menggunakan desain acak sempurna yang untuk tiap kombinasi perlakuan telah digunakan n buah observasi. Pengacakan dilakukan sempurna dalam tiap sel untuk n buah unit yang diambil secara acak dari populasinya. Pengamatan Yijk merupakan pengamatan ke k dari sejumlah n yang diambil secara acak dari populasi yang terjadi karena kombinasi perlakuan taraf I factor A dan taraf j factor B. Model yang digunakan untuk desain factorial a x b ini adalah

desain eksperimen faktorial

Yijk      = variable respon hasil observasi ke-k

µ          = rata-rata yang sebenarnya (konstan)

Ai        =  efek taraf ke i factor A

Bj         = efek taraf ke j factor B

ABij      = efek interaksi taraf ke i factor A dan taraf ke j factor B

ϵk(ij)      = efek unit eksperimen ke k dalam kombinasi perlakuan (ij)

Untuk memudahkan dalam pembacaan data hasil pengamatan pada desain eksperimen factorial, komponen hasil pengamatan berdasarkan atas taraf factor dari factor A dan taraf factor dari factor B, dapat disusun pada model table berikut.

Dengan format tabel data di atas dapat memudahkan untuk perhitungan secara manual untuk memperoleh tabel ANOVA dan nilai F statistik yang digunakan untuk pengujian hipotesis. (lebih lengkap tentang rumus perhitungan manual dapat dipelajari langsung pada buku rancangan percobaan). Selain itu format tabel di atas juga dapat membantu peneliti untuk mengidentifikasikan bahwa data penelitian yang disusun merupakan hasil dari pengamatan dengan teknik rancangan percobaan faktorial. Adapun table ANOVA yang digunakan dalam rancangan eskperimen factorial sebagai berikut.

Pada table ANOVA di atas terlihat bahwa efek perlakuan yang dihitung dan diujikan ada 2 macam yaitu efek tunggal masing-masing factor (A dan B) dan efek kombinasi dari factor-faktor (AB). Hal ini yang membedakan dengan pembahasan racangan eksperimen sebelumnya yang hanya menghitung dan mengujikan factor tunggal (RAL dan RAK). Hanya saja dalam aplikasinya rancangan eksperimen factorial akan tetap berlandasarkan pada RAL dan RAK. Oleh karenanya pemahaman yang baik pada rancangan eksperimen dasar (RAL dan RAK) sangat diperlukan.

Hal lainnya, pada table ANOVA di atas tampak bahwa untuk menghitung statistic F guna melakukan pengujian statistis, perlu diketahui model mana yang diambil. Model yang dimaksud ditentukan oleh sifat taraf tiap factor, apakah tetap atau acak. (seperti telah dijelaskan pada pembahasan rancangan eksperimen RAL dan RAK).

Dan ketentuan lain terkait dengan data hasil pengamatan atau unit pengamatan itu sendiri, bisa dilihat dari desain percobaan yang mendasarinya (apakah RAL atau RAK). Dan pembaca dapat membaca dan memahami hal tersebut pada pembahasan artikel kita sebelumnya.

Pada kesempatan selanjutkan kita akan coba uraikan tahapan dalam melakukan analisis rancangan eksperimen factorial dengan bantuan software SPSS. Sebagai catatan perlu dipahami secara benar tentang penggunaan dan kriteria unit percobaan serta kriteria perlakuan, agar tidak terjadi kekeliruan pengaplikasian pada data yang dimiliki oleh peneliti atau data master. SEMANGAT MEMAHAMI!!.

Sumber :

  • Sudjana, Desain dan Analisis Eksperimen

—————————————————————————————————————————————————————————-

Jika rekan peneliti memerlukan bantuan survey lapangan, data entry ataupun olahdata dapat menghubungi mobilestatistik.com :

Klik “Konsultasi Gratis” untuk mendapatkan informasi atau solusi terkait dengan pertanyaan-pertanyaan seputar metodologi penelitian.

—————————————————————————————————————————————————————————

Ragam Uji Lanjut Dalam Rancangan Percobaan

Ragam Uji Lanjut Dalam Rancangan Percobaan

Pada empat artikel yang lalu kita sudah membahas 2 rancangan percobaan dasar yang seharusnya peneliti pahami baik itu secara konsepsi maupun aplikasi (menggunakan SPSS), yakni teknik Rancangan Acak Lengkap (RAL) dan Rancangan Acak Kelompok (RAK). Seperti sudah sedikit kita singgung pada pembahasan pada penggunaan aplikasi SPSS bahwa jika memang hasil uji F pada teknik rancangan percobaan baik itu RAL maupun RAK adalah signifikan maka untuk memastikan perlakuan mana yang secara berarti berbeda atau menjadikannya berbeda dapat diketahui dengan adanya uji lanjut.

Jika para pembaca sudah mengetahui atau kenal adanya uji 2 sampel dengan menggunakan uji t, tidak lah susah dalam memahami secara konsepsi pengaplikasian uji lanjut pada rancangan percobaan. Permasalahannya sekarang adalah tipe uji lanjut yang manakah yang memang cocok diterapkan pada data atau rancangan percobaan yang kita gunakan. Nah pada kesempatan kali ini kita akan coba uraikan secara singkat beberapa teknik uji lanjut yang terdapat pada teknik rancangan percobaan yang dapat digunakan oleh para peneliti.

Beda Nyata Terkecil (Least Significant Difference : LSD)

Uji ini secara singkat telah didiskusikan oleh Fisher (1935), sehingga dikenal juga sebagai beda nyata terkecil Fisher (Fisher’s LSD) atau uji t berganda (multiple t test). Perlu dicatat bahwa uji ini akan sangat baik digunakan apabila pengujian nilai tengah (mean) perlakuan yang akan diperbandingkan sebelumnya telah direncanakan. Sehingga sering juga dikenal sebagai pembanding terencana. Tingkat ketepatan uji LSD akan berkurang apabila digunakan untuk menguji semua kemungkinan pasangan nilai tengah (mean) perlakuan, yaitu melakukan pembanding yang tidak terencana (unplanned comparison).

Berikut ini dikemukakan beberapa aturan dasar yang perlu diperhatikan agar uji LSD dapat digunakan secara efektif.

  1. Gunakan uji LSD hanya bila uji F dalam analisis ragam (Anova) nyata (signifikan).
  2. Tidak menggunakan uji LSD untuk pembandingan semua kombinasi pasangan nilai tengah (mean) perlakuan bila percobaan mencakup lebih dari 5 perlakuan.
  3. Gunakan uji LSD untuk pembandingan terencana tanpa memperhatikan banyaknya perlakuan. Sebagai misal, dalam membandingkan setiap perlakuan terhadap kontrol, uji LSD dapat digunakan  sekalipun percobaan tersebut mencakup lebih dari 5 perlakuan.

Untuk menilai apakah dua nilai tengah (mean) perlakuan berbeda secara nyata, maka bandingkan selisih dua nilai tengah (mean) perlakuan tersebut dengan nilai LSD. Jika beda dua nilai tengah (mean) perlakuan lebih besar daripada nilai LSD, maka dua nilai tengah (mean) perlakuan dikatakan bebeda secara nyata (signifikan).

Uji Tukey (Honestly Significant Difference : HSD)

Uji Tukey atau sering juga disebut uji beda nyata jujur (honestly significant difference test). Uji ini diperkenalkan oleh J. W. Tukey (1953). Alternatif untuk pengujian pembandingan tanpa rencana, yaitu menguji semua kombinasi pasangan nilai tengah (mean) perlakuan dapat digunakan uji HSD.

Uji HSD sangat sederhana karena hanya membutuhkan satu nilai tunggal HSD yang digunakan sebagai pembanding. Jika beda dua nilai tengah (mean) perlakuan lebih besar dari nilai HSD maka kedua perlakuan dinyatakan berbeda.

Uji Wilayah Berganda Duncan (Duncan Multiple Range Test)

Uji Duncan didasarkan pada sekumpulan nilai beda nyata yang ukurannya semakin besar tergantung pada jarak di antara pangkat-pangkat dari dua nilai tengah (mean) yang dibandingkan. Uji Duncan dapat digunakan untuk menguji perbedaan diantara semua pasangan perlakuan yang mungkin tanpa memperhatikan jumlah perlakuan yang ada dari percobaan tersebut serta masih dapat mempertahankan tingkat nyata yang ditetapkan.

Berbeda dengan perhitungan uji pada LSD dan HSD, perhitungan signifikansi dua nilai tengah (mean) perlakuan pada uji Duncan cukup kompleks (tidak dibandingkan dengan hanya satu acuan nilai) dan dilakukan secara bertahap pada seluruh kombinasi nilai tengah (mean) dari perlakuan. Oleh karenanya dengan menggunakan uji wilayah berganda Duncan kita harus melakukan pembandingan sebanyak (t-1) kali, dimana t merupakan jumlah perlakuan yang akan dibandingkan.

Uji Student-Newman-Keuls (Uji S-N-K)

Student, Newman dan Kuels masing-masing telah memberikan kontribusi bagi pengembangan uji ini. Namun demikian uji ini sering disebut sebagai uji Newman-Keuls atau secara singkat hanya disebut sebagai metode Keuls. Berbeda dengan uji HSD yang hanya menggunakan satu nilai tunggal w (nilai acuan HSD) sebagai pembanding, pada uji S-N-K ini menggunakan beberapa nilai untuk pengujian (menggunakan beberapa nilai acuan w). Dan secara prosedur perhitungan uji S-N-K serupa prosedurnya dengan uji Duncan. 

Pada pengujian dengan uji S-N-K lebih kompleks dari segi kombinasi pengujian nilai tengah (mean) perlakuan dibandingkan dengan kombinasi pengujian nilai tengah (mean) perlakuan yang ada pada uji Duncan (hanya t-1 buah). Pada uji S-N-K akan ada ½t(t-1) pasangan nilai tengah (mean) perlakuan yang dapat dibandingkan.

Uji Dunnett (Dunnett Test)

Jika kita ingin membandingkan nilai tengah (mean) dari semua perlakuan dengan nilai tengah (mean) perlakuan kontrol, maka dapat menggunakan uji Dunnet. Jadi uji Dunnet merupakan suatu alat pengujian pembanding semua nilai tengah (mean) perlakuan dengan kontrol. Dunnet mengembangkan uji ini dan mempopulerkannya pada tahun 1955. Prosedur Dunnet membutuhkan sebuah nilai tunggal (d) untuk dijadikan pembanding.

Jika dilihat dari konsep penggunaan dari uji Dunnet mirip atau hampir sama dengan penggunaan uji LSD dan boleh jadi menjadi alternatif bagi peneliti jika memang memiliki kondisi yang di syaratkan oleh uji-uji tersebut.

….

Beberapa uji lanjut (5 jenis uji) dari teknik rancangan percobaan (jika Anova menghasilkan F yang signifikan) yang sudah kita kemukakan di atas haruslah dipahami secara baik dan benar. Pemahaman awal terkait dengan kondisi perlakuan dan tujuan penggunaannya pada perlakuan harus diperhatikan secara benar oleh peneliti. Agar penggunaan uji lanjut pada teknik rancangan percobaan dapat secara tepat memberikan konklusi yang diharapkan dari penelitian percobaan.

Hal lainnya, bagi peneliti yang menyenangi pembuktian perhitungan secara manual dapat mempelajarinya langsung pada buku-buku rancangan percobaan yang menjadi rujukan. Hal ini dikarenakan ada banyak notasi dan nilai-nilai yang harus dihitung dan diperoleh dari tabel-tabel acuan baku yang ada di buku sumber rujukan.

Selain itu ke-5 jenis pengujian di atas, ada beberapa teknik pengujian lanjutan yang lebih kompleks dan harus dipraktekan secara langsung (manual) bagi rancangan percobaan yang memiliki model dan perlakuan yang kompleks, beberapa teknik yang dapat dipelajari secara langsung diantaranya, Metode Pembanding Ortogonal, Uji Scheffe dan Analisis Gerombol (klaster) Scott-Knott. Adapun metode-metode yang sudah kita paparkan di atas biasanya metode yang umum digunakan pada penelitian yang cukup sederhana (baik dari teknik rancangan percobaan maupun jumlah perlakuan). Dan secara aplikasi dengan menggunakan SPSS menu untuk menemukan uji lanjut ada pada menu “Post Hoc”. SEMANGAT MEMAHAMI!!.

Sumber :

  • Vincent Gaspersz, Teknik Analisis Rancanangan Percobaan

—————————————————————————————————————————————————————————

Jika rekan peneliti memerlukan bantuan survey lapangan, data entry ataupun olahdata dapat menghubungi mobilestatistik.com :

Klik “Konsultasi Gratis” untuk mendapatkan informasi atau solusi terkait dengan pertanyaan-pertanyaan seputar metodologi penelitian.

—————————————————————————————————————————————————————————