Memahami Asumsi Non Autokorelasi Dalam Regresi

Memahami Asumsi Non Autokorelasi Dalam Regresi

Dalam artikel terdahulu kita sudah membahas tiga asumsi regresi linier klasik yaitu asumsi normalitas, asumsi homoskedastisitas dan asumsi multikolinearitas. Pada kesempatan kali ini kita akan bahas satu asumsi lain yang tidak kalah pentingnya, yang berkaitan dengan pengujian pada faktor gangguan atau residual yang dihasilkan oleh model regresi. Asumsi Autokorelasi. Seperti namanya autokorelasi, pastinya asumsi ini erat kaitannya dengan pola hubungan antar faktor gangguan atau residual. Tetapi pola korelasi seperti apakah yang dimaksudkan oleh autokorelasi pada gangguan atau residual yang dihasilkan oleh model regresi, akan dibahas secara lengkap pada uraian berikut.

Sifat Dasar Autokorelasi

Istilah autokorelasi didefinisikan sebagai korelasi yang terjadi antar anggota serangkaian observasi yang diurutkan menurut waktu (seperti dalam data deret waktu) atau ruang (seperti dalam data cross sectional). Dalam konteks regresi, model regresi linear klasik mengasumsikan bahwa autokorelasi tersebut tidak terdapat dalam gangguan ui. Sederhananya dapat dikatakan bahwa usur gangguan yang berhubungan dengan observasi tidak dipengaruhi oleh unsur gangguan yang berhubungan dengan pengamatan lain manapun.

Secara umum terdapat dua buah istilah terhadap konsep korelasi yang kita bicarakan disini yaitu autokorelasi dan serial korelasi. Menurut Tintner definisi autokorelasi yaitu “korelasi ketinggalan waktu (lag correlation) suatu deret tertentu dengan dirinya sendiri, tertinggal oleh sejumlah unit waktu”. Sedangkan serial korelasi didefinisikan sebagai “korelasi ketinggalan waktu (lag correlation) antara dua seri yang berbeda”. Dalam hal ini kaitannya dengan pengujian asumsi dalam regresi kita menggunakan konsep dan definisi autokorelasi bukan konsepsi dan definisi dari seria korelasi.

Pertanyaan sekarang adalah kenapa autokorelasi dalam model regresi dapat terjadi? Ada beberapa alasan diantaranya adalah sebagai berikut :

  1. Inersia atau kelembaman. Sebagai misal, deret waktu untuk GNP, indeks harga, produksi, kesempatan kerja dan pengangguran menunjukkan pola siklus. Dalam regresi yang meliputi data deret waktu, observasi yang beruntutan nampak saling bergantung. Hal ini lah yang mengindikasikan adanya autokorelasi pada model regresi yang terbentuk.
  2. Bias spesifikasi : kasus variabel yang tidak dimasukan. Dalam analisis seringkali terjadi bahwa peneliti memulainya dari model regresi yang masuk akal, yang mungkin bukan model yang “sempurna”. Setelah mengevaluasi pada residual yang dihasilkan model, sangat mungkin menyarankan bahwa beberapa variabel yang mulanya merupakan calon variabel tetapi tidak dimasukan dalam model untuk berbagai alasan yang seharusnya dimasukan. Hal tersebut merupakan kasus bias spesifikasi karena variabel yang tidak dimasukan. Seringkali terjadi bahwa dengan memasukan variabel tersebut dapat menghilangkan pola korelasi yang mungkin terjadi diantara residual.
  3. Bias spesifikasi : bentuk fungsional yang tidak benar. Jika pada point 2 terkait masalah variabel yang tidak dimasukan, dalam poin 3 autokorelasi disebabkan atas bentuk formulasi model regresi atas variabel-variabelnya yang tidak sesuai dengan seharusnya (tidak sesuai dengan formula standar atau formula yang benar). Sebagai misal kesalahan pada formulasi model regresi atas biaya marjinal, hal ini dapat menimbulkan hasil taksiran model yang terlalu tinggi (overestimate) ataupun terlalu rendah (underestimate).
  4. Fenomena Cobweb. Autokorelasi yang terjadi pada penawaran banyak komoditi pertanian dimana penawaran bereaksi terhadap harga dengan keterlambatan satu periode waktu karena keputusan penawaran memerlukan waktu untuk penawarannya (periode persiapan) jadi pada awal musim tanam tahun berjalan dipengaruhi oleh harga yang terjadi tahun sebelumnya.
  5. Manipulasi data. Dalam analisis empiris, data kasar seringkali “dimanipulasi”. Sebagai misal, dalam regresi deret waktu yang melibatkan data kuartal, data seperti itu biasaya diperoleh dari data bulanan dengan hanya menambahkan 3 observasi bulanan dan membagi jumlah tadi dengan 3. Pemerataan ini menghasilkan penghalusan (smothnees) ke dalam data dengan meratakan fluktuasi dalam data bulanan. Jadi, jika grafik yang memetakan data kuartal nampak jauh lebih halus daripada data bulanan, dan kehalusan ini mungkin dengan sendirinya mengakibatkan pola sistematis dalam gangguan, sehingga mengakibatkan autokorelasi.

Hal yang perlu diperhatikan bahwa meskipun autokorelasi terutama terdapat dalam data deret waktu, dapat juga terjadi dalam data cross sectional. Beberapa ahli menamakan autokorelasi dalam data cross sectional sebagai autokorelasi ruang (spatial autocorrelation), yaitu korelasi dalam ruang dan bukan dalam waktu. Oleh karenanya, dengan munculnya konsep keruangan (spatial) maka muncul juga analisis regresi spatial yang akan dibahas pada artikel lainnya.

Konsekuensi Autokorelasi

Ingat bahwa jika semua asumsi regresi linier klasik semua terpenuhi, maka dalam semua kelas penaksir tak bias linear, penaksir OLS (ordinary least square) adalah yang terbaik, yaitu penaksir yang memiliki vaarians minimum (efisien). Sekarang jika kita mempertahankan asumsi tadi kecuali tidak adanya autokorelasi dari model klasik, penaksri OLS mempunyai sifat berikut :

  1. Penaksir OLS tidak bias, yaitu dalam penyampelan berulang nilai rata-ratanya sama dengan nilai populasi yang sebenarnya.
  2. Penaksir tadi konsisten yaitu dengan meningkatnya ukuran sampel secara terbatas, penaksir tadi akan jatuh ke nilai yang sebenarnya.
  3. Tetapi, karena terdapat autokorelasi penaksir tadi tidak lagi efisien (tidak mempunyai varians minimum) baik dalam sampel kecil maupun besar asimtotik.

Jika kita tetap menerapkan OLS dalam situasi autokorelasi, konsekuensi berikut yang akan terjadi.

  1. Selang keyakinannya (dalam pengujian hipotesis) akan menjadi lebar secara tak perlu dan pengujian arti (signifikansi) kurang kuat.
  2. Pengujian t dan F yang biasa tidak lagi sah, dan jika diterapkan akan memberikan kesimpulan yang menyesatkan secara serius mengenai arti statistik dari koefisien regresi yang ditaksir.
  3. Penaksir OLS akan memberikan gambaran yang menyimpang dari nilai populasi yang sebenarnya. Dengan perkataan lain, penaksir OLS menjadi sensitif terhadap fluktuasi penyampelan.

Mendeteksi Autokorelasi

Seperti dijelaskan sebelumnya, autokorelasi mempunyai potensi untuk menimbulkan masalah serius pada model regresi linear klasik yang dihasilkan. Tindakan perbaikan karenanya sangat dibutuhkan. Tentu saja sebelum orang melakukan sesuatu penting untuk mengetahui apakah autokorelasi ada dalam suatu situasi tententu. Berikut akan dibahas beberapa pengujian yang biasa digunakan untuk mengetahui ada tidak nya autokorelasi.

  1. Metode Grafik. Dalam suatu deret waktu, metode grafik dapat dikerjakan dengan memetakan residual (et) terhadap waktu (t). Jika secara kasat mata terlihat ada pola sistematis yang terbentuk, maka kita curigai terdapat autokorelasi pada residual.
  2. Percobaan d dari Durbin Watson. Metode grafik dapat dilengkapi dengan metode analitis yang memberikan suatu statistik uji untuk menunjukkan apakah pola non random yang diamati dalam residual (et) yang ditaksir secara statistik signifikan. Keuntungan dari statistik d adalah bahwa statistik d didasarkan pada residual yang ditaksir, yang dihitung dalam analisis regresi. Karena keuntungan ini, nilai d dari Durbin-Watson biasa dilaporkan hasil perhitungannya bersamaan dengan R-Square, R-Square yang disesuaikan, nilai statistik t dan lainnya melalui bantuan software (misal : SPSS). Pengujian nilai d yang dihasilkan melalui proses perhitungan didasarkan pada kriteria yang ditetapkan oleh Durbin dan Watson, didasarkan atas batas bawah dL dan batas atas dU sedemikian rupa sehingga jika d yang dihitung terletak diluar nilai kritis dL dan dU, suatu keputusan dapat dibuat mengenai adanya autokorelasi positif atau negatif.

 

Kriteria Uji Autokorelasi Durbin-Watson

Tindakan Perbaikan

Karena dengan adanya autokorelasi penaksir OLS menjadi tidak efisien, penting untuk mencari tindakan untuk perbaikannya. Tetapi perbaikannya tergantung apa yang diketahui mengenai sifat ketergantungan di antara gangguan. Tindakan perbaikan di sini dibedakan menjadi 2 keadaan diantaranya jika struktur autokorelasi diketahui dan jika tidak diketahui.

  1. Jika Struktur Autokorelasi Diketahui. Karena gangguan ut tidak bisa diamati, sifat autokorelasi sering merupakan soal spekulasi atau keadaan mendesak yang bersifat praktis. Dalam prakteknya, biasanya diasumsikan bahwa gangguan ut mengikuti skema autoregresif derajat pertama. Model regresi yang dibentuk dengan skema autoregresif derajat pertama dikenal sebagai persamaan perbedaan yang digeneralisasikan. Persamaan regresi tersebut menyangkut peregresian Y atas X, tidak dalam bentuk asli, tetapi dalam bentuk perbedaan yang diperoleh dengan menggunakan suatu proporsi dari nilai suatu variabel dalam periode waktu sebelumnya dari nilainya dalam periode saat ini.

(Y – ρYt-1) = β0(1-ρ) + β1(Xt – ρXt-1) + εt (model regresi yang terbentuk)

  1. Jika Struktur Autokorelasi Tidak Diketahui. Meskipun jelas untuk diterapkan, regresi perbedaan yang digeneralisasikan biasanya sulit untuk dilakukan karena ρ (korelasi) dalam prakteknya tidak diketahui. Beberapa metode yang dapat diterapkan diantaranya,
    • Metode perbedaan pertama (the first difference method). Model dengan perbedaan pertama (persamaan poin 1 dengan asumsi ρ = -1) dikenal sebagai model regresi rata-rata bergerak (dua periode) karena kita melakukan regresi nilai satu rata-rata bergerak (moving average) terhadap yang lainnya.
    • ρ (korelasi) didasarkan pada statistik, d Durbin-Watson. Nilai d Durbin-Watson yang digunakan untuk mendapatkan harga taksiran ρ (korelasi) yang akan diterapkan pada model pada poin 1. Dimana nilai ρ ditaksir dengan persamaan ρ = 1 – (d/2).

Sumber : Guzarati, Zain, Ekonometrika Dasar

———————————————————————————————————————————————————-

  1. Jika rekan peneliti memerlukan bantuan Survey Lapangan, Survey Online ataupun Olah Data dapat menghubungi mobilestatistik.com  di :
  1. Klik “Konsultasi Gratis” untuk mendapatkan informasi atau solusi terkait dengan pertanyaan-pertanyaan seputar metodologi penelitian.
  • “1st Kirim Pertanyaan, Kami Jawab . . . InsyaAllah”

———————————————————————————————————————————————————-

online survey BPKH RI | LISREL | SEM | Eviews | Analisis Faktor | Validitas | SWOT | autokorelasi


survey lapangan kampung ketandan I path analisis | analisis jalur | LISREL
Pengujian Heteroskedastisitas Dalam Regresi Dengan SPSS

Pengujian Heteroskedastisitas Dalam Regresi Dengan SPSS

Salah satu pengujian terhadap model regresi yang sudah dibahas pada artikel sebelumya adalah tentang heteroskedastisitas pada model regresi. Heteroskedastisitas pada model regresi salah satunya dapat menyebabkan selang taksiran penaksir (koefisien regresi) menjadi lebar, dalam artian presisi yang didapatkan dari hasil penaksiran menjadi berkurang dan itu merupakan suatu kelemahan bagi model. Adapun salah satu yang menyebabkan terjadinya adalah sifat dasar masalah penelitian yang dihadapi yaitu pada kenyataanya semisal dalam data cross sectional yang digunakan dalam penelitian meliputi unit yang heterogen, oleh karenanya heteroskedastisitas mungkin lebih merupakan kelaziman dari pada pengecualian.

Lalu bagaimanakah kita mengetahui dalam model regresi yang kita hasilkan mengandung heteroskedastisitas? Dengan bantuan software SPSS dapat dengan mudah kita ketahui melalui hasil proses perhitungan, metode umum dan relative mudah untuk digunakan adalah dengan metode grafik. Metode grafik digunakan dengan cara memetakan kuadrat residual terhadap nilai Y yang ditaksir dari persamaan regresi, idenya adalah untuk mengetahui apakah nilai rata-rata yang ditaksir dari Y secara sistematis berhubungan dengan kuadrat residual.

Berikut kita perlihatkan tahapan untuk menguji heteroskedastisitas pada model regresi dengan menggunakan SPSS.

  1. Buka software SPSS lalu definisikan variabel penelitian kita pada jendela Variabel View, setelahnya masukan data kedalam software SPSS melalui jendela Data View. Dalam tampilan SPSS akan terlihat seperti gambar berikut : 

 

  1. Pilih menu Analyze lalu klik Regression lalu pilih Linear lalu klik, maka akan muncul jendela SPSS seperti gambar di bawah ini, yang berisikan menu-menu kelengkapan analisis regresi. 

 

  1. Masukan variabel-variabel pada sisi sebelah kanan ke dalam kolom pendefinisian variabel yaitu variabel dependent dan variabel independent guna menghasilkan model regresi yang kita inginkan. 

 

  1. Untuk mendapatkan hasil pengujian heteroskedastisitas pada model, maka klik menu Plots, maka akan muncul tampilan jendela seperti gambar di bawah. Lalu masukan variable SRESID pada sumbu Y dan ZPRED pada sumbu X. Lalu klik Continue. 

 

  1. Setelah masuk ke jendela utama analisis regresi, lalu klik OK. Maka SPSS akan memproses pembentukan model dan pengujian asumsi heteroskedastisitas pada residual dan akan muncul tampilan output SPSS seperti gambar di bawah ini. 

 

  1. Pada gambar output SPSS, kita mengidentifikasi bahwa model regresi yang dihasilkan terbebas dari masalah heteroskedastisitas. Hal ini ditunjukkan dari scatterplot yang terbentuk tidak membentuk pola yang sistematis, cenderung menyebar secara tidak beraturan di sekitar titik (0,0).

 

Dengan menggunakan software SPSS mempermudah proses pembuktian pemenuhan asumsi non heteroskedastisitas bagi model regresi yang dihasilkan. Pada bahasan selanjutkan kita akan jelaskan pula cara penggunaan software SPSS untuk pengujian asumsi regresi lainnya diantaranya autokorelasi dan linieritas. Sampai jumpa pada pembahasan artikel selanjutnya. SELAMAT MENCOBA!!!

———————————————————————————————————————————————————-

  1. Jika rekan peneliti memerlukan bantuan Survey Lapangan, Survey Online ataupun Olah Data dapat menghubungi mobilestatistik.com di :
  1. Klik “Konsultasi Gratis” untuk mendapatkan informasi atau solusi terkait dengan pertanyaan-pertanyaan seputar metodologi penelitian.
  • “1st Kirim Pertanyaan, Kami Jawab . . . InsyaAllah”

———————————————————————————————————————————————————-

 

online survey BPKH RI | LISREL | SEM | Eviews | Analisis Faktor | Validitas | SWOT | Heteroskedastisitas


survey lapangan kampung ketandan I path analisis | analisis jalur | LISREL
Goodness of Fit (GOF) Structural Equation Modeling (SEM)

Goodness of Fit (GOF) Structural Equation Modeling (SEM)

Dalam pembentukan suatu model hampir dipastikan diakhiri dengan pengujian kecocokan model atau pengujian kesesuaian model dengan data penelitian yang kita miliki. Pada pengujian model yang paling sederhana, regresi sebagai misal, dalam regresi pengujian kecocokan model dilakukan dengan pengujian ANOVA yang menghasilkan statistik F (GoF).

Dalam pengujian model regresi pun dihasilkan suatu nilai yang dinamakan indeks determinasi atau umum dikenal R-Square, yang merupakan ukuran representatif variasi atas suatu konsep variabel diukur oleh variabel lainnya atas suatu sampel atau populasi yang diteliti. Semakin besar nilai indeks determinasi yang diperoleh maka semakin baik model yang terbentuk atas variabel-variabel yang dilibatkan didalamnya. Selain itu, dikenal pula pengujian statistik t pada model, yang lebih umum dikenal sebagai pengujian parsial atau pengujian individual langsung pada variabel yang menyusun suatu model.

Tentunya semakin kompleks suatu model pengukuran atas suatu konsep maka tentu saja akan semakin kompleks pula instrumen yang diperlukan dalam pengujian kesesuaian atau kecocokan model yang diperlukan. Pada kesempatan kali ini kita akan membahas beberapa instrumen yang digunakan dalam pengujian kesesuaian atau kecocokan model SEM, yang pada artikel sebelumnya sudah sedikit dibahas bagaimana cara menggunakan LISREL untuk menghasilkan perhitungan model SEM.

GOF Pada Model SEM  

Menurut Joreskog dan Sorbom untuk menguji model SEM dapat dilakukan melalui pendekatan 2 tahap, yaitu menguji model pengukuran dan setelah itu penguji model pengukuran dan struktural secara simultan. Dalam metode analisis SEM, stataistik yang diuji secara individual dengan menggunakan uji t. Melalui keluaran diagram jalur statistik T-Values, LISREL mengkonfirmasikan hasil uji t secara lengkap dengan tingkat kesalahan uji ditetapkan sebesar 0,05. Jika hasil uji menunjukkan nonsignifikan, LISREL akan mencetak keluaran tersebut dengan sebuah garis diagram jalur berwarna merah.

Disamping secara individual, SEM juga menguji model yang diusulkan secara keseluruhan, yaitu melalui uji kesesuaian model (overall model fit test). Dalam SEM, yang dimaksud dengan “kesesuaian model” adalah kesesuaian antara matriks kovarian sampel dengan estimasi matriks kovarians populasi yang dihasilkan, secara informasi umum dapat dijelaskan bahwa keragaman yang ada pada sampel sesuai atau represestatif dengan keragaman yang ada pada populasi.

Karena itu, pertanyaan utama yang diajukan dalam uji kesesuaian model adalah “Apakah model yang diusulkan menghasilkan sebuah estimasi matriks kovarians populasi yang konsisten dengan matriks kovarians sampel?”. Suatu model (model pengukuran dan model struktural) dikatakan fit atau sesuai dengan data apabila matriks kovarian sampel tidak berbeda dengan estimasi matriks kovarian populasi yang dihasilkan. Maka hipotesis statistik untuk uji kesesuaian model dalam SEM dirumuskan,

H0 : Tidak ada perbedaan antara matriks kovarian sampel dengan matriks kovarian populasi

H1 : Ada perbedaan antara matriks kovarian sampel dengan matriks kovarian populasi

Uji kesesuaian model diharapkan dapat menerima hipotesis nol. Bagaimana uji kesesuaian model dilakukan? Dalam SEM uji tersebut dilakukan dengan menggunakan beberapa ukuran kesesuaian (Goodness of Fit Test-GOF). Pada dasarnya ukuran GOF terdiri dari tiga yaitu ukuran yang bersifat absolute (absolute fit test), komparatif (incremental fit measures) dan parsimoni (parsimonius fit measures).

Absolute Fit Test 

  1. Chi-Square dan nilai P : ukuran uji kesesuaian model berbasis maximum likelihood (ML). Diharapkan nilainya rendah sehingga diperoleh nilai P (probability) yang tinggi melebihi 0,05.
  2. Goodness of Fit Indeks (GFI) : ukuran kesesuaian model secara deskriptif. Nilainya diharapkan tinggi lebih besar sama dengan 0,90.
  3. Root Mean Square Error of Approximation (RMSEA) : nilai aproksimasi akar rata-rata kuadrat error. Diharapkan nilainya rendah lebih kurang sama dengan 0,08.
  4. Expected Cross-Validation Index (ECVI) : ukuran kesesuaian model jika model yang diestimasi diuji lagi dengan sampel yang berbeda tetapi dengan ukuran yang sama.

Incremental Fit Measures

  1. Ajusted GFI (AGFI) : nilai GFI yang disesuaikan. Nilainya diharapkan tinggi lebih besar sama dengan 0,90.
  2. Normed Fit Index (NFI) : ukuran kesesuaian model dengan basis komparatif terhadap base line atau model null. Model null umumnya merupakan suatu model yang menyatakan bahwa antara variabel-variabel yang terdapat dalam model yang diestimasi tidak saling berhubungan. Nilainya diharapkan tinggi lebih besar sama dengan 0,90.
  3. Comparative Fit Index (CFI) : ukuran kesesuaian model berbasis komparatif dengan model null. Nilainya diharapkan tinggi lebih besar sama dengan 0,90.
  4. Incremental Fit Index (IFI) : ukuran kesesuaian komparatif yang dikemukakan oleh Bollen. Nilainya diharapkan tinggi lebih besar sama dengan 0,90.
  5. Relative Fit Index (RFI) : Nilainya diharapkan tinggi lebih besar sama dengan 0,90.
  6. Tucker-Lewis Index : ukuran kesesuaian model sebagai koreksi terhadap ukuran NFI. Nilainya diharapkan tinggi lebih besar sama dengan 0,90.

Parsimonius Fit Measures

  1. Normed Chi Square (NCS) : ukuran kesesuaian yang bersifat parsimoni, yaitu menguji koefisien yang diestimasi memenuhi syarat untuk mencapai suatu model fit. NCS bernilai anatar 1 s.d 5 mengindikasikan model fit dengan data.
  2. Parsimonious Normed Fit Index (PNFI) : ukuran kesesuaian yang bersifat parsimoni sebagai modifikasi ukuran NFI. Nilainya diharapkan tinggi lebih besar sama dengan 0,90.
  3. Parsimonious GFI (PGFI) : ukuran kesesuaian parsimoni sebagai koreksi dari GFI. Nilainya diharapkan tinggi lebih besar sama dengan 0,90.
  4. Akaike Information Criterion (AIC) : ukuran kesesuaian parsimoni dari Akaike. Semakin kecil AIC mendekati nol (0) menunjukkan model lebih parsimoni.

Model yang memenuhi ukuran-ukuran GOF yang telah dijelaskan di atas merupakan model yang baik bagi data. Secara prinsip, semakin banyak kriteria ukuran yang terpenuhi oleh model maka model tersebut cocok untuk data atau sampel yang kita punya. Karena pada prinsipnya SEM menguji suatu teori yang dimodelkan pada data sampel yang kita punya, maka diperlukan ketelitian dan kehati-hatian dalam menentukan kesimpulan atas model yang didapatkan berdasarkan kriteria GOF. Semangat Mempelajari!!!

———————————————————————————————————————————————————-

  1. Jika rekan peneliti memerlukan bantuan Survey Lapangan, Survey online ataupun Olah Data dapat menghubungi mobilestatistik.com di :
  1. Klik “Konsultasi Gratis” untuk mendapatkan informasi atau solusi terkait dengan pertanyaan-pertanyaan seputar metodologi penelitian.
  • “1st Kirim Pertanyaan, Kami Jawab . . . InsyaAllah”

———————————————————————————————————————————————————-

online survey BPKH RI | LISREL | SEM | Eviews | Analisis Faktor | GoF


survey lapangan kampung ketandan I path analisis | analisis jalur | LISREL
Memahami Asumsi Homoskedastisitas Dalam Regresi

Memahami Asumsi Homoskedastisitas Dalam Regresi

Pengujian asumsi pada model regresi berikutnya yang akan kita bahas adalah terkait dengan non heteroskedastisitas (Homoskedastisitas) pada model regresi. Sama halnya dengan pengujian asumsi normalitas model regresi yang menjadi sumber pengujian adalah faktor gangguan atau residual ui, pengujian hetorskedastisitas pun berkaitan dengan faktor gangguan atau residual ui yang dihasilkan oleh model.

Sifat dasar heteroskedastisitas

Satu dari asumsi penting model regresi linear klasik adalah bahwa varians tiap unsur gangguan u­­­­i yang tergantung pada nilai yang dipilih dari variable yang menjelaskan (X) adalah suatu angka konstan yang sama dengan σ2 (varians yang sama).

Sebagai misal untuk membuat perbedaan antara homoskedastisitas dan heteroskedastisitas menjadi jelas, asumsikan bahwa terdapat model 2 variabel Y menyatakan tabungan dan X menyatakan pendapatan. Kemungkinan pertama, menunjukkan bahwa meningkatnya pendapatan, tabungan secara rata-rata juga meningkat. Pada kondisi pertama memungkinkan varians gabungan dari variable tabungan akan tetap sama (homogen) untuk semua perubahan pada pendapatan. Kemungkinan kedua, varians tabungan meningkat bersamaan dengan peningkatan pendapatan. Keluarga berpendapatan tinggi secara rata-rata menabung lebih banyak dari pada keluarga berpendapatan rendah maka variabilitas dalam tabungannya pun akan lebih besar.

Dalam konsep homoskedastisitas dari factor gangguan ui dalam model regresi linear klasik dikehendaki kemungkinan yang pertama dan jika terjadi kemungkinan yang kedua maka factor gangguan ui pada model regresi linear klasik terdapat heteroskedastisitas (non Homoskedastisitas).

Konsekuensi Heteroskedastisitas

Ingat bahwa jika semua asumsi model regresi linear klasik dipenuhi, penaksir OLS adalah BLUE, yaitu penaksir yang dihasilkan memiliki varians yang minimum atau efisien. Jika kita tetap memiliki semua asumsi kecuali homoskedastisitas, dapat ditunjukkan bahwa penaksi OLS yang dihasilkan tetap tidak bias dan konsisten tetapi penaksir tadi tidak lagi efisien baik dalam sampel kecil maupun besar (asimtotik). Dengan perkataan lain, dalam penyampelan berulang penaksir OLS secara rata-rata sama dengan nilai populasi sebenarnya (sifat tidak bias) dan dengan meningkatnya ukuran sampel sampai tak terhingga penaksir OLS mengarah pada nilai sebenarnya (sifat konsisten) tetapi variansnya tidak lagi minimum bahkan jika besarnya sampel meningkat secara tak terbatas (sifat efisien asimtotik).

Maka jika terdapat permasalahan heteroskedastisitas (non Homoskedastisitas) pada model regresi maka akan terdapat hal berikut pada nilai taksiran koefisien regresi :

  1. Jika heteroskedastisitas dicurigai ada maka secara teori BLUE dari nilai koefisien regresi b adalah penaksir kuadrat terkecil tertimbang (weighted least square-WLS), bukan penaksir b konvensional (ordinary least square-OLS)
  2. Varians taksiran dari koefisien regresi b yang diperoleh dengan asumsi heteroskedastisitas tidak lagi minimum, varians taksiran dari koefisien regresi b tertimbang yang minimum.
  3. Dalam kaitannya dengan poin 2, jika menggunakan varians dengan asumsi heteroskedastisitas, maka selang keyakinan untuk koefisien regresi b adalah lebar yang sebenarnya tidak diperlukan dan pengujian signifikansi menjadi kurang kuat.
  4. Sebagai konsekuensi lanjutan dalam penggunaan varians yang tidak tepat (terdapat heteroskedastisitas), kita mungkin mengambil kesimpulan yang sama sekali salah karena pengujian t dan F dari hasil OLS sangat mungkin untuk membesar-besarkan signifikansi statistic dari parameter yang ditaksir secara OLS. Oleh karena itu dalam kasus heteroskedastisitas penaksir OLS konvensional tidak sesuai. Secara idealnya, tentu saja kita harus menggunakan metoda WLS sebagaii gantinya.

 

Pendeteksian heteroskedastisitas

Bagaimana orang tahu bahwa heteroskedastisitas terdapat dalam model regresi linear klasik? Dalam hal ini ahli ekonometrika berbeda dengan ahli pengetahuan dalam bidang seperti pertanian atau biologi dimana mereka mempunyai kontrol yang cukup baik atas subjek mereka. Lebih sering dalam penelitian ekonomis hanya terdapat satu sampel nilai Y yang berhubungan dengan suatu nilai X tertentu. Dan tidak ada cara untuk orang mengetahui nilai varians σ2 dari hanya satu observasi Y. Jadi dalam sebagian besar kasus yang melibatkan penelitian ekonometrika, heteroskedastisitas mungkin merupakan persoalan “spekulasi” atau seperti dikatakan oleh seorang pengarang, bersifat ad hock. (professor Zvi Griliches). Beberapa metode informal dan “formal” untuk mendeteksi heteroskedastisitas diantaranya,

  1. Sifat dasar masalah. Seringkali sifat dasar masalah yang sedang dipelajari menyarankan apakah heteroskedastisitas nampak dijumpai. Pada kenyataanya, dalam data cross sectional yang meliputi unit yang heterogen, heteroskedastisitas mungkin lebih merupakan kelaziman (aturan) dari pada pengecualian. Jadi misal, dalam analisis cross sectional yang melibatkan pengeluaran investasi dalam hubungannya dengan penjualan, tingkat bunga dan seterusnya, heteroskedastisitas biasanya bisa diperkirakan akan ada jika perusahaan kecil, menengah dan besar disampel secara bersamaan.
  2. Metode grafik. Jika tidak ada informasi apriori atau empiris mengenai sifat heteroskedastisitas, dalam praktek orang dapat melakukan analisis regresi atas asumsi bahwa tidak ada heteroskedastisitas dan kemudian melakukan pengujian sesudahnya (post mortem) dari kuadrat residual yang ditaksir untuk melihat jika residual tadi menunjukkan pola yang sistematis. Meskipun kuadrat residual tidak sama dengan factor gangguan ui, residual kuadrat tadi dapat digunakan sebagai pendekatan khususnya jika ukuran sampel cukup besar. Metode grafik digunakan dengan cara memetakan kuadrat residual terhadap nilai Y yang ditaksir dari persamaan regresi, idenya adalah untuk mengetahui apakah nilai rata-rata yang ditaksir dari Y secara sistematis berhubungan dengan kuadrat residual.
  3. Pengujian Park. Park memformalkan metode grafik dengan menyarankan bahwa varians σ2 (kuadrat residual) adalah suatu fungsi yang menjelaskan variable X. Dengan kata lain pengujian Park dilakukan dengan cara meregresikan varians σ2 (kuadrat residual) atas variable X. Jika nilai koefisien regresi b signifikan secara statistic, ini menyarankan bahwa dalam data terdapat heteroskedastisitas. Apabila ternyata tidak signifikan, kita bisa menerima asusmsi homoskedastisitas. Pengujian Park merupakan prosedur 2 tahap, tahap pertama, melakukan regresi OLS dengan tidak memandang persoalan heteroskedastisitas dan diperoleh residual. Kemudian tahap kedua, melakukan regresi kuadrat residual dengan variable X.
  4. Pengujian Glesjer. Pengujian Glesjer mempunyai semangat yang sama dengan pengujian Park. Setelah mendapatkan residual dari regresi OLS, Glesjer menyarankan untuk meregresikan nilai absolute dari residual terhadap variable X yang diperkirakan mempunyai hubungan erat dengan varians yang dihasilkan.
  5. Pengujian rank korelasi dari Spearman. Langkah pertama, cocokan regresi terhadap data mengenai Y dan X dan dapatkan nilai residual. Langkah kedua, dengan mengambil nilai mutlak residual lalu merangking baik harga mutlak dari residual dan variable X sesaui dengan urutan yang meningkat atau menurun dan menghitung koefisien rank korelasi Spearman. Langkah ketiga, dengan mengasumsikan bahwa koefisien rank korelasi populasi adalah nol (0) dan n > 8, tingkat signifikansi dari rank korelasi Spearman diuji dengan pengujian t. Jika t yang dihitung melebihi t kritis, kita bisa menerima hipotesis adanya heteroskedastisitas, kalau tidak kita menolaknya. Jika model regresi meliputi lebih dari satu variable X, koefisien rank korelasi Spearman dapat dihitung dan diuji pada tiap variable X secara terpisah.

 

Tindakan Perbaikan

Seperti telah diutarakan sebelumnya, heteroskedastisitas tidak merusak sifat ketidakbiasan dan konsistensi dari penaksir OLS, tetapi penaksir tadi tidak lagi efisien. Ketidakefisienan ini membuat prosedur pengujian hipotesis yang biasa, nilainya menjadi diragukan. Oleh karena itu, tindakan perbaikan jelas-jelas diperlukan. Ada dua pendekatan untuk dilakukan yaitu jika varians σ2 diketahui dan jika tidak diketahui.

  1. Jika varians σ2 diketahui, Metode Kuadrat Terkecil Tertimbang (Weighted Least Square). Dalam metode kuadrat terkecil biasa atau tidak tertimbang diperoleh dengan meminimumkan Residual Sum of Square (RSS) terhadap yang tidak diketahui (unknown). Dalam meminimumkan RSS ini, metode kuadrat terkecil tak tertimbang secara implicit memberikan bobot yang sama untuk setiap kuadrat residual. Sedangkan, metode kuadrat terkecil tertimbang memperhitungkan titik-titik ekstrim dari nilai kuadrat residual, dengan meminimumkan bukan RSS biasa atau tak tertimbang melainkan RSS yang sudah terboboti (weighted). Dimana nilai bobot (weight) dipilih sedemikian rupa sehingga observasi yang ekstrim mendapatkan bobot yang lebih kecil.
  2. Jika varians σ2 tidak diketahui. Dalam penelitian ekonometrik pengetahuan sebelumnya mengenai varians jarang dimiliki. Sebagai hasilnya, metode kuadrat terkecil tertimbang yang dibahas sebelumnya tidak dapat segera digunakan. Oleh karena itu, dalam praktek orang bisa terpaksa menggunakan suatu asumsi ad hoc mengenai varians dan mentransformasikan model regresi asli dengan cara sedemikian rupa sehingga model yang telah ditransformasikan akan memenuhi asumsi homoskedastisitas.
    1. Asumsi 1 : Jika semata-mata karena metode grafik “spekulasi” atau pendekatan Park dan Glejser dipercayai bahwa varians dari ui proporsional terhadap kuadrat variable yang menjelaskan X, orang bisa mentransformasikan model regresi asli dengan cara membagi model asli seluruhnya dengan variabel Xi.
    2. Asumsi 2 : Jika percaya bahwa varians dari ui bukan proporsional terhadap kuadrat variable yang menjelaskan X, tetapi proporsional terhadap variable yang menjelaskan X itu sendiri, maka model asli dapat ditransformasikan dengan cara membagi model asli seluruhnya dengan akar kuadrat dari variable Xi.
    3. Asumsi 3 : Jika nilai yang diharapkan dari varians ui proporsional dengan nilai yang diharapkan dari Y (nilai taksiran Y), maka model asli dapat ditransformasikan dengan cara membagi model asli seluruhnya dengan nilai Yi yang ditaksir.
    4. Asumsi 4 : Transformasi Log (Ln) pada model asli. Sering kali ini mengurangi heteroskedastisitas. Hal ini disebabkan karena transformasi yang memampatkan skala pengukuran variable mengurangi perbedaan antara kedua nilai tadi dari sepuluh kali lipat menjadi perbedaan dua kali lipat. Misal, angka 80 adalah 10 kali lipat dari 8, tetapi Ln 80 hanya 2 kali lipat dari Ln 8.

 

Untuk menyimpulkan pembahasan mengenai tindakan perbaikan, harus ditekankan kembali bahwa semua transformasi yang dibahas tadi adalah bersifat ad hoc, pada dasarnya kita berspekulasi terhadap varians. Yang mana di antara transformasi yang dibahas tadi akan bekerja tergantung sifat dari masalah dan keparahan dari Heteroskedastisitas. SELAMAT MEMPELAJARI!!!

Sumber : Guzarati, Zain, Ekonometrika Dasar

———————————————————————————————————————————————————-

  1. Jika rekan peneliti memerlukan bantuan Survey Lapangan, Survey Online ataupun Olah Data dapat menghubungi mobilestatistik.com di :
  1. Klik “Konsultasi Gratis” untuk mendapatkan informasi atau solusi terkait dengan pertanyaan-pertanyaan seputar metodologi penelitian.
  • “1st Kirim Pertanyaan, Kami Jawab . . . InsyaAllah”

———————————————————————————————————————————————————-

online survey BPKH RI | LISREL | SEM | Eviews | Analisis Faktor | Validitas | SWOT | Homoskedastisitas


survey lapangan kampung ketandan I path analisis | analisis jalur | LISREL

3 Prinsip Dalam Rancangan Percobaan (RANCOB)

3 Prinsip Dalam Rancangan Percobaan (RANCOB)

Apa yang dimaksud dengan Rancangan Percobaan?? Rancangan percobaan merupakan suatu metode yang digunakan dalam penelitian dimana terdapat rekayasa melalui penentuan jenis perlakuan yang diberikan kepada satuan pengamatan atau objek yang dijadikan percobaan itu sendiri.

Kita flashback sejenak siapa sebernarnya penemu metode Rancangan Percobaan. Ia adalah R.A Fisher. R.A Fisher yang memperkenalkan konsep modern dari pengacakan dan analisis ragam (analysis of variance) dalam membandingkan perlakuan-perlakuan pada tahun 1922. So… Rancangan Percobaan merupakan metode lama dalam suatu penelitian. Untuk kekinian kebanyakan peneliti atau mahasiswa banyak mengenal lebih kepada tools pengolahaan data hasil penelitiannya yaitu ANOVA dengan uji F-nya.

Ada 3 hal prinsip ketika kita berbicara tentang Rancangan Percobaan. (1) Pengacakan (2) Pengulangan dan (3) Kontrol Lokal. Apa maksud dari ketiga hal prinsip tersebut? Ketiga hal prinsip tersebut wajib diketahui oleh para peneliti sebelum masuk dan melakukan tindakan percobaan didalam laboratoriumnya. Prinsip-prinsip tersebut perlu memdapatkan perhatian yang baik oleh peneliti guna mengoptimalkan proses perencanaan, pelaksanaan dan hasil penelitian itu sendiri.

(1) Pengacakan

Pengacakan berarti membuat sesuatu menjadi berantakan?? hehe… bukan itu maksud dari pengacakan disini. Jika kita mempunyai sejumlah objek yang akan diberikan treatment oleh beberapa jenis dari perlakuan, maka sejumlah objek tersebut memiliki kesempatan yang sama untuk mendapatkan satu diantara beberapa perlakuan tersebut. Singkatnya kita tidak tahu sebelumnya dan tidak mempunyai kecenderungan untuk memberikan treatment suatu perlakuan terhadap sejumlah objek pengamatan pada penilaian subjektif dari peneliti, akan tetapi just chosen by its drawn.

Kegunaan pengacakan ini diantaranya menjamin kesahihan (validity) atas pendugaan tak bias dari kekeliruan percobaan, nilai tengah perlakuan serta perbedaan diantara satuan percobaan.

(2) Pengulangan

Pengulangan dalam suatu percobaan diartikan dimana suatu perlakuan dasar yang muncul lebih dari satu kali dari suatu percobaan atas satuan percobaan. Ini diartikan bahwa dari satu kelompok perlakuan terdapat beberapa satuan percobaan yang dikenakan perlakuan yang sama.

Kegunaan pengulangan ini diantaranya memberikan dugaan dari kekeliruan percobaan, meningkatkan ketelitian suatu percobaan melalui pengurangan simpangan baku dari nilai tengah perlakuan, memperluas cakupan penarikan kesimpulan dan mengendalikan ragam kekeliruan (error variance)

(3) Kontrol Lokal

Kontrol lokal dalam suatu percobaan diartikan sebagai teknik mengurangi kekeliruan percobaan dengan cara sedemikian rupa sehingga keragaman yang ada di antara satuan-satuan percobaan tidak “masuk ke dalam” perbedaan di antara perlakuan-perlakuan.

Pengendalian lokal dapat dikerjakan melalui (1) Perancangan Percobaan -pemilihan jenis rancangan percobaan yang tepat bagi satuan percobaan- (2) Penggunaan Pengamatan Pengiring dan (3) Pemilihan Ukuran Satuan Percobaan

Dengan memahami ketiga prinsip dasar dari metoda Perancangan Percobaan di atas, diharapkan ketika peneliti menentukan dan menerapkan model percobaan pada satuan pengamatan bisa menuntun penelitian yang dilakukan pada hasil yang efisien dan optimal.

Ada beberapa jenis dari rancangan percobaan yang akan dibahas dalam artikel selanjutnya diataranya Rancangan Acak Lengkap (RAL), Rancangan Acak Kelompok (RAK), Rancangan Bujur Sangkar Latin (RBL), Rancangan Bujur Sangkar Graceo Latin (RBGL), Rancangan Kelompok Tak Lengkap, Rancangan Faktorial, Rancangan Petak Terbagi (RPT) dan Rancangan Petak-petak Terbagi (RPPT)

———————————————————————————————————————————————————-

  1. Jika rekan peneliti memerlukan bantuan Survey Lapangan, Survey Online ataupun Olah Data dapat menghubungi mobilestatistik.com di :
  1. Klik “Konsultasi Gratis” untuk mendapatkan informasi atau solusi terkait dengan pertanyaan-pertanyaan seputar metodologi penelitian.
  • “1st Kirim Pertanyaan, Kami Jawab . . . InsyaAllah”

———————————————————————————————————————————————————-

online survey BPKH RI | LISREL | SEM | Eviews | Analisis Faktor | Validitas | SWOT | Rancangan Percobaan


survey lapangan kampung ketandan I path analisis | analisis jalur | LISREL
Pengujian Asumsi Multikolinearitas Dalam Regresi Dengan SPSS

Pengujian Asumsi Multikolinearitas Dalam Regresi Dengan SPSS

Salah satu pengujian terhadap model regresi yang sudah dibahas pada artikel sebelumya adalah tentang multikolinieritas pada model regresi utamanya regresi dengan lebih dari satu variabel bebas (independent). Multikolinearitas pada model regresi salah satunya dapat menyebabkan selang taksiran penaksir (koefisien regresi) menjadi lebar, dalam artian presisi yang didapatkan dari hasil penaksiran menjadi berkurang dan itu merupakan suatu kelemahan bagi model. Adapun salah satu yang menyebabkan terjadinya multikolinearitas adalah bias spesifikasi yaitu penetapan pola struktur keterkaitan variabel yang dimodelkan berdasarkan teori, yang berlaku pada populasi tetapi kurang terpenuhi secara sampel.

Lalu bagaimanakah kita mengetahui dalam model regresi yang kita hasilkan mengandung multikolinearitas? Dengan bantuan software SPSS dapat dengan mudah kita ketahui melalui hasil proses perhitungan, dua diantara ukuran yang sering dipakai adalah nilai VIF (variance inflation factor)  atau TOL (tolerance). Dengan ketentuan bahwa nilai VIF berada di bawah 10,00 dan TOL lebih dari 0,10, maka diambil keputusan bahwa model regresi tidak terdapat masalah multikolinearitas.

Berikut kita perlihatkan tahapan untuk menguji koliniearitas pada model regresi dengan menggunakan SPSS.

  1. Buka software SPSS lalu definisikan variabel penelitian kita pada jendela Variabel View, setelahnya masukan data kedalam software SPSS melalui jendela Data View. Dalam tampilan SPSS akan terlihat seperti gambar berikut : 

 

  1. Pilih menu Analyze lalu klik Regression lalu pilih Linear lalu klik, maka akan muncul jendela SPSS seperti gambar di bawah ini, yang berisikan menu-menu kelengkapan analisis regresi. 

 

  1. Masukan variabel-variabel pada sisi sebelah kanan ke dalam kolom pendefinisian variabel yaitu variabel dependent dan variabel independent guna menghasilkan model regresi yang kita inginkan. 

 

  1. Untuk mendapatkan hasil pengujian multikolinearitas pada model, maka klik menu Statistics, maka akan muncul tampilan jendela seperti gambar di bawah. Lalu centang pada Colinearity Diagnostic lalu klik Continue. 

 

  1. Setelah masuk ke jendela utama analisis regresi, lalu klik OK. Maka SPSS akan memproses pembentukan model dan pengujian asumsi multikolinearitas pada residual dan akan muncul tampilan output SPSS seperti gambar di bawah ini. 

 

  1. Pada gambar output SPSS, kita mengidentifikasi nilai multikolinearitas pada menu Coefficients, dimana terdapat nilai Tolerance dan VIF. Sesuai dengan kriteria yang sudah dijelaskan di atas, pada hasil pengujian dapat dikatakan memenuhi kedua kriteria tadi, sehingga dapat dikatakan model regresi yang dihasilkan terbebas dari masalah multikolinearitas

 

Dengan menggunakan software SPSS mempermudah proses pembuktian pemenuhan asumsi non multikolinearitas bagi model regresi yang dihasilkan. Pada bahasan selanjutkan kita akan jelaskan pula cara penggunaan software SPSS untuk pengujian asumsi regresi lainnya diantaranya heteroskedastisitas, autokorelasi dan linieritas. Sampai jumpa pada pembahasan artikel selanjutnya. SELAMAT MENCOBA!!!

———————————————————————————————————————————————————-

  1. Jika rekan peneliti memerlukan bantuan Survey Lapangan, Survey Online ataupun Olah Data dapat menghubungi mobilestatistik.com :
  1. Klik “Konsultasi Gratis” untuk mendapatkan informasi atau solusi terkait dengan pertanyaan-pertanyaan seputar metodologi penelitian.
  • “1st Kirim Pertanyaan, Kami Jawab . . . InsyaAllah”

———————————————————————————————————————————————————-

online survey BPKH RI | LISREL | SEM | Eviews | Analisis Faktor | Validitas | SWOT | Multikolinearitas


survey lapangan kampung ketandan I path analisis | analisis jalur | LISREL
Memahami Asumsi Non Multikolinearitas Pada Regresi

Memahami Asumsi Non Multikolinearitas Pada Regresi

Pada pembahasan sebelumnya kita sudah membahas pentingnya pemenuhan asumsi normalitas pada model regresi, utamanya pada pengujian pada residual atau faktor ganguan (ui). Kali ini kita akan membahas asumsi regresi yang berkenaan dengan variabel independen (bebas), dimana satu syarat dalam model regresi hubungan antar variabel independen (bebas) haruslah bernilai sekecil mungkin dan tidak signifikan. Secara logika sederhana apabila antar variabel independen (bebas) terdapat korelasi yang tinggi dan signifikan pastilah salah satunya dapat dijadikan variabel akibat atau dependen (tergantung). Secara lebih rinci apa akibat dari adanya multikolinearitas pada model regresi hingga cara untuk menanggulanginya akan dibahas pada uraian berikut ini.

Sifat Dasar Multikolinearitas

Istilah multikolinearitas mula-mula ditemukan oleh Ragnar Frisch. Pada mulanya kolinearitas berarti adanya hubungan linear yang sempurna atau pasti (nilai korelasi yang terjadi antar variabel independen sama dengan satu), diantara beberapa atau semua variabel yang menjelaskan dari model regresi.

Mengapa model regresi linear klasik mengasumsikan tidak adanya multikolinearitas di antara variabel bebas (X)? Dasar pemikirannya adalah jika multikolinearitas sempurna terjadi, maka koefisien regresi yang didapatkan menjadi tak tentu dan kesalahannya (ui) tak terhingga. Sedangkan, jika multikolinearitas kurang sempurna terjadi, maka koefisien regresi meskipun bisa ditentukan tetapi memiliki kesalahan standar (standar error) yang besar, yang berarti bahwa koefisien regresi tidak dapat ditaksir dengan ketepatan yang tinggi.

Hal lainnya yaitu harus ditekankan dengan sungguh-sungguh bahwa X diasumsikan bernilai tetap atau nonstokastik (bukan nilai peluang) dan multikolinearitas pada dasarnya merupakan fenomena regresi sampel. Suatu yang harus diperhatikan, ketika kita mengendalikan fungsi regresi populasi atau teoritis, kita percaya bahwa semua variabel bebas (X) yang termasuk dalam model mempunyai pengaruh terpisah atau independen atas variabel tak bebas (Y). Tetapi mungkin terjadi bahwa dalam sampel tertentu yang mana pun yang digunakan untuk menguji model populasi atau teoritis, beberapa atau semua variabel bebas (X) sangat kolinear sehingga kita tidak bisa mengisolasi pengaruh individual terhadap variabel tak bebas (Y). Jadi bisa dikatakan, sampel yang digunakan menjatuhkan kita, meskipun secara teori mengatakan bahwa semua variabel bebas (X) penting.

Misal : “Ahli ekonomi berteori bahwa disamping pendapatan, kekayaan konsumen juga suatu penentu penting dari belanja konsumsi.” Sekarang mungkin terjadi ketika kita memperoleh data mengenai pendapatan dan kekayaan, kedua variabel mungkin sangat berkorelasi atau tidak berkorelasi sempurna. Orang kaya biasanya cenderung mempunyai pendapatan yang lebih tinggi. Jadi meskipun dalam teori pendapatan dan kekayaan adalah calon logis untuk menjelaskan perilaku konsumsi, dalam praktek (dalam sampel) mungkin sulit memecah pengaruh terpisah dari pendapatan dan kekayaan atas konsumsi.

Konsekuensi Multikolinearitas

Ingat bahwa jika asumsi model regresi linear klasik dipenuhi, penaksir OLS dari koefisien regresi adalah linear, tak bias dan mempunyai varians minimum (BLUE). Dalam kasus multikolinear sempurna penaksir OLS menjadi tak tentu dan varians atau kesalahan standarnya menjadi tak tentu pula. Jika kolinearitas tajam tetapi tak sempurna, maka konsekuensi ini akan terdapat.

  1. Meskipun penaksir OLS mungkin bisa diperoleh, kesalahan standarnya cenderung semakin besar dengan meningkatnya tingkat korelasi antara peningkatan variabel. (k-variabel)
  2. Karena besarnya kesalahan standar, selang keyakinan untuk parameter populasi yang relevan cenderung untuk lebih besar. (perlu diingat semakin sempit selang keyakinan semakin teliti nilai penaksir atau koefisien regresi yang diperoleh)
  3. Dalam kasus multikolinearitas yang tinggi, data sampel mungkin sesuai dengan sekelompok hipotesis yang berbeda-beda. Jadi probabilitas untuk menerima hipotesis yang salah meningkat.
  4. Selama multikolinearitas tidak sempurna, penaksiran koefisien regresi adalah mungkin tetapi taksiran dan kesalahan standarnya menjadi sangat sensitif terhadap sedikit perubahan dalam data.
  5. Jika multikolinearitas tinggi, seseorang mungkin memperoleh R2 yang tinggi tetapi tidak satu pun atau sangat sedikit koefisien regresi yang ditaksir yang penting secara statistik (tidak signifikan).

Pendeteksian Multikolinearitas

Setelah mempelajari sifat dari konsekuensi multikolinearitas, pertanyaan yang wajar adalah bagaimana orang mengetahui adanya kolinearitas dalam setiap situasi tertentu, terutama dalam model yang meliputi lebih dari dua variabel yang menjelaskan. Ada beberapa metode deteksi, diantaranya adalah

  1. Kolinearitas seringkali diduga ketika R2 tinggi (misal : antara 0,700 s.d 1,00) dan ketika korelasi derajat nol (dua variabel) juga tinggi, tetapi tak satu pun atau sangat sedikit koefisien regresi parsial yang secara individual penting secara statistik atas dasar pengujian t yang konvensional.
  2. Karena multikolinearitas timbul karena satu atau lebih variabel yang menjelaskan merupakan kombinasi linear yang pasti atau mendekati pasti dari variabel yang menjelaskan lainnya, satu cara untuk mengetahui variabel bebas (X) yang mana yang berhubungan dengan variabel bebas (X) lainnya adalah dengan meregresi tiap variabel bebas (X) atas sisa variabel bebas (X) dengan menghitung R2 yang diperoleh.

Multikolinearitas dan Peramalan

Jika satu-satunya tujuan analisis regresi adalah peramalan, maka multikolinearitas bukan merupakan masalah serius, karena semakin tinggi R2 semakin baik peramalan. Tetapi ini hanya benar jika kolinearitas yang ada di antara variabel bebas (X) dalam sampel tertentu juga tetap akan ada dimasa yang akan datang.

Jika hubungan linear yang diperkirakan di antara variabel bebas (X) dalam suatu sampel tidak berlanjut ke (sampel) yang akan datang, peramalan akan menjadi semakin tidak pasti. Lebih jauh lagi, jika tujuan analisis tidak hanya peramalan tetapi juga taksiran yang bisa dipercaya dari parameter, multikolinearitas yang serius akan menjadi masalah karena menyebabkan besarnya kesalahan standar (standar error) dari penaksiran.

Tindakan Perbaikan Multikolinearitas

Apa yang dapat dikerjakan apabila terdapat multikolinearitas yang serius? Ada petunjuk yang tidak mungkin salah karena pada dasarnya multikolinearitas adalah masalah sampel. Tetapi petunjuk praktis berikut dapat dicoba, keberhasilannya tergantung pada keparahan masalah kolinearitas.

  1. Informasi apriori. Bagaimana orang mendapatkan informasi apriori? Ini bisa datang baik dari teori atau dari penelitian empiris sebelumnya di mana masalah kolinearitas ternyata kurang serius.
  2. Menghubungkan data cross-sectional dan data urutan-waktu. Misal : “kita dapat memperoleh taksiran yang dapat dipercaya dari elastisitas permintaan (Y) atas variabel harga dan pendapatan (X) cenderung berkolinearitas, dalam data seperti itu, pada suatu titik waktu, harga tidak banyak berubah sehingga multikolinearitas dapat dihindari.”
  3. Mengeluarkan suatu variabel atau variabel-variabel dan bias spesifikasi. Ketika dihadapkan dengan multikolinearitas yang parah, satu cara yang “paling sederhana” untuk dilakukan adalah mengeluarkan satu dari variabel yang berkolinear. Tetapi dalam mengeluarkan suatu variabel dari model, kita mungkin melakukan bias spesifikasi atau kesalahan spesifikasi. Bias spesifikasi timbul dari spesifikasi yang tidak benar dari model yang digunakan dalam analisis. Misal : “jika teori ekonomi mengatakan bahwa pendapatan dan kekayaan kedua-duanya seharusnya dimasukan ke dalam model yang menjelaskan belanja konsumsi, mengeluarkan variabel kekayaan akan menimbulkan bias spesifikasi.”
  4. Transformasi variabel. Misal : “Kita mempunyai data deret waktu mengenai belanja konsumsi, pendapatan dan kekayaan. Satu alasan untuk multikolinearitas yang tinggi antara pendapatan dan kekayaan dalam data seperti itu adalah bahwa dengan berjalannya waktu, kedua variabel cenderung untuk bergerak dalam arah yang sama.” Untuk menanggulanginya yaitu dengan menggunakan model regresi perbedaan pertama (t-1) sering mengurangi kepelikan multikolinear karena meskipun tingkat Xt mungkin sangat berkorelasi, tidak ada alasan secara apriori untuk percaya bahwa perbedaan (t-1) juga sangat berkorelasi.
  5. Penambahan data baru. Karena multikolinearitas merupakan ciri sampel, maka mungkin bahwa dalam sampel lain yang meliputi kolinear variabel yang sama tidak begitu serius seperti sampel pertama. Kadang-kadang hanya dengan sekedar meningkatnya ukuran sampel, bisa mengurangi masalah kolinearitas.
  6. Teknik lanjutan yang mungkin dicobakan yaitu dengan menggunakan teknik faktor analisis dan prinsipal komponen analisis dalam rumpun multivariat.

Satu kehati-hatian yang perlu diingat yaitu dalam analisis regresi ketika orang mendapatkan nilai t yang tidak signifikan untuk koefisien regresi, seringkali ada godaan untuk menyalahkan tidak adanya signifikan pada multikolinearitas. Tetapi penyebab sebenarnya mungkin bukan multikolinearitas, tetapi hal lain, misalkan bias spesifikasi. Mungkin model yang digunakan dalam analisis dispesifikasi secara salah, atau dukungan teoritis untuk model tadi sangat lemah.

Sumber : Guzarati, Zain, Ekonometrika Dasar

———————————————————————————————————————————————————-

  1. Jika rekan peneliti memerlukan bantuan Survey Lapangan, Survey Online ataupun Olah Data dapat menghubungi mobilestatistik.com di :
  1. Klik “Konsultasi Gratis” untuk mendapatkan informasi atau solusi terkait dengan pertanyaan-pertanyaan seputar metodologi penelitian.
  • “1st Kirim Pertanyaan, Kami Jawab . . . InsyaAllah”

———————————————————————————————————————————————————-

online survey BPKH RI | LISREL | SEM | Eviews | Analisis Faktor | Validitas | SWOT | multikolinearitas


survey lapangan kampung ketandan I path analisis | analisis jalur | LISREL
Pengujian Asumsi Normalitas Dalam Regresi Dengan SPSS

Pengujian Asumsi Normalitas Dalam Regresi Dengan SPSS

Pada artikel sebelumnya kita sudah membahas secara teoritis mengenai asumsi normalitas pada regresi. Kita sudah mengetahui makna dan pentingnya untuk mencari tahu apakah model regresi yang didapatkan merupakan model yang memenuhi syarat sebagai model yang memenuhi asumsi normalitas? Agar mudahnya pada kesempatan kali ini kita akan bahas penggunaan software SPSS untuk mendapatkan hasil pengujian normalitas dari model regresi. Adapun langkah-langkahnya adalah sebagai berikut :

  1. Buka software SPSS lalu definisikan variabel penelitian kita pada jendela Variabel View, setelahnya masukan data kedalam software SPSS melalui jendela Data View. Dalam tampilan SPSS akan terlihat seperti gambar berikut : 

 

  1. Pilih menu Analyze lalu klik Regression lalu pilih Linear lalu klik, maka akan muncul jendela SPSS seperti gambar di bawah ini, yang berisikan menu-menu kelengkapan analisis regresi. 

 

  1. Masukan variabel-variabel pada sisi sebelah kanan ke dalam kolom pendefinisian variabel yaitu variabel dependent dan variabel independent guna menghasilkan model regresi yang kita inginkan. 

 

  1. Untuk mendapatkan hasil pengujian normalitas pada model, maka klik menu Plots, maka akan muncul tampilan jendela seperti gambar di bawah. Lalu centang pada kolom Standardized Residual Plots untuk Histogram dan Normal Probability Plots lalu klik Continue. 

 

  1. Lalu klik pada menu Save, pada kolom residual centang Standardized lalu klik Continue, fungsinya adalah untuk memunculkan nilai residual yang sudah terstandarkan (normal baku) pada jendela Data View untuk dilakukan pengujian lebih lanjut. 

 

  1. Setelah masuk ke jendela utama analisis regresi, lalu klik OK. Maka SPSS akan memproses pembentukan model dan pengujian asumsi normalitas pada residual dan akan muncul tampilan output SPSS seperti gambar di bawah ini. 

 

  1. Pada gambar output SPSS, kita mengidentifikasi normalitas residual dalam bentuk gambar. Dimana residual dari model regresi dikatakan normal apabila histogram yang dihasilkan membentuk lonceng simetris antara sisi kanan dan sisi kiri atau sebaran titik-titik residual menyebar pada garis diagonal pada gambar Normal P-P Plot. Pada pengujian di atas dapat dikatakan memenuhi kedua kriteria tadi, sehingga dapat dikatakan sebaran dari residual yang dihasilkan dari model regresi berdistribusi normal. 

 

  1. Untuk memastikan apakah sebaran residual yang dihasilkan sudah berdistribusi normal, maka ada satu cara lagi untuk memastikannya yaitu menguji data residual yang telah distandardkan (normal baku) yang sudah terlebih dahulu kita simpan pada jendela Data View. 

 

  1. Untuk pengujiannya, umum digunakan uji normalitas dengan menggunakan uji Kolmogorov-Smirnov. Caranya klik Analyze pilih Nonparametric Test pilih 1 Sampel K-S lalu klik, maka akan muncul jendela seperti gambar di bawah ini. 

 

  1. Untuk menguji normalitas pada residual geser variabel Standardized Residual pada kolom sebelah kanan ke sebelah kiri. Pada kolom Test Distribution centang pada pilihan Normal lalu klik OK.
  2. Setelah klik OK maka akan muncul jendela output SPSS seperti dibawah ini. Kriteria uji untuk menyatakan residual berdistribusi normal adalah nilai Asymp. Sig harus bernilai lebih besar dari 0,05 (alpha : 5%). Pada output SPSS terlihat bahwa nilai Asymp Sig. yang didapat sebesar 0,941 lebih besar dari 0,05 maka dikatakan bahwa residual yang dihasilkan model regresi memenuhi asumsi normalitas. 

 

Dengan menggunakan software SPSS mempermudah proses pembuktian pemenuhan asumsi normalitas bagi model regresi yang dihasilkan. Pada bahasan selanjutkan kita akan jelaskan pula cara penggunaan software SPSS untuk pengujian asumsi regresi lainnya diantaranya multikolinieritas, heteroskedastisitas, autokorelasi dan linieritas. Sampai jumpa pada pembahasan artikel selanjutnya. SELAMAT MENCOBA!!!

———————————————————————————————————————————————————-

  1. Jika rekan peneliti memerlukan bantuan Survey Lapangan, Survey Online ataupun Olah Data dapat menghubungi mobilestatistik.com di :
  1. Klik “Konsultasi Gratis” untuk mendapatkan informasi atau solusi terkait dengan pertanyaan-pertanyaan seputar metodologi penelitian.
  • “1st Kirim Pertanyaan, Kami Jawab . . . InsyaAllah”

———————————————————————————————————————————————————-

online survey BPKH RI | LISREL | SEM | Eviews | Analisis Faktor | Validitas | SWOT | Normalitas


survey lapangan kampung ketandan I path analisis | analisis jalur | LISREL
Memahami Asumsi Normalitas Dalam Regresi

Memahami Asumsi Normalitas Dalam Regresi

Yang banyak dibicarakan ketika menggunakan metoda statistik adalah uji normalitas. Dalam konteks regresi berbeda dalam penentuan objek uji variabel-nya. Dalam penentuan suatu metode yang akan digunakan apakah rumpun parametrik atau non parametrik kita menguji normalitas data atas variabel-variabel yang akan diujikan. Sedangkan uji normalitas yang diterapkan pada regresi dalam rangkan menghasilkan model yang optimal (BLUE) yaitu salah satunya pengujian normailtas pada faktor gangguan ui (disturbace) yang dihasilkan dari model regresi.

Distribusi Probabilitas Gangguan (u)

Seperti kita ketahui bahwa metode populis dalam menaksir persamaan regresi adalah dengan metode kuadrat terkecil biasa (ordinary least square, OLS). Dengan menggunakan metode OLS akan dihasilkan model persamaan regresi linier beserta faktor gangguan (ui). Asumsi yang dibuat mengenai ui hanyalah bahwa gangguan yang dihasilkan memiliki nilai yang diharapkan (rata-rata) nol, tidak berkorelasi dan memiliki varians konstan. Kalau tujuan dari OLS hanya untuk melakukan penaksiran titik, maka OLS akan mencukupi. Tetapi penaksiran titik hanyalah satu aspek inferensi statistik, sedangkan lainnya adalah pengujian statistik.

Jadi, perhatian kita tidak hanya dalam mendapatkan nilai koefisien regresi (b), tetapi dalam menggunakannya untuk membuat penyataan atau kesimpulan mengenai koefisien regresi (b) yang sebenarnya. Lebih umum lagi, tujuan kita bukan semata-mata untuk memperoleh fungsi regresi sampel, tetapi menggunakannya dalam mengambil kesimpulan mengenai fungsi regresi populasi. Karena tujuan kita adalah penaksiran maupun pengujian hipotesis, kita perlu menetapkan spesifikasi distribusi, utamanya pada probablitias gangguan (disturbance) ui.

Asumsi Kenormalan

Regresi linier normal klasik mengasumsikan bahwa tiap ui didistribusikan secara normal dengan rata-rata nol dan varians σ2. Kenapa harus distribusi normal? Ada beberapa alasan diantaranya :

  1. ui merupakan pengaruh gabungan (terhadap variabel tak bebas) dari sejumlah besar variabel bebas yang tidak dimunculkan secara explisit dalam model regresi. Pengaruh variabel-variabel yang diabaikan ini diharapkan kecil dan dalam keadaan paling baik, random. Berdasarkan pendekatan central limit theorem dapat ditunjukkan bahwa kalau ada sejumlah besar variabel random yang didistribusikan secara independen dan identik, maka distribusi jumlahnya cenderung ke distribusi normal bila banyaknya variabel seperti itu meningkat tak terbatas.
  2. Suatu varians dari central limit theorem menyatakan bahwa bahkan apabila banyaknya variabel tidak sangat besar atau jika variabel ini tidak independen benar, jumlahnya masih bisa didistribusikan secara normal.
  3. Dengan asumsi kenormalan, distribusi probabilitas penaksir OLS dengan mudah diperoleh, karena merupakan sifat distribusi normal bahwa setiap fungsi linier dari variabel-variabel yang diditribusikan secara normal dengan sendirinya didistribusikan secara normal. Maka berlaku jika faktor gangguan ui berdistribusi normal, maka penaksir OLS yaitu koefisien regresi (b) juga berdistribusi normal.
  4. Distribusi normal adalah distribusi yang relatif sederhana yang hanya melibatkan dua parameter (rata-rata dan varians), distribusi ini sangat dikenal dan sifat-sifat teoritisnya telah dipelajari secara luas dalam statistik matematik.

Sifat-sifat Penaksir OLS Menurut Asumsi Normalitas

  1. Penaksir OLS tidak bias
  2. Penaksir OLS mempunyai varians yang minimum. Ini berarti penaksir OLS tidak bias dengan varians yang minimum dikatakan sebagai penaksir yang efisien
  3. Konsisten yaitu dengan meningkatnya ukuran sampel secara tak terbatas, penaksir mengarah ke (convergen) nilai populasi yang sebenarnya

Dari uraian di atas kiranya dapat kita sama-sama pahami bahwa untuk memahami penggunaan asumsi normalitas pada model regresi yang dihasilkan, fokus perhatian kita adalah pada faktor gangguan ui atau umum digunakan dalam proses pengujian oleh software SPSS yaitu pengujian nilai residual yang dihasilkan oleh model regresi. Secara prinsip semakin kecil residual yang dihasilkan dapat diartikan semakin presisi model yang dihasilkan untuk meramalkan hasil yang sebenarnya terjadi secara numerik (angka). Oleh karenanya pada bahasan sebelumnya disebutkan bahwa rata-rata untuk faktor gangguan u­i mendekati atau sama dengan nol adalah baik.

Selain itu, nilai varians (nilai keragaman) dari residual yang cenderung konsisten menandakan bahwa nilai gangguan tiap pengamatan dari nilai rata-ratanya cenderung konsisten dan ini yang diharapkan dari suatu peramalan yang dihasilkan dari suatu model. Dengan terpenuhi dua konsep tersebut maka terpenuhilah asumsi normalitas pada faktor gangguan ui dimana rata-rata cenderung mendekati atau sama dengan  nol (0) dan varians cenderung konstan.

Efek dari terpenuhinya faktor gangguan ui yang memenuhi asumsi normalitas, maka dalam hal ini menunjukkan bahwa koefisien regresi (b) yang dihasilkan dalam model juga semakin baik dan memiliki distribusi normal pula. Oleh karenanya, teramat penting dalam suatu penaksiran model regresi terpenuhi asumsi normalitas pada nilai gangguan ui dengan benefit-benefit yang telah dipaparkan sebelumnya.

Sumber : Guzarati, Zain, Ekonometrika Dasar

———————————————————————————————————————————————————-

  1. Jika rekan peneliti memerlukan bantuan Survey Lapangan, Survey Online ataupun Olah Data dapat menghubungi mobilestatistik.com di :
  1. Klik “Konsultasi Gratis” untuk mendapatkan informasi atau solusi terkait dengan pertanyaan-pertanyaan seputar metodologi penelitian.
  • “1st Kirim Pertanyaan, Kami Jawab . . . InsyaAllah”

———————————————————————————————————————————————————-

online survey BPKH RI | LISREL | SEM | Eviews | Analisis Faktor | Validitas | SWOT | Normalitas


survey lapangan kampung ketandan I path analisis | analisis jalur | LISREL
Mengenal Sifat Dasar Analisis Regresi

Mengenal Sifat Dasar Analisis Regresi

Statement yang sering kita temui dalam keseharian kita terkait dengan suatu phenomena yang kita temui diantaranya “pengaruh” atau “hubungan”. Kata “pengaruh” atau “hubungan” sering digunakan dalam rangka mencari keterkaitan dua keadaan yang terjadi baik itu karena adanya sebab akibat atau karena hanya adanya singgungan atau keterkaitan saja. Umum kita menggunakan “pengaruh” atau “hubungan” hanya sebatas asumsi melalui evaluasi panca indera saja, tanpa membuktikannya melalui proses kuantifikasi (peng-angka-an). Salah satu alat statistik yang membantu proses kuantifikasi asumsi-asumsi tadi adalah Regresi.

Asal Sejarah Istilah Regresi

Istilah regresi diperkenalkan oleh Francis Galton. Dalam suatu makalah yang terkenal, Galton mengemukakan bahwa meskipun ada kecenderungan bagi orang tua yang tinggi mempunyai anak-anak yang tinggi dan bagi orang tua yang pendek untuk mempunyai anak-anak yang pendek, distribusi tinggi suatu populasi tidak berubah secara mencolok (besar) dari generasi ke generasi. Penjelasannya adalah bahwa ada kecenderungan bagi rata-rata tinggi anak-anak dengan orang tua yang mempunyai tinggi tertentu untuk bergerak atau mundur (regress) ke arah tinggi rata-rata seluruh populasi.

Hukum regresi semesta (law of universal regression) dari Galton diperkuat oleh temannya Karl Pearson, yang mengumpulkan lebih dari seribu catatan tinggi anggota kelompok keluarga. Ia menemukan bahwa rata-rata tinggi anak laki-laki kelompok ayah (yang) tinggi kurang daripada tinggi ayah mereka dan rata-rata tinggi anak laki-laki kelompok ayah (yang) pendek lebih besar dari pada tinggi ayah mereka, jadi “mundurnya”  (“regressing”) anak laki-laki yang tinggi maupun yang pendek serupa ke arah rata-rata tinggi semua laki-laki. Dengan kata-kata Galton, ini adalah “kemunduran ke arah sedang”.

Secara sederhana analisis Regresi dapat diartikan berkenaan dengan studi ketergantungan satu variabel, variabel tak bebas, pada satu atau lebih variabel lain, variabel yang menjelaskan (explanatory variables), dengan maksud menaksir dan atau meramalkan nilai rata-rata hitung (mean) atau rata-rata (populasi) variabel tak bebas, dipandang dari segi nilai yang diketahui atau tetap (dalam pengambilan sampel berulang) variabel yang menjelaskan (yang belakangan).

Ketergantungan Statistik Vs Fungsional

Analisis regresi menaruh perhatian pada apa yang dikenal dengan ketergantungan di antara variabel yang bersifat statistik, bukannya fungsional atau deterministik, seperti pada ilmu fisika klasik. Dalam hubungan di antara variabel yang bersifat statistik, pada dasarnya menghadapi variabel random atau stokhastik (proses stokhastik adalah proses yang penuh dengan kegagalan), yaitu variabel yang mempunyai distribusi probabilitas. Dalam ketergantungan fungsional atau deterministik, berhadapan dengan variabel tetapi variabel tidak bersifat statistik atau stokhastik.

Misal :

Ketergantungan hasil panen pada suhu, curah hujan, sinar matahari dan pupuk, pada dasarnya bersifat statistik dalam arti bahwa variabel yang menjelaskan (explanatory variables), meskipun jelas penting, tidak akan memungkinkan ahli agronomi untuk meramalkan hasil panen secara akurat karena kesalahan yang terdapat dalam pengukuran variabel-variabel dan juga sekelompok faktor (variabel) lain yang secara bersama-sama mempengaruhi hasil panen tadi. Jadi ada sesuatu yang hakiki atau variabilitas random dalam variabel tak bebas (hasil panen), yang tidak bisa dijelaskan sepenuhnya (tidak peduli berapapun banyaknya variabel yang diperhitungkan).

Dalam fenomena deterministik, berhadapan dengan hubungan sejenis, yang ditunjukkan oleh hukum Newton mengenai gravitasi, yang menyatakan : setiap partikel dalam alam semesta menarik setiap partikel lain dengan suatu gaya yang langsung sebanding dengan hasil kali masanya dan berbanding terbalik dengan kuadrat jarak antar partikel-pertikelnya. F = k(m1m2/r2).

Semisal, jikalau ada kesalahan pengukuran, katakan k dari hukum Newton mengenai grafitasi, hubungan yang seharusnya deterministik menjadi hubungan statistik. Karena dalam keadaan ini gaya hanya dapat diramalkan secara kira-kira dari mulai k (dan m1, m2, r2) tertentu yang mengandung kesalahan. Variabel F dalam kasus tersebut menjadi suatu variabel random.

Regresi dan Sebab Akibat

Meskipun analisis regresi berurusan dengan ketergantungan satu variabel pada variabel lain, ini tidak perlu berarti sebab akibat. Dalam perkataan Kendall dan Struart :”Sesuatu hubungan statistik, bagaimanapun kuat dan sugestif, tidak pernah dapat menetapkan hubungan sebab akibat. Gagasan mengenai sebab akibat harus datang dari luar statistik, pada akhirnya dari beberapa teori atau lainnya.”

Regresi Vs Korelasi

Analisis korelasi tujuan utamanya adalah untuk mengukur kuat atau derajat hubungan linier antara dua variabel. Sedangkan regresi tujuan utamanya untuk menaksir atau meramalkan nilai rata-rata satu variabel atas dasar nilai yang tetap variabel-variabel lain.

Teknik regresi dan korelasi mempunyai beberapa perbedaan yang mendasar. Dalam analisis regresi berlaku sifat asimetri yaitu cara bagaimana variabel tak bebas dan variabel yang menjelaskan diperlakukan. Variabel tak bebas diasumsikan bersifat statistik, random atau stokhastik, yaitu mempunyai distribusi probabilitas. Dipihak lain, variabel yang menjelaskan (explanatory variables) diasumsikan mempunyai nilai yang tetap (dalam pengambilan sampel secara berulang). Sedangkan, dalam analisis korelasi, kita memperlakukan yang manapun dari (dua) variabel secara simetris, tidak ada perbedaan antara variabel tak bebas dan variabel yang menjelaskan.

Istilah dan Notasi dalam Regresi

Dalam literatur istilah variabel tak bebas (dependent variables) dan variabel yang menjelaskan (explanatory variables) digambarkan dengan berbagai cara, sebagai berikut :

  1. Variabel tak bebas (dependent variables) = variabel yang menjelaskan (explained variables) = yang diramalkan (predictand) = yang diregresi (regressand) = tanggapan (response)
  2. Variabel yang menjelaskan (explanatory variables) = variabel bebas (independent variables) = peramal (predictor) = yang meregresi (regressor) = perangsang atau variabel kendali (stimulus or control variables)

Jika kita sedang mempelajari ketergantungan satu variabel pada hanya satu variabel yang menjelaskan, studi itu dikenal dengan analisis regresi sederhana atau dua variabel. Tetapi kalau kita mempelajari ketergantungan satu variable pada lebih dari satu variabel yang menjelaskan, maka dikenal sebagai analisis regresi majemuk (multiple regression analysis).

Dalam prakteknya ada beberapa persiapan dan pemahaman yang perlu dibangun oleh peneliti sebelum menerapkan data pada metode regresi. Satu bahasan telah diuraikan pada artikel sebelumnya, yaitu prasyarat skala ukur data yang kita gunakan dalam perhitungan regresi pada variabel penelitian (variabel bebas dan variabel tak bebas) karena sedikit banyak berpengaruh pada pemilihan jenis dari regresi itu sendiri (ex : regresi logistik dan regresi dengan variabel dummy). Selain itu, perlunya suatu proses pengujian pada model berupa pengujian asumsi regresi linier klasik yang memuat pengujian normalitas, multikolinieritas, heteroskedastisitas, autokorelasi dan linieritas yang menguatkan bahwa model yang dihasilkan merupakan model yang memiliki taksiran yang baik.

Pada artikel selanjutnya kita akan ulas identifikasi kebagusan model berdasarkan asumsi-asumsi yang tadi diutarakan, diantaranya normalitas, multikolinieritas, heteroskedastisitas, autokorelasi dan linieritas.

———————————————————————————————————————————————————-

  1. Jika rekan peneliti memerlukan bantuan Survey lapangan, Survey Online ataupun Olah Data dapat menghubungi mobilestatistik.com di :
  1. Klik “Konsultasi Gratis” untuk mendapatkan informasi atau solusi terkait dengan pertanyaan-pertanyaan seputar metodologi penelitian.
  • “1st Kirim Pertanyaan, Kami Jawab . . . InsyaAllah”

———————————————————————————————————————————————————-

online survey BPKH RI | LISREL | SEM | Eviews | Analisis Faktor | Validitas | SWOT | Regresi


survey lapangan kampung ketandan I path analisis | analisis jalur | LISREL