Pada artikel sebelumnya kita sudah memaparkan bentukan autokorelasi dan autokorelasi parsial yang terbentuk pada data deret waktu. Fungsi atau kegunaan yang sudah kita paparkan diantaranya adalah untuk melihat signifikansi autokorelasi yang dihasilkan data sebagai prasyarat dari analisis deret waktu dan juga berfungsi dalam mendeteksi kestasioneran data yang dimiliki. Salah satu diantaranya dengan melihat korelogram.
Pada kesempatan kali ini akan coba kita uraikan tahapan penggunaan software SPSS untuk menghasilkan korelogram, yang dibutuhkan dalam penilaian awal atas data deret waktu yang digunakan dalam analisis. Tahapannya adalah sebagai berikut :
Persiapkan data yang akan di analisis dalam file excel, untuk memudahkan dalam melakukan persiapan data yang akan dianalisis pada software Pastikan data yang kita miliki merupakan data waktu, seperti tampak pada gambar berikut.
Buka software SPSS, lalu entry-kan data yang sudah kita persipakan pada file excel ke dalam jendela Data View pada SPSS dan lakukan penamaan pada jendela Variabel View pada SPSS, sehingga tampak seperti gambar berikut.
Setelah selesai dengan pendefinisian data, lalu klik Analyse, pilih menu Time Series, lalu muncul menu baru klik pada Autocorrelation, seperti tampak pada gambar berikut.
Pada tampilan menu Autocorrelation, sudah default pada menu Display,Autocorrelation dan PartialAutocorrelation akan tercentang (biarkan, karena yang akan dianalisis adalah autokorelasi pada data). Untuk tahap awal pengidentifikasian data biarkan default apa yang sudah muncul pada menu Autocorrelation, lalu klik OK. Maka proses penghitungan nilai Autokorelasi dan Autokorelasi Parsial dilakukan oleh SPSS.
Pemrosesan oleh SPSS akan dihasilkan output SPSS seperti gambar berikut. Terdapat 4 bagian utama sebagai mana dijelaskan pada artikel sebelumnya yaitu nilai Autokorelasi, korelogram ACF, nilai Autokorelasi Parsial dan korelogram PACF.
Gambar 1. Nilai Autokorelasi Berdasarkan Lag-k
Gambar 2. Diagram ACF Fungsi Autokorelasi
Gambar 3. Nilai Autokorelasi Parsial Berdasarkan Lag-k
Gambar 4. Diagram PACF Fungsi Autokorelasi Parsial
Jika ditelaah, gambar ACF dan PACF keduanya membangun pola alternating (tanda dan nilai autokorelasi berubah secara acak sesuai dengan berjalannya nilai lag), hal ini mengindikasikan data tidak stasioner dalam varians dan stasioner lemah dalam rata-rata hitung. Sedangkan signifikansi autokorelasi kemungkinannya lemah (nilai lag-nya cukup besar jika dibandingkan dengan ukuran sampelnya). Jika hasil telaahan secara “visual” tidak cukup menyakinkan, maka dapat dilakukan pengujian hipotesis statistis untuk keberartian autokorelasi.
Dengan adanya SPSS sebagai software yang sangat mudah untuk digunakan oleh peneliti, dapat membantu dalam mempercepat dalam pemrosesan data. Hal yang perlu diperhatikan oleh peneliti adalah pemahaman akan teori atau konsep yang mendasari penggunaan tools statistik dalam SPSS itu sendiri. Secara tampilan SPSS memperlihatkan menu-menu berdasarkan konsep tools statistik yang ada pada teori yang melatarbelakanginya, jadi alangkah baiknya dan tepat apabila sebelum mengaplikasikan data pada SPSS dibangun kepahaman secara menyeluruh atas teori pada tools statistik yang akan dipakai oleh peneliti. SEMANGAT MENCOBA!!!
Pada artikel sebelumnya kita sudah mengenal apa itu analisis regresi deret waktu, tahapan-tahapan analisis serta kegunaan analisis deret waktu itu sendiri. Salah satu asumsi yang harus dipenuhi dan layak sebuah deret data dilakukan analisis regresi deret waktu adalah adanya autokorelasi antar pengamatan (korelasi dalam variabel respon Y).
Pada kesempatan kali ini kita akan menjelaskan peran autokorelasi dalam analisis deret waktu, yang kita hadapi dalam analisis deret waktu terdapat dua jenis korelasi yaitu autokorelasi dan autokorelasi parsial. Apa arti dan kegunaan dua jenis korelasi tadi dalam analisis regresi deret waktu akan dipaparkan pada penjelasan berikut.
Autokorelasi
Konsepsi autokorelasi setara (identik) dengan korelasi Pearson untuk data bivariat. Gambarannya sebagai berikut, jika dimiliki sampel data deret waktu X1, X2, … , Xn dan dapat dibangun pasangan nilai (X1, Xk+1), (X2, Xk+2), …, (Xk, Xn). Dalam analisis data deret waktu untuk mendapatkan hasil yang baik, nilai n harus cukup besar dan autokorelasi disebut berarti jika nilai k cukup kecil dibandingkan dengan n, sehingga autokorelasi lag-k dari sampel data deret waktu yang terbentuk adalah
Dan perumusan autokoerelasi seperti di atas digunakan dalam analisis data deret waktu. Karena rk merupakan fungsi atas k, maka hubungan autokorelasi dengan lag-nya dinamakan Fungsi Autokorelasi (Autocorrelation Function, ACF) dan dinotasikan oleh ρ(k).
Autokorelasi Parsial
Konsepsi lain pada autokorelasi adalah autokorelasi parsial (partial autocorrelation), yaitu korelasi antara Xt dengan Xt+k, dengan mengabaikan ketidakbebasan Xt+1, Xt+2, … , Xt+k-1, sehingga Xt dianggap sebagai konstanta, Xt = xt , t = t+1, t+2, … , t+k-1. Autokkorelasi parsial Xt dengan Xt+k didefinisikan sebagai korelasi bersyarat,
Seperti halnya autokorelasi yang merupakan fungsi atas lagnya, yang hubungannya dinamakan fungsi autokorelasi (ACF), autokorelasi parsial juga merupakan fungsi atas lag-nya dan hubungannya dinamakan Fungsi Autokorelasi Parsial (Partial Autocorrelation Function, PACF).
Untuk menghitung autokorelasi dan autokorelasi parsial banyak kemasan program (software) komputer yang dapat digunakan, seperti SPSS, MINITAB, dan STATISTICA, sehingga jika para pengguna analisis data deret waktu tidak memahami konsepsi perhitungan dan pembuatan program komputer untuk perhitungannya, bisa menggunakan salah satu kemasan program tersebut untuk keperluan analisisnya. Pada artikel selanjutnya kita akan bahas penggunaan software SPSS dalam menghasilkan ACF dan PACF dalam grafik korelogram yang salah satunya dapat membantu peneliti dalam mengidentifikasi kebaikan model data deret waktu yang terbentuk. SEMANGAT MEMPELAJARI!!!
Pada kesempatan kali ini kita akan membahas secara konsepsi terkait dengan data time series beserta konsepsi pemodelan dengan menggunakan data time series. Perlu diperhatikan sebelumnya kepada para peneliti atau pembaca artikel kami, bahwa ada baiknya membaca konsepsi regresi beserta uraian pengujian asumsi regresi linear klasik yang sudah kita bahas pada artikel-artikel sebelumnya. Tidak lain untuk membangun pemahaman secara terstruktur terkait dengan pemodelan, mulai dari yang umum atau kebanyakan peneliti gunakan yaitu analisis regresi. Selain itu, pengembangan pembahasan pada konsepsi Lag (Waktu) juga sudah kita paparkan pada artikel sebelumnya (baca : Distributed Lag Model dan Autoregresif Model) yang diharapkan dapat mempermudah bagi pembaca dalam memahami konsep yang akan dibahas pada kesempatan kali ini.
Pembahasan terkait dengan data deret waktu atau time series jauh berbeda dengan konsepsi yang kita bangun pemahamannya dengan data crossectional dengan analisis regresi. Pada bahasan terkahir pada pemodelan Distributed Lag Model dan Autoregresif Model sudah sedikit bersentuhan dengan konsep waktu pada pemodelan yang dihasilkan meskipun data yang digunakan masih bersifat crossectional dan dikembangan salah satunya didasarkan tidak terpenuhinya asumsi non autokorelasi pada model regresi linear klasik.
Sekarang mari kita jelajahi lebih lengkap terkait dengan analisis data time series pada beberapa artikel kita kedepan.
Data Deret Waktu (Time SeriesData)
Pada dasarnya setiap nilai dari hasil pengamatan (data), selalu dapat dikaitkan dengan waktu pengamatannya. Hanya pada saat analisisnya, kaitan variabel waktu dengan pengamatan sering tidak dipersoalkan. Dalam hal kaitan variabel waktu dengan pengamatan diperhatikan, sehingga data dianggap sebagai fungsi atas waktu, maka data seperti ini dinamakan Data Deret Waktu (Time series).
Karena data deret waktu merupakan regresi data atas waktu, dan salah satu segi (aspect) pada data deret waktu adalah terlibatnya sebuah besaran yang dinamakan Autokorelasi (autocorrelation), yang konsepsinya sama dengan korelasi untuk data bivariat, dalam analisis regresi biasa. Signifikansi (keberartian) autokorelasi menentukan analisis regresi yang harus dilakukan pada data deret waktu. Jika autokorelasi tidak signifikan (dalam kata lain data deret waktu tidak berautokorelasi), maka analisis regresi yang harus dilakukan adalah analisis regresi sederhana biasa, yaitu analisis regresi data atas waktu. Sedangkan jika signifikan (berautokorelasi) harus dilakukan analisis regresi data deret waktu, yaitu analisis regresi antar nilai pengamatan. Segi lain dalam data deret waktu adalah kestasioneran data yang diklasifikasikan atas stasioner kuat (stasioner orde pertama, strickly stationer) dan stasioner lemah (stasioner orde dua, weakly stationer), dan kestasioner ini merupakan kondisi yang diperlukan dalam analisis data deret waktu, karena akan memperkecil kekeliruan baku.
Regresi Deret Waktu
Analisis regresi deret waktu adalah analisis regresi dalam kondisi variabel respon (Y) berautokorelasi, sehingga antar variabel respon (Y) dapat dibangun sebuah hubungan fungsional, yang dalam analisis data deret waktu bentuk hubungannya selalu digunakan regresi linier.
Konsepsi analisis regresi linier biasa dapat digunakan secara utuh dalam analisis regresi deret waktu, hanya proses perhitungan nilai penaksir parameternya tidak selalu bisa dijadikan acuan. Dalam analisis regresi linier biasa, proses perhitungan taksiran parameter selalu dapat dilakukan dengan menggunakan perhitungan matriks, sebab sistem persamaan parameternya selalu merupakan sistem persamaan linier. Sedangkan dalam analisis regresi deret waktu, ada beberapa model yang perhitungan taksiran parameternya harus menggunakan metoda iterasi atau rekursif, sehingga sebagian besar persoalan analisis regresi deret waktu harus diselesaikan dengan menggunakan fasilitas komputer.
Dalam analisis data deret waktu, jika pengamatan berautokorelasi maka model hubungan fungsionalnya dibangun berdasarkan kondisi kestasioneran data, sehingga model regresi deret waktu dikelompokan atas regresi deret waktu stasioner dan regresi deret waktu tidak stasioner. Model regresi deret waktu tidak stasioner identik dengan model regresi deret waktu stasioner, yang terlebih dulu data distasionerkan melalui proses diferensi. Jika data deret waktu Xt , t = 1, 2, . . . berautokorelasi maka model regresi antar pengamatan (autoregresi) disajikan dalam persamaan
dengan Zt kekeliruan model yang diasumsikan berdistribusi identik independen dengan rata-rata 0 dan varians konstan σ2, yang dalam analisis data deret waktu Zt biasa disebut white noise dan µ , γ1 , . . . , γk merupakan parameter autoregresi. Model autoregresi persamaan di atas dinamakan Autoregresi Lag-k dan disingkat AR(k). Dan,
Model persamaan di atas dinamakan model rata-rata bergerak (moving average) order p disingkat MA(p). Jadi dalam model MA(p) merupakan model inversi dari AR(k), yang berarti model AR(k) dan MA(p) merupakan model yang saling berkebalikan.
Model AR(k) dan MA(p) merupakan model regresi deret waktu stasioner dan saling berkebalikan, sehingga keduanya dapat digabungkan dengan cara dijumlahkan, dan model yang diperoleh dinamakan model autoregresi rata-rata bergerak, disingkat ARMA(k,p), dengan persamaan
Karena AR(k) dan MA(p) adalah mode regresi deret waktu stasioner, maka ARMA(k,p) juga model regresi deret waktu stasioner.
Jika data tidak stasioner, maka dapat distasionerkan melalui proses stasioneritas, yang berupa proses diferensi jika trendnya linier, dan proses linieritas dengan proses diferensi pada data hasil proses linieritas, jika trend data tidak linier. Model ARMA(k,p) untuk data hasil proses diferensi dinamakan model autoregresi integrated rata-rata bergerak disingkat ARIMA(k,q,p).
Proses Analisis Data Deret Waktu
Dalam analisis data deret waktu, proses baku yang harus dilakukan adalah
Memetakan nilai atas waktu, hal ini dilakukan untuk menelaah kestationeran data, sebab jika data tidak stasioner maka harus distasionerkan melalui proses stasioneritas.
Menggambarkan korelogram (gambar fungsi autokorelasi), untuk menelaah apakah autokorelasi signifikan atau tidak, dan perlu tidaknya proses diferensi dilakukan. Jika autokorelasi data tidak signifikan, analisis data cukup menggunakan analisis regresi sederhana data atas waktu, sedangkan jika signifikan harus menggunakan analisis regresi deret waktu. Jika data ditransformasikan, maka proses pemetaan data dan penggambaran korelogram, sebaiknya dilakukan juga pada data hasil transformasi, untuk menelaah apakah proses transformasi ini sudah cukup baik dalam upaya menstasionerkan data.
Jika dari korelogram disimpulkan bahwa autokorelasi signifikan, maka bangun model regresi deret waktu dan lakukan penaksiran baik dalam kawasan waktu maupun kawasan frekuensi.
Lakukan proses peramalan dengan metode yang sesuai dengan kondisi data dan untuk mendapatkan hasil yang memuaskan sebaiknya gunakan metode Box-Jenkins.
Sasaran Analisis Data Deret Waktu
Ada beberapa tujuan dalam analisis data deret waktu diantaranya,
Deskripsi (description) : Jika ingin mempresentasikan karakter dari data yang dimiliki, seperti kestasioneran, keberadaan komponen musiman, keberartian autokorelasi, maka tahap pertama dari analisis data deret waktu adalah menggambarkan peta data dan korelogram, yang bertujuan :
Gambar peta data atas waktu untuk menelaah kestasioneran dan keberadaan komponen musiman dan
Gambar korelogram untuk menelaah signifikansi autokorelasi dan perlu-tidaknya transformasi data
Menerangkan (explanation) : Jika variabel data deret waktu lebih dari satu buah, maka telaahan dilakukan untuk menentukan apakah salah satu variabel dapat menjelaskan variabel lain, sehingga bisa dibangun sebuah model regresi (fungsi transfer) untuk keperluan analisis data deret waktu lebih lanjut. Sebab pada dasarnya data deret waktu adalah analisis data univariat, sehingga jika datanya bivariat atau multivariat, maka bagaimana proses univariatisasinya.
Perkiraan (prediction) : Jika dimiliki sampel data deret waktu dan diinginkan perkiraan nilai data berikutnya, maka proses peramalan harus dilakukan. Permalan adalah sasaran utama dari analisis data deret waktu, yang prosesnya bisa berdasarkan karakter dari komponen data atau model regresi deret waktu. Pengertian perkiraan (prediction) dan peramalan (forecasting) beberapa penulis ada yang membedakannya, sebab mereka berpendapat perkiraan adalah penaksiran (estimation) nilai dengan data dengan tidak memperhatikan model hubungan (regresi) antara nilai data, tetapi peramalan adalah proses penaksiran nilai data berdasarkan sebuah model hubungan fungsional antar nilai data. Tetapi kebanyakan penulis berpendapat perkiraan dengan peramalan adalah dua proses analisis data yang sama.
Kontrol (control) : Proses kontrol dilakukan untuk menelaah apakah model (regresi) ramalan (perkiraan) yang ditentukan cukup baik untuk digunakan ? Dalam statistika, sebuah model baik digunakan untuk peramalan, jika dipenuhi modelnya cocok dan asumsinya juga dipenuhi. Sehingga proses kontrol terhadap model perlu dilakukan untuk menelaah dipenuhi tidaknya asumsi, kecocokan bentuk model yang dibangun, ada-tidaknya pencilan (outliers), yang analisisnya dapat dilakukan berdasarkan karakter nilai residu atau analisis varians.
Untuk bisa memahami dengan baik mengenai analisis data deret waktu, diperlukan pemahaman mengenai analisis regresi biasa, sebab analisis data deret waktu adalah analisis khusus dari analisis regresi biasa, yaitu analisis regresi dalam hal data responnya berautokorelasi, sehingga konsepsi pada analisis regresi biasa berlaku dalam analisis regresi deret waktu, tetapi belum tentu untuk sebaliknya.
Pada artikel selanjutnya kita akan bahas secara teknikal penyelesaian data deret waktu dengan menggunakan analisis regresi deret waktu. SEMANGAT MEMPELAJARI!!!
Pada pembahasan sebelumnya kita sudah membahas secara konsep lag dan penerapannya pada model persamaan regresi. Salah satu yang telah kita bahas adalah model lag yang didistribusikan (distributed lag model), yang secara konsepsi diterapkan pada variabel bebas X. Pada kesempatan kali ini kita akan membahas satu model lain dari penerapan konsepsi lag, kali ini proses penerapannya dikenakan pada variabel tak bebas Y yang umum dikenal sebagai model Autoregresif (AR).
Model autoregresif (AR), mungkin umumnya dikenal khusus oleh para peneliti pada proses penerapan analisis data time series, dengan prosedur dan metode yang khusus. Pada pembahasan kali ini kita akan membahas secara mendasar pengembangan pemahaman dari fenomena lag, sedangkan pada pembahasan secara khusus terkait dengan analisis data time series kita akan paparkan pada kesempatan selanjutnya.
Penaksiran Model Autoregresif (AR)
Pada pembahasan penanganan data dengan model lag yang didistribusikan pada pendekatan lain yaitu Koyck dan rasionalisasinya dihasilkan model akhir penyelesaian yang mengandung unsur Autoregresif (AR). –peneliti dapat membaca pada buku Ekonometrik, Gujarati atau pembahasan artikel sebelumnya. Dimana semua model yang terbentuk memiliki bentuk umum sebagai berikut :
Model Autoregresif (AR) :
Model Koyck :
Model Harapan Adaptif :
Model Parsial :
Bentuk model persamaan di atas merupakan model yang memiliki sifat autoregresif (AR). Oleh karenanya, penaksiran pada model-model seperti di atas, kuadrat terkecil biasa (OLS) tidak dapat diterapkan secara langsung untuk model-model tersebut. Alasannya ada dua diantaranya variabel yang menjelaskan (X) yang bersifat stokastik (Yt-1) dan kemungkinan adanya serial korelasi (autokorelasi).
Seperti yang dijelaskan pada pembahasan terkait dengan asumsi regresi linear klasik terutama pada bahasan autokorelasi bahwa jika suatu variabel yang menjelaskan (X) dalam model regresi berkorelasi dengan unsur gangguan yang bersifat stokastik, maka penaksir OLS tidak hanya bias tetapi juga tidak konsisten, yaitu bahkan jika ukuran sampel meningkat secara tidak terbatas, penaksir tidak akan mendekati nilai populasi yang sebenarnya. Oleh karena itu, penaksiran model yang dibahas pada bahasan sebelumnya yaitu model Koyck dan model harapan adaptif dengan prosedur OLS biasa mungkin memberikan hasil yang menyesatkan secara serius.
Akan tetapi, model penyesuaian parsial berbeda. Dalam model penyesuaian parsial, penaksiran OLS dapat digunakan dan menghasilkan taksiran yang konsisten meskipun taksiran yang dihasilkan cenderung untuk bias (dalam sampel terbatas atau kecil). Meskipun dalam model Yt-1 tergantung pada ut-1 dan semua unsur disturbansi (gangguan sebelumnya), Yt-1 tidak berhubungan dengan unsur kesalahan saat ini ut. Oleh karena itu, selama ut bebas secara serial, Yt-1 akan juga bebas atau setidak-tidaknya tidak berkorelasi dengan ut, sehingga memenuhi satu asumsi penting dari OLS yaitu tidak ada korelasi antara variabel yang menjelaskan (X) dengan unsur gangguan (disturbansi yang stokastik, ut).
Meskipun pemakaian OLS dari model penyesuaian stok atau parsial (baca artikel : distributed lag model), memberikan taksiran yang konsisten karena struktur yang sederhana dari unsur kesalahan dalam model seperti itu, orang seharusnya tidak mengasumsikan bahwa model tadi lebih bisa diterapkan dibandingkan dengan model Koyck atau model harapan adaptif. Suatu model seharusnya dipilih atas dasar pertimbangan teoritis yang kuat, tidak hanya sekedar karena model tadi membawa ke penaksiran statistik yang mudah. Setiap model seharusnya dipertimbangkan atas baik buruknya sendiri, dengan memberikan perhatian pada gangguan stokastik yang muncul.
Mendeteksi Autokorelasi Dalam Model Autoregresif
Seperti kita lihat, nampaknya serial korelasi dalam kesalahan vt (bentuk ringkas faktor gangguan dalam model Koyck dan model harapan adaptif) yang membuat masalah penaksiran dalam model autoregresif (AR) agak kompleks. Dalam model penyesuaian stok unsur kesalahan vt tidak mempunyai serial korelasi (derajat pertama) jika unsur kesalahan ut dalam model yang asli tidak berkorelasi secara serial, sedangkan dalam model Koyck dan model harapan adaptif vt berkorelasi serial meskipun jika ut secara serial bebas (independen).
Seperti dalam pembahasan tentang pendeteksian autokorelasi, statistik d dari Durbin-Watson mungkin tidak bisa digunakan untuk mendeteksi serial korelasi (derajat pertama) dalam model autoregresif (AR), karena nilai d yang dihitung dalam model seperti itu biasanya mendekati 2, yang merupakan nilai d yang diharapkan dalam suatu urutan yang benar-benar random. Dengan perkataan lain, jika kita menghitung secara rutin statistik d untuk model seperti itu, terdapat bias yang terpasang di dalamnya melawan penemuan korelasi serial (derajat pertama). Meskipun demikian banyak peneliti menghitung nilai d karena menginginkan suatu yang lebih baik. Durbin sendiri telah mengusulkan suatu pengujian sampel besar dari korelasi serial derajat pertama dalam model autoregresif (AR). Pengujian ini disebut statistik h.
Statistik h memiliki ciri sebagai berikut :
Tidak penting berapa banyak variabel X atau beberapa banyak nilai lag dari Y yang dimasukan dalam model regresi. Untuk menghitung h, kita hanya perlu mempertimbangkan varians [var (α2)] dari koefisien lag Yt-1
Pengujian tidak bisa diterapkan jika [N var (α2)] melebihi 1.
Karena pengujian tadi dimaksudkan untuk sampel besar, penerapannya dalam sampel kecil tidak bisa dibenarkan secara tegas. Sifat sampel kecil dari pengujian tadi belum diterapkan sepenuhnya.
Pada prinsipnya kedua metode yang sudah diuraikan pada kesempatan kali ini yaitu model lag yang didistribusikan (distributed lag model) dan model autoregresif (AR) merupakan perluasan dari model regresi sederhana yang sudah dijelaskan secara terperinci pada artikel sebelumnya. Kedua model tersebut digunakan salah satunya adalah untuk mengatasi kendala autokorelasi yang terjadi pada model regresi klasik. Meskipun sedikit kompleks, uraian pada artikel ini boleh jadi dijadikan sebagai pengetahuan awal bagi peneliti yang hendak memperdalam metode yang lebih khusus yang berkaitan dengan data deret waktu atau time series data analysis. SEMANGAT MEMPELAJARI!!!
Pada artikel sebelumnya kita sudah membahas secara lengkap tentang regresi linear klasik baik secara konsep maupun pemenuhan terhadap asumsi-asumsi yang mendukung baiknya model regresi yang dihasilkan dari data yang kita miliki. Khususnya pada bahasan asumsi non autokorelasi pada model regresi linear kita sudah membahas mulai dari cara mendeteksi, konsekuensi jika terdapat aoutokorelasi hingga cara perbaikannya. Khusus pada poin tentang cara perbaikan pada model dengan masalah autokorelasi, dua cara yang dikemukakan adalah dengan skema autoregresif (AR) derajat pertama dikenal sebagai model persamaan perbedaan yang digeneralisasikan dan metode perbedaan pertama (the first difference method) sehingga model yang dibentuk dikenal sebagai model regresi rata-rata bergerak (moving average-MA).
Pada kesempatan kali ini kita akan mengulas konsepsi model autoregresif (AR) dan Lag yang didistribusikan (Distributed Lag) yang akan sangat bermanfaat dalam memahami konsep waktu pada suatu model.
Konsep Dasar Distributed-Lag-ModelDanModel Autoregresif
Dalam analisis regresi yang melibatkan data deret waktu, jika model regresi memasukan tidak hanya nilai variabel yang menjelaskan (X) saat ini, tetapi juga nilai masa lalu (lagged), model yang terbentuk disebut dengan model lagged yang didistribusikan (distributed-lag-model). Sedangkan jika model yang dibentuk dengan memasukan satu atau lebih nilai masa lalu (lagged) dari variabel tak bebas (Y) di antara variabel yang menjelaskan (X), model yang terbentuk disebut dengan model autoregresif (AR). Jadi,
Menyatakan model lag yang didistribusikan, sedangkan
Merupakan contoh dari model autoregresif.
Peran Waktu atau Lag Dalam Ilmu Ekonomi
Dalam ilmu ekonomi ketergantungan suatu variabel Y (variabel tak bebas) atas variabel lain X (variabel bebas) jarang bersifat seketika. Sangat sering, Y bereaksi terhadap X dengan suatu selang waktu. Selang waktu seperti itu disebut lag.
Misal :
“Seorang menerima kenaikan gaji sebesar 2000 dolar dalam gaji tahunan, dan misalkan bahwa ini merupakan peningkatan “permanen” dalam arti bahwa peningkatan gaji tersebut dipertahankan. Apakah pengaruh dari pendapatan ini atas belanja konsumsi tahunan orang tadi?
Sekarang merupakan pengalaman yang biasa bahwa setelah adanya peningkatan dalam pendapatan seperti itu, pada umumnya orang tidak bergegas untuk menghabiskan semua peningkatan tadi dengan segera. Jadi, orang yang menerima tadi bisa memutuskan untuk meningkatkan belanja konsumsi 800 dolar dalam tahun pertama setelah memperoleh peningkatan gaji sebagai pendapatannya, dengan 600 dolar yang lain tahun berikutnya, dan dengan 400 dolar lagi dalam tahun berikutnya, serta menabung sisanya. Pada akhir tahun ketiga, belanja konsumsi tahunan orang tadi akan meningkat 1800 dolar. Jadi kita dapat menuliskan fungsi konsumsi sebagai,
Dimana Y adalah belanja konsumsi dan X adalah pendapatan
Persamaan di atas, menunjukkan bahwa pengaruh peningkatan dalam pendapatan 2000 dolar tersebar, atau didistribusikan untuk 3 periode tahun. Oleh karena itu model tersebut dinamakan model lag yang didistribusikan (distributed lag model) karena pengaruh dari suatu sebab tertentu (pendapatan) tersebar selama sejumlah periode waktu. Secara lebih umum kita bisa menuliskan,
Dan,
Disebut multiplier lag yang didistribusikan jangka panjang atau total.
Dari persamaan yang diperoleh kita lihat bahwa kecenderungan marjinal jangka pendek untuk konsumsi (MPC) adalah 0,4 dan kecenderungan marjinal konsumsi jangka panjang adalah 0.4 + 0.3 + 0.2 = 0.9. Artinya bahwa mengikuti kenaikan satu dolar dalam pendapatan, konsumen akan meningkatkan tingkat konsumsinya kira-kira 40 sen dalam tahun peningkatan pertama, 30 sen lainnya dalam tahun berkutnya dan 20 sen lagi dalam tahun berikutnya. Jadi dampak jangka panjang dari kenaikan pendapatan satu dolar adalah 90 sen.
Alasan Lag
Ada tiga alasan utama kenapa lag terjadi, diantaranya
Alasan Psikologis. Disebabkan oleh kekuatan kebiasaan, orang tidak mengubah kebiasaan konsumsi mereka dengan segera mengikuti penurunan harga atau peningkatan pendapatan mungkin karena proses perubahan melibatkan suatu kehilangan kegunaan yang segera.
Jadi orang yang mendadak jadi jutawan karena memenangkan lotre, mungkin tidak merubah cara hidup yang telah terbiasa baginya untuk waktu yang lama karena mereka mungkin tidak tahu bagaimana berreaksi terhadap keberuntungan yang tidak disangka (windfall gain), dengan segera. Tentu saja, dengan waktu yang cukup, mereka dapat belajar untuk hidup dengan keberuntungan yang baru saja diterima. Juga, mungkin orang tahu apakah suatu perubahan adalah “permanen” atau “sementara”. Jadi, reaksi terhadap peningkatan dalam pendapatan akan tergantung pada apakah peningkatan tadi bersifat permanen atau sementara. Jika ini hanya peningkatan untuk sekali saja dan dalam periode berikutnya pendapatan kembali ke tingkat sebelumnya, saya akan mungkin menabung seluruh peningkatan pendapatan tadi, sedangkan orang lain dalam posisi saya, mungkin memutuskan untuk menikmatinya sepuas-puasnya.
Alasan yang bersifat teknologi. Misalkan harga modal dibandingkan dengan tenaga kerja relatif menurun, yang menyebabkan subtitusi (pengganti) modal untuk tenaga kerja secara ilmu ekonomis dimungkinkan. Tentu saja, penambahan dalam modal memerlukan persiapan waktu (masa persiapan). Lebih jauh lagi, jika penurunan dalam harga diharapkan hanya bersifat sementara, perusahaan mungkin tak bergegas-gegas untuk menggantikan modal untuk tenaga kerjanya, terutama jika mereka mengharapkan setelah penurunan harga modal yang bersifat sementara mungkin akan meningkat di atas tingkat sebelumnya. Kadang-kadang pengetahuan yang tidak sempurna juga menyebabkan terjadinya lag.
Pada saat ini pasar untuk kalkulator saku elektronik jenuh dengan semua jenis kalkulator dengan berbagai ciri perhitungan dan harga. Lebih jauh lagi, sejak diperkenalkandi akhir tahun 60-an, harga dari sebagian besar kalkulator telah turun secara dramatis. Sebagai hasilnya, calon konsumen untuk kalkulator mungkin ragu untuk membelinya sampai mereka mempunyai waktu untuk melihat ciri-ciri dari harga semua merek yang bersaing. Lebih jauh lagi, mereka ragu untuk membeli karena berharap ada penurunan lebih lanjut dalam harga atau pembaharuan-pembaharuan yang bermanfaat.
Alasan-alasan kelembagaan. Alasan ini juga menyumbangkan terjadinya lag. Misalnya, kewajiban yang bersifat kontrak mungkin mencegah perusahaan untuk beralih dari satu sumber tenaga kerja atau bahan mentah ke yang lainnya.
Sebagai contoh, mereka yang telah menempatkan dana dalam tabungan bank jangka panjang untuk periode waktu yang tetap seperti 1 tahun, 3 tahun atau 7 tahun, pada dasarnya terkunci meskipun kondisi pasar uang mungkin sedemikian rupa sehingga pendapatan yang lebih tinggi tersedia di tempat lain. Serupa dengan itu, majikan seringkali memberikan pada karyawan suatu pilihan di antara beberapa rencana asuransi kesehatan, tetapi sekali pilihan telah dibuat, seorang karyawan mungkin tidak bisa berpindah ke rencana lain untuk sekurang-kurangnya 1 tahun. Meskipun hal ini dilakukan untuk kemudahan administratif, karyawan tadi terkunci untuk 1 tahun.
Penaksiran Model Lag Yang Didistribusikan (Distributed Lag Model)
Dengan mempercayai bahwa model yang didistribusikan memainkan peranan yang sangat berguna dalam ilmu ekonomi, bagaimana orang menaksir model seperti itu? Khususnya misalkan kita memiliki model yang didistribusikan dalam satu variabel yang menjelaskan berikut :
Karena variabel yang menjelaskan Xt diasumsikan nonstokastik (atau setidak-tidaknya tidak berkorelasi dengan unsur gangguan ut), Xt-1, Xt-2 dan seterusnya juga nonstokastik. Oleh karena itu, pada prinsipnya, kuadrat terkecil biasa (OLS) dapat diterapkan terhadap persamaan di atas. Ini merupakan pendekatan yang diambil oleh Alt dan Tinbergen. Mereka menyarankan bahwa untuk menaksir persamaan lag yang didistribusikan orang bisa melangkah maju secara berurutan (stepwise) yaitu mula-mula meregresikan Yt atas Xt, kemudian meregresi Yt atas Xt dan Xt-1, kemudian meregresi Yt atas Xt, Xt-1 dan Xt-2, dan seterusnya. Prosedur yang berurutan ini berhenti ketika koefisien regresi dari variabel lag mulai menjadi tidak penting (tidak signifikan) secara statistik dan atau koefisien dari setidak-tidaknya satu variabel berubah tanda dari positif ke negatif atau sebaliknya. Mengikuti aturan ini, Alt meregresikan konsumsi untuk minyak bakar Y atas pesanan baru X. Didasarkan pada kuartalan untuk periode 1930 s.d 1939, hasil analisanya sebagai berikut :
Alt memilih regresi kedua sebagai “yang terbaik” karena dalam dua persamaan yang terakhir dari Xt-2 tidak stabil dan dalam persamaan terakhir tanda dari Xt-3 adalah negatif, yang mungkin sulit untuk diinterpretasikan secara ekonomi.
Meskipun nampaknya jelas, penaksiran-khusus memiliki banyak kelemahan, seperti berikut ini :
Tidak ada petunjuk apriori mengenai panjang maksimum lag
Begitu orang menaksir lag yang berurutan, semakin sedikit derajat kebebasan yang tersisa, yang membuat kesimpulan secara statistik, agak goyah. Ahli ekonomi biasanya tidak begitu beruntung untuk mempunyai serangkaian data yang panjang sehingga mereka dapat melanjutkan mengestimasi banyak lag.
Lebih penting lagi, dalam data deret waktu ekonomis, nilai yang berurutan (lag) cenderung untuk sangat berkorelasi; jadi multikolinearitas akan nampak. Sehingga hasilnya, kita mungkin cenderung untuk menyatakan (secara salah) bahwa suatu koefisien lagged tidak penting (signifikan) secara statistik. Tetapi ketidak pentingan secara statistik ini mungkin disebabkan karena multikolinearitas dan bukan karena kenyataan bahwa koefisien benar-benar tidak penting.
Dari masalah pandangan tadi, prosedur penaksiran ad-hoc tidak begitu disarankan. Jelas beberapa pertimbangan sebelumnya atau pertimbangan teoritis harus dilakukan untuk berbagai β jika kita akan melangkah maju dengan masalah penaksiran.
Terdapat beberapa pendekatan yang lain selain pendekatan penyelesaian yang sudah diuraikan di atas dalam rangka mencari solusi terbaik yang dapat menghasilkan model yang dapat memberikan nilai prediksi terbaik. Beberapa yang dapat menjadi telaah lanjutan bagi peneliti diantaranya : (1) Pendekatan Koyck Untuk Model Lag Yang Didistribusikan, (2) Rasionalisasi Model Koyck : Model Harapan Adaptif (Adaptive Expectation Model), dan (3) Rasionalisasi Lain Dari Model Koyck : Model Penyesuaian Stok atau Model Penyesuaian Parsial.
Pada prinsipnya ketiga pendekatan lain di mulai dari pendekatan Koyck dan beberapa rasionalisasinya bertujuan bahwa tiap koefisien β yang berurutan secara angka lebih kecil dari β sebelumnya, yang mengandung arti bahwa jika orang kembali ke periode lalu yang jauh, pengaruh dari lag tadi terhadap Yt secara progresif menjadi semakin kecil (secara pasti didapatkan melalui perumusan di awal perhitungan pembentukan model). Selain itu, yang di perhatikan juga adalah terhindarnya model dari masalah autokorelasi dan multikolinearitas.
Pada kesempatan yang lain kita akan bahas konsep dasar dari model autoregresif (AR) sebagai pembanding dari model lag yang didistribusikan. Pembangunan pemahaman terhadap konsep di atas sangat penting ketika melakukan proses analisis data deret waktu (time series) secara lebih khusus yang akan di bahas pada artikel berikutnya. SEMANGAT MEMPELAJARI!!!
Pada artikel sebelumnya kita sudah membahas konsep umum dari analisis komponen utama (AKU) atau principal component analysis (PCA). Tujuan utama dari analisis AKU atau PCA sendiri adalah untuk mereduksi data dalam arti bahwa ada peringkasan sejumlah besar variabel hanya menjadikannya beberapa (2 atau 3) komponen utama yang dapat mensarikan variasi pada sejumlah besar variabel tersebut sebesar 80% s.d 90%-nya. Cara ini sangat praktis bagi peneliti yang memiliki tantangan dengan banyaknya variabel yang ditelitinya.
Selain itu, AKU atau PCA juga dapat difungsikan sebagai salah satu solusi ketika terjadi masalah multikolinearitas pada model regresi yang terbentuk. Dengan menggunakan komponen utama yang dihasilkan dari analisis AKU atau PCA bisa dipastikan bahwa komponen utama yang terbentuk bebas dari masalah multikolinearitas sehingga sangat solutif bagi model regresi dengan masalah multikolinearitas. Keunikan lain adalah dalam hal penamaan baru bagi komponen utama yang terbentuk dengan melihat karakteristik variabel dominan yang menyusunnya (lihat nilai loading faktornya).
Pada kesempatan kali ini kita coba uraikan pengaplikasiannya pada data dengan bantuan software SPSS, yang akan diuraikan pada bagian berikut ini.
Pastikan variabel yang kita miliki memenuhi kriteria analisis AKU atau PCA yaitu sejumlah variabel yang banyak yang menyulitkan peneliti atau hendak menanggulagi masalah multikolinearitas pada model regresi.
Buka software SPSS lalu masukan data penelitian yang kita punya pada jendela Data View dan definisikan variabel yang kita punya di jendela Variable View.
Pastikan aturan yang sudah dikemukakan pada artikel sebelumnya dilakukan. Apabila satuan dari data kita berbeda lakukan standarisasi terlebih dahulu pada data yang kita punya.
Setelahnya klik pada menu Analyse, pilih menu Data Reduction dan Factor lalu klik, maka akan muncul jendela seperti gambar berikut.
Setelah itu pada menu Extraction, pilih Method pada Principal Components dan pada display centang tambahan untuk menampilkan Scree Plot, seperti tampak pada gambar berikut.
Pada menu Scores centang pada pilihan Save as variables dan pilih metode yang digunakan dalam proses menghasilkan nilai Score. Pemunculan nilai scores ini diperlukan jika hendak dilakukan analisis lanjutan terhadap data Scores yang dihasilkan.
Jika sudah yakin dengan berbagai pilihan perlakuan pada data dalam proses analisis, setelah semua variabel dimasukan ke dalam kolom Variables, lalu klik OK dan SPSS akan memproses data.
Hasil dari analisis AKU atau PCA yang diproses oleh SPSS seperti ditunjukkan pada gambar berikut. Penjelasan pada output SPSS disesuaikan dengan penjelasan pada artikel sebelumnya. Yang penting untuk diperhatikan adalah penentuan jumlah komponen utama dan besar keragaman yang dapat dijelaskan oleh komponen utama.
Ouput 1. Komponen Utama Terbentuk (Variance Explained & Scree Plot)
Output 2. Nilai Loading Komponen Utama (Component Matrix)
Selain bentuk output SPSS di atas, pada jendela Data View terdapat variabel baru yaitu skor dari komponen utama yang terbentuk. Nilai skor inilah yang nantinya menjadi data variabel baru yang dapat langsung diinterpretasikan maupun dilakukan pengujian lanjutan terhadap data variabel terbentuk.
Output 3. Score Komponen Utama (Fac1 & Fac2)
Analisis komponen utama (AKU) atau Principal Component Analysis (PCA) merupakan jenis analisis yang sederhana pada rumpun analisis multivariat interdependensi. Sesuai dengan fungsinya, AKU atau PCA berguna dalam meringkas data dalam artian komponen utama yang dihasilkan merupakan suatu kombinasi linear dari variabel-variabel asli penyusunnya dengan tetap mempertahankan maksimum varians awal. Sampai jumpa pada pembahasan artikel selanjutnya. SEMANGAT MENCOBA!!!
Klik “Konsultasi Gratis” untuk mendapatkan informasi atau solusi terkait dengan pertanyaan-pertanyaan seputar metodologi penelitian, aplikasi software statistik ataupun olahdata.
Pada bahasan regresi spasial baik konsepsi maupun penggunaan software pendukung yaitu GWR4, kita bertemu dengan istilah koordinat atau titik koordinat yang menunjukkan posisi wilayah (spasial) dari data yang kita miliki. Sebagai orang awam mungkin mengira dengan memiliki pengetahuan yang sedikit tentang geografi titik koordinat dapat dengan mudah diperoleh. Pada kenyataanya perlu ilmu dan keahlian khusus untuk dapat memperoleh koordinat tersebut. Selain itu untuk mencocokan titik koordinat yang sudah didapat pun diperlukan perlakuan agar titik koordinat tersebut cocok untuk diaplikasikan pada software yang kita miliki (misal : GWR4 untuk kebutuhan pengolahan data).
Pada kesempatan ini kita akan sama-sama belajar tentang koordinat tersebut, titik koordinat dapat diperoleh salah satunya dengan alat yang dinamakan dengan GPS atau kepanjangan dari Global Positioning System (Sistem Pencari Posisi Global). Untuk smartphone zaman now sudah banyak menggunakan teknologi GPS ini, tapi mungkin masalahnya apakah smartphone ini dapat menghasilkan data yang betul-betul kita kehendaki. Data yang kita kehendaki bagi pengalikasian dalam regresi spasial adalah dalam bentuk format lintang (latitude) dan bujur (longitude), nah dengan alat khusus GPS ini format titik koordinat dalam bentuk lintang (latitude) dan bujur (longitude) ini dapat diperoleh.
Global Positioning System (GPS)
GPS, singkatan dari Global Positioning System (Sistem Pencari Posisi Global), adalah suatu jaringan satelit yang secara terus menerus memancarkan sinyal radio dengan frekuensi yang sangat rendah. Alat penerima GPS secara pasif menerima sinyal ini, dengan syarat bahwa pandangan ke langit tidak boleh terhalang, sehingga biasanya alat ini hanya bekerja di ruang terbuka. Satelit GPS bekerja pada referensi waktu yang sangat teliti dan memancarkan data yang menunjukkan lokasi dan waktu pada saat itu. Operasi dari seluruh satelit GPS yang ada disinkronisasi sehingga memancarkan sinyal yang sama. Alat penerima GPS akan bekerja jika ia menerima sinyal dari sedikitnya 4 buah satelit GPS, sehingga posisinya dalam tiga dimensi bisa dihitung. Pada saat ini sedikitnya ada 24 satelit GPS yang beroperasi setiap waktu dan dilengkapi dengan beberapa cadangan. Satelit tersebut dioperasikan oleh Departemen Pertahanan Amerika Serikat, mengorbit selama 12 jam (dua orbit per hari) pada ketinggian sekitar 11.500 mile dan bergerak dengan kecepatan 2000 mil per jam. Ada stasiun penerima di bumi yang menghitung lintasan orbit setiap satelit dengan teliti.
Gambar 1. Contoh Gambar GPS
Sebetulnya GPS adalah suatu sistem yang dapat membantu kita mengetahui posisi koordinat dimana kita berada. Sedangkan untuk menerima sinyal yang dipancarkan oleh GPS, kita membutuhkan suatu alat yang dapat membaca sinyal tersebut. Yang biasa kita sebut sebagai GPS, yang sebenarnya merupakan alat penerima. Karena alat ini dapat memberikan nilai koordinat dimana ia digunakan maka keberadaan GPS merupakan terobosan besar bagi SIG.
Konversi Titik Koordinat Hasil GPS
Koordinat adalah suatu titik yang didapatkan dari hasil perpotongan dari garis lintang (latitude) dengan garis bujur (longitude) sehingga akan menunjukan lokasi pada suatu daerah. Umumnya koordinat dibedakan menjadi koordinat Geographic dan Universal Transver Mercator (UTM). Pada Koordinat Geogprahic dibedakan menjadi tiga berdasarkan satuannya yaitu :
Degree, Decimal (DD,DDDD) Contoh : S 3.56734 E 104.67235
Degree, Minute (DD,MM,MMMM) Contoh : S 3⁰ 43,5423’ E 104 33,6445’
Degree, Minute, Second (DD,MM,SS,SS) Contoh : S 3⁰ 43’ 45,22” E 104 33’ 33,25”
Pada Bujur (Longitude) (X) merupakan garis yang perpindahannya secara vertical dan pada Lintang (Lattitude) (Y) merupakan garis yang mempunyai perpindahan secara horizontal, perpotongan antara garis bujur dan garis lintang akan membentuk suatu titik pertemuan yang biasa disebut dengan titik koordinat.
Gambar 2. Longitude (X) dan Lattitude (Y)
Koordinat umumnya dituliskan dengan format DMS (Degree–Minute–Second), terkadang juga dituliskan dengan format decimal (cat: jika berada dibelahan bumi Utara dan Timur maka bernilai positif dalam hal ini untuk nilai Lintang atau Latitude dan Bujur atau Longitude).
1. Untuk konversi DMS to Decimal, sebagai berikut :
>>> Misalkan Koordinat Site A : 80 11’ 16.00’’ S dan 1140 55’ 54.00’’ E <<<
Untuk konversi lintang/latitude, sebagai berikut :
Karena berada di belahan South/Selatan (Negative Earth), maka hasil akhirnya bernilai negatif. Hal yang sama untuk konversi Lintang/Longitude, di mana hasil akhirnya 144.931667 (bernilai positif, karena berada di belahan East/Timur (Positive Earth)).
2. Untuk konversi Decimal to DMS, sebagai berikut :
>>> Misalkan Koordinat Site A : -8.187778 dan 114.931667 <<<
Untuk konversi lintang/ latitude (-8.187778) , sebagai berikut :
> Nilai D/Degree diambil dari Nilai Integer bernilai positif, yaitu 8
> Nilai M/Minute diambil dari Nilai Integer ((Pecahan Nilai Degree) * 60)
= int (0.187778 * 60) = int (11.26668) = 11 , hasil akhirnya
> Nilai S/Second diambil dari ((Pecahan Nilai Minute * 60)
= (0.26668 * 60) = 16.0008 = 16.00 , hasil akhirnya dengan pembulatan
Pada proses pengaplikasiannya pada software Geographically Weighted Regression (GWR4) penggunaan koordinat untuk mengidentifikasi wilayah digunakan model Desimal. Yang perlu diperhatikan adalah kehati-hatian dalam penggunaan GPS, jika terkendala dalam memperoleh titik koordinat lokasi secara mandiri, sekarang banyak penyedia jasa dalam mencari koordinat-koordinat wilayah tersebut. Hanya saja akan menjadi cost tambahan dalam proses penelitian yang dilakukan. SEMANGAT MEMAHAMI !!!
Pada bahasan analisis regresi spasial sedikit banyak kita mengenal tahapan untuk menemukan model yang terbaik dengan asumsi bahwa terdapat bias kewilayahan atau spasial pada model regresi umum, sehingga digunakan model regresi dengan pembobotan berdasarkan kewilayahan atau spasial. Beberapa software yang dapat membantu peneliti dalam memproses data hasil penelitian yang terboboti wilayah seperti disebutkan pada artikel sebelumnya adalah OpenGeoDa dan GWR.
Pada kesempatan kali ini kita akan sedikit mengenalkan lingkungan dari software GWR4 atau Geographically Weighted Regression versi 4.0. Perlu dingatkan bahwa pembahasan ruang lingkup pada software GWR4 masih berkaitan dengan tahapan dalam proses analisa pada data terboboti wilayah, jadi ada baiknya bangun kepahaman terlebih dahulu tentang konsepsi regresi spasial yang sudah diuraikan pada artikel sebelumnya.
Berikut beberapa tampilan dari tahapan proses pemodelan dalam software GWR4 :
Pastikan dalam komputer atau laptop anda sudah terinstall dengan baik sofware GWR4, dimana terdapat icon seperti gambar berikut :
Jalankan software GWR4 dengan cara double click pada icon tersebut sehingga muncul tampilan seperti gambar berikut. Dimana tampilan tersebut memperlihatkan menu-menu dari software GWR4 yang dapat dengan mudah memandu peneliti dalam proses pengolahan data yang dimiliki. Dari gambar terlihat bahwa ada 5 tahapan yang diperlukan dalam proses pembentukan model regresi terboboti wilayah.
Default pada STEP 1 : Data, pada bagian ini sesuai dengan tahapan merujuk pada manual book merupakan tahapan “start your session by giving it a title then open your data file” yaitu pemberian judul pada analisis yang akan dilakukan dan penginputan data kedalam software GWR4. Seperti ditunjukkan pada gambar berikut. Untuk mengecek data sudah terinputkan dengan benar, klik “View Data”.
Pada STEP 2 : Model, pada bagian ini sesuai dengan tahapan merujuk pada manual book merupakan tahapan “specify one regrssion type and the variable setting needed for GWR modelling” yaitu berupa pemilihan model regresi yang akan di bangun berdasarkan jenis dari distribusi datanya (Gaussian, Poisson dan Logistic). Selain itu pada STEP 2, didefinisikan juga variabel-variabel yang akan disertakan dalam proses analisis pembentukan model. Seperti ditunjukkan pada gambar berikut. Pastikan data koordinat (X_Lon,Y_Lat) dari lokasi (spasial) penelitian sudah tersedia.
Pada STEP 3 : Kernel, pada bagian ini sesuai dengan tahapan merujuk pada manual book merupakan tahapan “choose a geographical kernel type and its bandwidth size. Automated optimisation of bandwidth size is also available” yaitu berupa pemilihan fungsi pembobot Kernel, baik itu dengan fixed maupun adaptive. Selain itu pada STEP 3, ditentukan juga bandwidth baik itu default search maupun definitive nilai yang dimiliki. Dan terakhir pada STEP 3, dilakukan pemilihan kriteria dalam pengujian fit model GWR. Seperti ditunjukkan pada gambar berikut.
Pada STEP 4 : Output, pada bagian ini sesuai dengan tahapan merujuk pada manual book merupakan tahapan “specify filenames for the files storing the modelling result” yaitu berupa pemilihan lokasi dalam menyimpan output hasil proses modeling dengan sofware GWR4. Seperti ditunjukkan pada gambar berikut.
Pada STEP 5 : Execute, pada bagian ini sesuai dengan tahapan merujuk pada manual book merupakan tahapan “execute the session to compare necessary calculations and read the results” yaitu untuk memulai proses estimasi model GWR. Klik tombol “execute this session”, selanjutnya GWR4 akan melakukan proses estimasi. Seperti ditunjukkan pada gambar berikut.
Dari proses di STEP : 5, tunggu beberapa saat sampai GWR4 memuncul-kan informasi dengan teks “Program terminated” pada kotak hasil. Kita dapat melihat hasil estimasi pada kotak hasil dan juga melihat nilai estimasi koefisien variabel bebas pada model GWR dengan mengklik tombol “View the parameter estimates”. Hasil tersebut juga dapat dibuka pada file output yang kita set pada tab STEP 4.
Pada kesempatan selanjutnya kita akan coba ulas pemrosesan dengan menggunakan data yang diperoleh dari lapangann dengan menggunakan software Geographically Weighted Regression (GWR4), untuk menguatkan pemahaman terhadap penggunaan software GWR4 serta pemahaman perbedaan hasil antara model regresi umum tanpa mempertimbangkan faktor kewilayahan (spasial) dengan model hasil GWR4 dengan mempertimbangkan faktor kewilayahan (spasial). SEMANGAT MEMAHAMI !!!
Pembahasan kita sekarang menginjak lebih banyak pada pembahasan tentang analisis dalam rumpun multivariat. Pada bahasan sebelumnya kita sudah banyak membahas tentang regresi, analisis faktor, path analysis dan struktural equation modeling (SEM). Analisis tersbut merupakan rumpun dari analisis multivariat. Pada bahasan kali ini kita akan sedikit banyak mengupas analisis lain dalam multivariat yaitu principal component analysis. Sekilas mirip dengan analisis faktor eksploratori atau pun analisis faktor konfirmatori, akan tetapi analisis komponen utama (AKU) atau principal component analysis (PCA) dalam aplikasinya lebih sederhana dibandingkan dengan analisis faktor.
Pada bahasan sebelumnya, pada pengujian asumsi regresi linear klasik bab multikolinearitas sedikit dibahas dalam hal perbaikan model regresi jika terdapat masalah multikolinearitas. Fungsi dari principal component analysis (PCA) adalah dengan merangkum banyak variabel bebas (X) yang memiliki indikasi saling berkorelasi ataupun saling mempengaruhi menjadi satu atau lebih variabel baru yang memuat kombinasi dari variabel-variabel bebas (X) sebelumnya, yang akan memungkinkan menghilangkan masalah multikolinearitas ketika dibentuk suatu model regresi (regresi komponen utama).
Pada kesempatan kali ini kita akan sedikit banyak menguraikan analisis principal component analysis (PCA) dari segi konsepsi dan bagaimana menghasilkan komponen yang optimal dari sekelompok banyak variabel.
Principal Component Analysis (PCA)
Pada dasarnya analisis komponen utama (PCA) bertujuan menerangkan struktur varians-kovarians melalui kombinasi linear dari variabel-variabel. Secara umum analisis komponen utama bertujuan untuk mereduksi data dan menginterpretasikannya. Meskipun dari dari p buah variabel asal dapat diturunkan menjadi p buah komponen utama untuk menerangkan keragaman total sistem (p buah variabel), namun seringkali keragaman total itu dapat diterangkan secara memuaskan oleh sejumlah kecil komponen utama, misal, oleh k buah komponen utama, dimana k < p (k lebih kecil dari pada p). Dalam hal ini, k buah komponen utama dapat menggantikan p buah variabel asal.
Analisis komponen utama sering kali dilakukan tidak saja merupakan akhir dari suatu pengolahan data tetapi juga merupakan tahap (langkah) antara dalam kebanyakan penelitian yang bersifat lebih besar (luas). Sebagai misal dalam analisis regresi komponen utama (principal component regression), maka analisis komponen utama akan merupakan tahap antara karena komponen utama dipergunakan sebagai input dalam membangun analisis regresi, demikian pula dalam analisis kluster, komponen utama dipergunakan sebagai input untuk melakukan pengelompokan.
Konsep Dasar Principal Component Analysis (PCA)
Komponen utama pertama adalah kombinasi linear terbobot dari variabel asal yang dapat menerangkan keragaman terbesar.
Komponen utama kedua adalah kombinasi linear terboboti dari variabel asal yang tidak berkorelasi dengan komponen utama pertama, serta memaksimumkan sisa keragaman data setelah diterangkan oleh komponen utama pertama.
Dan seterusnya.
Sebagai catatan dalam penggunaan principal component analysis (PCA), pertama, apabila satuan dari variabel (X) yang digunakan dalam membangun komponen utama tidak sama, maka variabel perlu ditransformasikan terlebih dahulu kedalam angka baku (Z). Kedua, ada dua jenis bentuk input dalam pemrosesan pembentukan komponen utama yaitu matriks varians-kovarians dan matriks korelasi, matriks varians-kovarians digunakan jika satuan dari variabel sama dan matriks korelasi digunkan jika satuan dari variabel tidak sama dan variabel di transformasikan ke dalam bentuk angka baku (Z). Ketiga, penentuan dalam penggunaan jenis matriks sebagai input dari perhitungan komponen utama (S atau R) menentukan dalam formulasi yang digunakan dalam rangka menghitung besarnya bagian atau persentase keragaman total yang mampu diterangkan oleh komponen utama ke-j dan formulasi yang digunakan untuk mengukur keeratan hubungan (korelasi) antara variabel asal dengan komponen utama yang tebentuk. Keempat, perhitungan nilai skor komponen utama diperoleh dari hasil perkalian nilai variabel (X) dengan nilai vektor eigen yang dihasilkan dari proses perhitungan (bukan dari hasil perkalian faktor loading dengan nilai variabel X-nya).
Kriteria Dalam Principal Componen Analysis (PCA)
Biasanya dalam principal component analysis (PCA), dari p buah komponen utama yang ada dipilih k buah komponen utama saja yang telah mampu menerangkan keragaman data cukup tinggi, katakanlah sekitar 80% s.d 90% dengan kriteria k < p. Misal, apabila p berukuran besar, sedangkan diketahui bahwa sekitar 80% s.d 90% keragaman total telah mampu diterangkan satu, dua atau tiga komponen utama pertama, maka komponen-komponen utama tersebut telah dapat menggantikan p buah variabel asal tanpa mengurangi informasi yang banyak.
Selanjutnya untuk menentukan variabel mana yang berkontribusi besar pada tiap komponen utama yang terbentuk, ditentukan berdasarkan nilai keeratan hubungan (nilai loading) yang dihasilkan antara variabel asal dengan komponen utama. Besar kontribusi untuk masing-masing variabel penelitian dalam komponen utama ditentukan dengan semakin tinggi nilai loading yang dihasilkan, berdasarkan kriteria korelasi di mana nilai korelasi lebih besar atau sama dengan 0.500 memiliki hubungan yang kuat dan sebaliknya untuk nilai korelasi lebih kecil dari 0.500 memiliki hubungan yang lemah.
Penentuan Banyak Komponen Utama
Penentuan banyaknya komponen utama yang akan di ekstrak dapat ditentukan beberapa cara diantaranya:
Kriteria eigen value, ditentukan dengan memilih komponen utama yang memiliki nilai eigen lebih besar atau sama dengan satu (1). Komponen utama dengan nilai eigen kurang dari satu (1) dikeluarkan dari analisis.
Kriteria apriori. Dalam hal ini peneliti sudah menetapkan terlebih dahulu berapa banyak komponen utama yang akan diekstrak.
Kriteria persentase varians. Banyaknya komponen utama yang akan diekstrak ditentukan oleh persentase kumulatif varians (bahasan sebelumnya)
Scree test. Dilakukan dengan membuat plot eigen value terhadap komponen utama berdasarkan urutan perolehannya. Kurva yang diperoleh menjadi dasar penetapan banyaknya komponen utama yang akan diekstrak. Banyak komponen utama ditentukan apabila kurva menjadi datar dengan melihat pada sumbu komponen utama.
Dengan mengetahui dan memahami fungsi dari principal componen analysis (PCA), para peneliti, khususnya peneliti pemula dapat dengan mudah mengaplikasikannya pada teori dan data lapangan yang dimilikinya. Principal componen analysis (PCA) juga bermanfaat dalam regrouping variabel-variabel dengan melakukan penamaan ulang pada komponen utama yang terbentuk, dengan melihat karakteristik dominan variabel yang menyusunya. SEMANGAT MENCOBA!!!
Pada artikel sebelumnya kita sudah banyak membahas pola hubungan antar variabel yang asimetris salah satu diantaranya adalah analisis regresi linear baik itu dalam konsep linear sederhana ataupun multivariat (lebih dari satu variabel bebas). Dalam analisis regresi linear, kita sudah membahas pula beberapa asumsi regresi linear klasik yang berguna dalam memastikan bahwa model yang dihasilkan oleh data “baik”, baik itu dari segi penaksiran parameter yang dihasilkan (nilai beta) dan proporsionalnya selang kepercayaan dalam pengujian hipotesis (uji F dan t). Regresi Spasial!
Pada kesempatan kali ini kita akan sedikit membahas analisis regresi dari perspektif kewilayahan (spasial). Pada bahasan pengujian heteroskedastisitas pada model regresi, sudah sedikit dibahas adanya pengaruh heteroskedastisitas pada model regresi yang dihasilkan, yaitu adanya keberagaman varians dari faktor gangguan yang akan mengganggu pada hasil penaksiran yang dihasilkan oleh model regresi. Salah satu faktor yang memungkinkan yang dapat menyebabkan heteroskedastisitas pada model adalah faktor kewilayahan atau spasial. Sehingga perlakuan pada data yang akan dibentuk menjadi sebuah model regresi terdapat penyesuaian diantaranya pada pembahasan sebelumnya (artikel : Asumsi Non Heteroskedastisitas Pada Model Regresi), pada poin pertama, dengan menggunakan nilai koefisien regresi b yang dihasilkan dari kuadrat terkecil tertimbang/terboboti (weighted least square-WLS)
Data Spasial
Data spasial merupakan data yang memuat informasi tentang atribut dan informasi lokasi. Sedangkan data bukan spasial hanya memuat informasi tentang atribut saja. Sebagai ilustrasi, data produk yang dihasilkan oleh suatu perusahaan berdasarkan banyaknya karyawan merupakan contoh data bukan spasial. Banyaknya orang yang bertahan dari suatu penyakit di berbagai daerah di suatu negara merupakan contoh data spasial (Fortheringham et al, 2002).
Data spasial merupakan sebuah data yang berorientasi geografis, memiliki sistem koordinat tertentu sebagai dasar referensinya dan mempunyai dua bagian penting yang membuatnya berbeda dari data lain, yaitu informasi lokasi (spatial) dan deskriptif (attribute) yang dijelaskan sebagai berikut :
Informasi lokasi (spatial) berkaitan dengan suatu koordinat geografi yaitu lintang (latitude) dan bujur (longitude)
Informasi deskriptif (attribute) atau informasi non-spasial, suatu lokasi yang memiliki beberapa keterangan seperti populasi atau jenis vegetasi. (Fikri, dkk, 2009)
Data spasial secara sederhana dapat diartikan sebagai data yang memiliki referensi keruangan (geografi). Setiap bagian dari data tersebut selain memberikan gambaran tentang suatu fenomena, juga dapat memberikan informasi mengenai lokasi dan juga persebaran dari fenomena tersebut dalam suatu ruang (wilayah). Apabila dikaitkan dengan cara penyajian data, maka peta merupakan bentuk/cara penyajian data spasial yang paling tepat.
Analisis terhadap data spasial memerlukan perhatian lebih dibandingkan dengan analisis terhadap data bukan spasial. Kondisi dari suatu lokasi pengamatan akan berbeda dengan lokasi pengamatan yang lain. Meskipun demikian, kondisi disuatu lokasi pengamatan akan memiliki hubungan yang erat dengan lokasi pengamatan lain yang berdekatan.
Hal tersebut sesuai dengan hukum I Tobler yang dikemukakan oleh Tobler (Tobler’s first law of geography) dalam Schanbenberger dan Gotway (2005), yaitu “Everything is related to everything else, but near thing are more related than distant thing.” Yang berarti “Segala sesuatu saling berhubungan satu dengan yang lainya, tetapi sesuatu yang dekat lebih mempunyai pengaruh daripada sesuatu yang jauh.”
Hubungan tersebut dinamakan efek spasial. Efek spasial di sini terkait dengan perbedaan karakteristik lingkungan dan geografis antar lokasi pengamatan sehingga masing-masing pengamatan kemungkinan memiliki variasi yang berbeda atau terdapat perbedaan pengaruh variabel prediktor terhadap variabel respon untuk setiap lokasi pengamatan. Efek spasial ini kemudian disebut sebagai keragaman spasial atau heterogenitas spasial.
Oleh karena itu, diperlukan sebuah metode statistika yang diharapkan dapat mengantisipasi heterogenitas spasial. Metode statistika tersebut yaitu metode regresi terboboti geografis atau Geographically Weighted Regression (GWR).
Geographically Weighted Regression (GWR)
Model regresi terbboboti geografi (RTG) atau Geographically Weighted Regression (GWR) pertama kali diperkenalkan oleh Fotheringham pada tahun 1967. Model GWR adalah pengembangan dari model regresi linear klasik atau ordinary linear regression (OLR). Model GWR adalah model regresi yang dikembangkan untuk memodelkan data dengan variabel respon yang bersifat kontinu dan mempertimbangkan aspek spasial atau lokasi.
Pendekatan yang dilakukan dalam GWR adalah pendekatan titik. Setiap nilai parameter ditaksir pada setiap titik lokasi pengamatan, sehingga setiap titik lokasi pengamatan mempunyai nilai parameter yang berbeda-beda.
Penaksiran Keofisien Regresi GWR
Penaksiran regresi pada Geographically Weighted Regression (GWR) dilakukan dengan menggunakan metode kuadrat terkecil terboboti atau Weighted Least Square (WLS), yaitu metode kuadrat terkecil dengan memberikan pembobotan yang berbeda pada setiap titik lokasi pengamatan. Pembobotan tersebut berupa matriks diagonal dimana elemen-elemen diagonalnya merupakan sebuah fungsi pembobot dari titik lokasi pengamatan.
Misalkan pembobot untuk setiap titik lokasi pengamatan (ui, vj) adalah Wij, maka koefisien regrei pada titik lokasi pengamatan (ui,vj) ditaksir dengan menambahkan pembobot Wij pada persamaan regresi dan meminimumkan jumlah kuadrat error-nya.
(perhitungan manual penaksir regresi linear dapat diaplikasikan dengan menggunakan matriks –lebih dari 2 variabel bebas, dengan adanya pembobotan spasial maka fungsi matriks awal digabung dengan matriks bobot spasial-Wij)
Pembobot Model GWR
Peran pembobot dalam GWR merupakan aspek penting. Pembobot tersebut bergantung pada jarak antar titik lokasi pengamatan. Seperti penjelasan sebelumnya, pembobot tersebut berupa berupa matriks diagonal dimana elemen-elemen diagonalnya merupakan sebuah fungsi pembobotan dari setiap titik lokasi pengamatan. Fungsi dari matriks pembobot adalah untuk menentukan atau menaksir parameter yang berbeda pada setiap titik lokasi pengamatan.
Matriks pembobot pada GWR merupakan matriks pembobot berbasis pada kedekatan titik lokasi pengamatan ke-i dengan titik lokasi pengamatan lainnya. Pengamatan terdekat ke titik lokasi pengamatan ke-i umumnya diasumsikan memiliki pengaruh paling besar terhadap penaksiran parameter di titik lokasi pengamatan ke-i. Oleh karena itu, matriks pembobot W (ui,vj) akan semakin besar seperti jarak yang semakin dekat.
Terdapat beberapa cara yang dapat digunakan untuk menentukan nilai pembobot. Pertama, yang paling sederhana adalah dengan memberikan bobot sebesar 1 untuk setiap titik lokasi pengamatan i dan j. Sehingga, model yang dihasilkan apabila menggunakan fungsi pembobot ini adalah model regresi linear klasik (OLR). Kedua, pembobot dalam GWR juga dapat ditentukan dengan menggunakan fungsi invers jarak yang melibatkan dij (jarak euclidean antara titik lokasi pengamatan ke-i dengan titik pengamatan ke-j dan b (bandwidth) yang dianalogikan sebagai radius (b) suatu lingkaran, sehingga sebuah titik lokasi pengamatan yang berada dalam radius lingkaran masih dianggap berpengaruh dalam membentuk parameter di titik lokasi pengamatan ke-i. Fungsi invers jarak akan memberikan bobot = 1, jika titik lokasi ke-j berada di dalam radius b. Sedangkan jika titik lokasi ke-j berada di luar radius b dari titik lokasi ke-i, maka fungsi invers jarak akan memiliki bobot = 0. Ketiga, matriks pembobot W (ui,vj) dapat ditentukan dengan menggunakan fungsi Kernel. Fungsi Kernel memberikan pembobotan sesuai bandwidth optimum yang nilainya bergantung pada kondisi data. Terdapat dua jenis fungsi Kernel dalam GWR, yaitu fungsi Kernel tetap atau fixed Kernel dan fungsi Kernel adaptif atau adaptif Kernel (Wheeler dan Antonio, 2010).
Fungsi Kernel Tetap : memiliki bandwidth yang sama pada setiap titik lokasi pengamatan. Diantaranya : fungsi Kernel Gaussian dan fungsi Kernel Bi-square.
Fungsi Kernel adaptif : memiliki bandwidth yang berbeda untuk setiap lokasi pengamatan. Hal ini disebabkan kemampuan fungsi Kernel adaptif yang dapat disesuaikan dengan kondisi titik-titik pengamatan. Bila titik-titik lokasi pengamatan tersebar secara padat disekitar lokasi pengamatan ke-i maka bandwidth yang diperoleh relatif sempit. Sebaliknya jika titik-titik lokasi pengamatan memiliki jarak yang relatif jauh dari titik lokasi ke-i maka bandwidth yang diperoleh akan semakin luas (Dwinata,2012). Diantaranya : fungsi Kernel Gaussian dan fungsi Kernel Bi-square.
Bandwidth pada GWR
Dalam fungsi Kernel di atas, terdapat parameter bandwitdh yang nilainya tidak diketahui. Sehingga perlu dilakukan penaksiran terhadap parameter bandwidth tersebut. Bandwidth dapat dianalogikan sebagai radius (b) suatu lingkaran, sehingga sebuah titik lokasi pengamatan yang berada dalam radius (b) lingkaran masih dianggap berpengaruh dalam membentuk parameter di titik lokasi pengamatan ke-i. Pemilihan bandwidth optimum dalam GWR merupakan hal yang penting karena akan mempengaruhi ketepatan model terhadap data.
Nilai bandwidth yang sangat kecil akan mengakibatkan penaksiran parameter di lokasi pengamatan ke-i semakin bergantung pada titik lokasi pengamatan lain yang memiliki jarak terdekat dengan lokasi pengamatan ke-i, sehingga varians yang dihasilkan akan semakin besar. Sebaliknya, jika nilai bandwidth sangat besar makan akan mengakibatkan bias semakin besar, sehingga model yang diperoleh terlalu halus (Dwinata, 2012).
Metode yang digunakan untuk menentukan bandwidth optimum salah satunya adalah metode validasi silang atau cross validation (CV). Nilai bandwidth optimum diperoleh ketika CV minimum (Fotheringham, 2002).
Langkah-langkah analisis
Adapun langkah-langkah analisis yang dilakukan dengan menggunakan Geographically Weighted Regression (GWR) adalah :
Mendeskripsikan variabel respon (Y) dan variabel-variabel prediktor (X) yang akan dilibatkan dalam pembentukan model regresi
Menganalisis model regresi linear klasik atau Ordinary Linear Regression (OLR) dengan langkah-langkah sebagai berikut :
Melakukan uji asumsi residual atau asumsi regresi linear klasik (normalitas, multikolinearitas, heteroskedastisitas, autokorelasi)
Menaksir parameter model regresi linear klasik dengan metode kuadrat terkecil atau Ordinary Least Square (OLS)
Melakukan uji keberartian model regresi linear berganda (uji F dan uji t)
Menganalisis model Geographically Weighted Regression (GWR) dengan langkah-langkah sebagai berikut :
Menentukan koordinat longitude-latitude tiap titik wilayah pengamatan
Menentukan bandwidth salah satunya berdasarkan kriteria CV minimum
Menghitung matriks pembobot (Wij) tiap titik wilayah pengamatan dengan fungsi Kernel
Menaksir parameter GWR dengan menggunakan bandwidth optimum
Membandingkan jumlah kuadrat residual atau residual sum of square dan koefisien determinasi R2 model dari OLS dan model GWR dengan pembobot fixed Kernel dan GWR dengan pembobot adaptive Kernel.
Menginterpretasi dan menyimpulkan hasil yang diperoleh.
Dari uraian secara konsep, terlihat begitu kompleks perhitungan regresi dengan menggunakan Geographically Weighted Regression (GWR). Yang perlu diperhatikan oleh peneliti dan data analis adalah dari tahapan atau proses perhitungan dari Geographically Weighted Regression (GWR) itu sendiri agar tidak menimbulkan kebingungan. Pemahaman terhadap detail dari komponen penyusun uji Geographically Weighted Regression (GWR) dapat dipahami secara bertahap sesuai dengan urutan tahapan analisis dengan mempertimbangkan peran dan fungsi komponen tersebut dalam analisi Geographically Weighted Regression (GWR).
Keterbatasan dari peneliti atau data analis dalam meng-olahdata hasil pengumpulan data dari lapangan mungkin akan ditemui. Akan tetapi kini sudah tersedia banyak software pendukung yang dapat digunakan peneliti atau data analis untuk memudahkan dalam men-generate model dari Geographically Weighted Regression (GWR). Beberapa diantaranya adalah software GWR, OpenJump, OpenGeoDa atau karena biasanya analisis Geographically Weighted Regression (GWR) bersinggungan dengan proses mapping atau pemetaan, bagi peneliti atau data analis dapat menggunakan pula software dalam rumpun ArcGis, ArcView untuk menghasilkan peta tematik sesuai dengan kasus yang sedang diteliti.
Pada kesempatan selanjutnya kita coba akan ulas secara singkat software pendukung dalam analisis Geographically Weighted Regression (GWR). SEMANGAT MEMAHAMI !!!