Dalam tulisan saya sebelumnya, "Kesalahan Spesifikasi Model: Penyebab dan Solusi", telah saya sebutkan bahwa salah satu penyebab terjadinya kesalahan spesifikasi model adalah tidak terpenuhinya asumsi teoritis yang mendasari sebuah model regresi. Hal ini merupakan masalah klasik yang seringkali mumusingkan. Pada tulisan kali ini, saya akan membahas sedikit lebih jauh mengenai pelanggaran asumsi ketika bekerja dengan model regresi, khususnya regresi data panel. Apakah memungkin bagi kita untuk berdamai dengan masalah ini? Jika bisa, bagaimanakah caranya? Akan dibahas dalam tulisan ini. Pembahasan akan saya buat lebih sederhana tanpa urain teknis statistik matematik.
Asumsi Dalam Model Regresi Linier Klasik
Sebuah model statistik haruslah feasible, yakni dalam praktek dapat digunakan untuk menganalisis suatu masalah secara kuantitatif. Singkat kata, parameter di dalam model haruslah dapat diestimasi berdasarkan data empiris yang ada. Ada sejumlah metode yang dapat digunakan untuk mengestimasi parameter sebuah model. Metode-metode teresebut antara lain: Maximum Likelihood, Method of Moment, dan dalam regresi linier kita mengenal metode least squares dengan berbagai variannya.
Dalam regresi, salah satu metode yang paling sering digunakan untuk menduga parameter regresi adalah metode least squares. Lewat metode ini, parameter regresi diestimasi dengan meminimumkan jumlah kuadrat galat (error).
Salah satu varian dari metode least squares yang biasa kita dengar adalah ordinary least squares (OLS). Point utama dari metode ini adalah upaya untuk menimumkan jumlah kuadrat galat (residual) dalam mengestimasi parameter regresi, dimana residual diasumsikan sebagai suatu peubah acak yang bersifat identik dan independent serta mengikuti sebaran normal dengan rataan nol dan varians tertentu dari sampel ke sampel (sample to sample). Dengan metode ini diperoleh sebuah penduga parameter yang BLUE (best, linear, and unbiased estimator). Secara lengkap, asumsi-asumsi teoritis yang disyaratkan terkait residual dalam pendugaan parameter regresi dengan OLS adalah sebagai berikut:
Salah satu varian dari metode least squares yang biasa kita dengar adalah ordinary least squares (OLS). Point utama dari metode ini adalah upaya untuk menimumkan jumlah kuadrat galat (residual) dalam mengestimasi parameter regresi, dimana residual diasumsikan sebagai suatu peubah acak yang bersifat identik dan independent serta mengikuti sebaran normal dengan rataan nol dan varians tertentu dari sampel ke sampel (sample to sample). Dengan metode ini diperoleh sebuah penduga parameter yang BLUE (best, linear, and unbiased estimator). Secara lengkap, asumsi-asumsi teoritis yang disyaratkan terkait residual dalam pendugaan parameter regresi dengan OLS adalah sebagai berikut:
- Residual berdistribusi normal dengan rataan nol dan varians bernilai tertentu. Jika asumsi normalitas tidak terpenuhi, inferensi atau penarikan kesimpulan terkait estimasi parameter dan pengujian hipotesis tidak dapat dilakukan. Dan apa bila dipaksakan hasil estimasi akan meaningless.
- Asumsi kedua, yang pada dasarnya masih berkaitan dengan asumsi pada point (1), adalah kenormalan dari distribusi residual dari sampel ke sampel harus identik dan independent (saling bebas). Konsekwensi dari kondisi ini sangat jelas, yakni residual adalah homoskedastis dan terbebas dari korelasi diri atau korelasi dengan dirinya sendiri (nonautokorelasi).
Dalam kenyataanya, secara praktek, tidak terpenuhinya asumsi kenormalan sangat jarang dijumpai. Masalah yang seringkali muncul adalah varians dari residual tidak homoskedastis (heteroskedastis) dan atau terjadi autokorelasi.
Kasus heteroskedastisitas merupakan masalah serius kerena menyebabkan penduga OLS yang dihasilkan tidak lagi bersifat BLUE, tepatnya tidak lagi efisien atau tidak lagi memiliki varians minimum meskipun tetap merupakan penduga yang unbiased. Dan ini bukanlah satu-satunya implikasi serius yang bakal terjadi, masih ada yang lebih serius dari itu, yakni hasil penghitungan standard error tidak dapat digunakan. Walhasil, penghitungan t-statistik juga tidak dapat digunakan, sehingga pengujian hipotesis mengenai parameter regresi tidak dapat dilakukan. Jika dipaksakan, hasilnya tidak valid.
Sementara itu, jika terjadi kasus autokorelasi, implikasi yang ditimbulkan kurang lebih sama dengan kasus heterokedastis, yakni hasil pengujian hipotesis tidak valid. Dalam praktek, autokorelasi hampir selalu terjadi pada model regresi dengan data runtun waktu (time-series). Dan sangat jarang terjadi pada data cross-section.
Berdamai dengan Pelanggaran Asumsi
Kasus heteroskedastisitas merupakan masalah serius kerena menyebabkan penduga OLS yang dihasilkan tidak lagi bersifat BLUE, tepatnya tidak lagi efisien atau tidak lagi memiliki varians minimum meskipun tetap merupakan penduga yang unbiased. Dan ini bukanlah satu-satunya implikasi serius yang bakal terjadi, masih ada yang lebih serius dari itu, yakni hasil penghitungan standard error tidak dapat digunakan. Walhasil, penghitungan t-statistik juga tidak dapat digunakan, sehingga pengujian hipotesis mengenai parameter regresi tidak dapat dilakukan. Jika dipaksakan, hasilnya tidak valid.
Sementara itu, jika terjadi kasus autokorelasi, implikasi yang ditimbulkan kurang lebih sama dengan kasus heterokedastis, yakni hasil pengujian hipotesis tidak valid. Dalam praktek, autokorelasi hampir selalu terjadi pada model regresi dengan data runtun waktu (time-series). Dan sangat jarang terjadi pada data cross-section.
Berdamai dengan Pelanggaran Asumsi
Jika terjadi pelanggaran asumsi, dan kita tidak ingin dipusingkan dengan tindakan treatment pada data yang belum tentu bakal memberikan hasil yang memuaskan (kepentingan kita terkait hasil estimasi model bukanhanya terpenuhinya asumsi, tetapi model yang dihasilkan juga harus dapat digunakan untuk menganalisis masalah), maka tindakan yang dapat kita lakukan adalah "berdamai" dengan pelanggaran asumsi tersebut.
Berdamai yang saya maksudkan di sini adalah mengakomodasi pelanggaran asumsi yang terjadi (heterokedastis dan autokorelasi) ke dalam proses estimasi dengan menggunakan Feasible Generalized Least Squares (FGLS) atau tetap menggunakan OLS dengan standard error yang dikoreksi sehingga kebal (robust) terhadap pelanggaran asumsi. Dan yang terkahir ini biasa disebut regresi dengan robust standard error. Saat ini, sejumlah paket program pengolahan data (missal E-views) telah memberikan fasilitas bagi kita untuk menjalankan misi perdamaian di atas …….(bersambung)
Berdamai yang saya maksudkan di sini adalah mengakomodasi pelanggaran asumsi yang terjadi (heterokedastis dan autokorelasi) ke dalam proses estimasi dengan menggunakan Feasible Generalized Least Squares (FGLS) atau tetap menggunakan OLS dengan standard error yang dikoreksi sehingga kebal (robust) terhadap pelanggaran asumsi. Dan yang terkahir ini biasa disebut regresi dengan robust standard error. Saat ini, sejumlah paket program pengolahan data (missal E-views) telah memberikan fasilitas bagi kita untuk menjalankan misi perdamaian di atas …….(bersambung)
Komentar
Posting Komentar