About

Menampilkan postingan yang diurutkan menurut tanggal untuk kueri uji asumsi. Urutkan menurut relevansi Tampilkan semua postingan
Menampilkan postingan yang diurutkan menurut tanggal untuk kueri uji asumsi. Urutkan menurut relevansi Tampilkan semua postingan

Rabu, 29 April 2020

PENJELASAN LANJUTAN ANALISIS CLUSTER / KLASTER

Perbedaan mendasar analisis faktor dengan analisis klaster terletak pada apa yang dikelompokkan/direduksinya. Dalam analisis faktor mengelompokkan variabel namun pada analisis klaster mengelompokkan objek/responden. Jika data sudah diinput dalam suatu worksheet pengolahan data, maka yang membedakan keduanya yaitu pada analisis faktor meengelompokkan kolom sedangkan pada analisis klaster mengelompokkan baris. Pengelompokkan ini didasarkan pada klasifikasi objek atau responden/kasus dalam kelompok yang homogen. Kelompok homogen ini disebut klaster.

Analisis klaster telah digunakan dalam pemasaran dengan berbagai tujuan (menurut J.Supranto, 2004) sebagai berikut :
1. Tujuan membuat segmen pasar.
2. Memahami perilaku membeli
3. Mengenali peluang produk baru
4. Memilih uji pasar
5. Mereduksi data

Langkah-langkah dalam analisis klaster sebagai berikut :
1. Merumuskan masalah pengklasteran dengan mendefinisikan variabel yang digunakan.
2. Memilih ukuran jarak atau similaritas. Ukuran kemiripan yang paling biasa digunakan adalah jarak Euclidean yaitu akar dari jumlah kuadrat deviasi.
3. Memilih prosedur pengklasteran apakah hirarki atau non hirarki. Biasanya dalam pemasaran menggunakan metode hirarki aglomeratif.
4. Menentukan banyaknya klaster, tidak ada aturan baku, namun sebagai pertimbangan dapat digunakan hal berikut ini :
a. Pertimbangan teoritis, konseptual, dan praktis
b. Dalam klaster hirarki dapat menggunakan jarak
c. Dalam klaster Non-Hirarki dapat menggunakan rasio jumlah varian dalam klaster dengan antar klaster dapat diplotkan . Titik dimana suatu siku atau lekukan tajam terjadi menunjukkan banyaknya klaster.
5. Menginterpretasikan profil klaster
6. Menguji reliabilitas dan validitas klaster.

Hal ini dapat juga dilihat pada gambar 1 berikut ini :


Gambar 1. Langkah-langkah Analisis Klaster
Sumber : Supranto, 2004.

Klasifikasi prosedur pengklasteran dapat dilihat pada gambar 2 berikut ini :
Gambar 2. Klasifikasi Prosedur Pengklasteran
Sumber : Supranti, 2004

Selanjutnya kita bahas secara singkat masing-masing prosedur :
1. Klaster Hirarki
Diawali dengan pengelompokkan dua atau lebih objek yang memiliki kesamaan paling dekat. Selanjutnya masing-masing kelompok lakukan lagi pengelompokkan yang memiliki kesamaan paling dekat, demikian seterusnya hingga tidak ada yang mirip. Metode ini terlihat seperti akar pohon. Biasanya menggunakan dendogram dalam membantu menjelaskan proses hirarkinya.

Metode klaster hirarki terbagi atas dua yaitu :
a. Agglomerative = pemusatan --> setiap objek dianggap sebuah klaster, lalu cari yang mirip dan digabungkan menjadi klaster baru, dst.
b. Divisive = penyebaran --> sebuah klaster besar yang terdiri dari keseluruhan objek, lalu ketidakmiripan objek yang paling tinggi dipisahkan, dst.

2. Klaster Non-Hirarki
Diawali dengan menentukan jumlah klaster yang diinginkan apakah dua, tiga, dst. Selanjutnya proses klaster dilakukan tanpa mengikuti proses hirarki yang biasa disebut juga K-Means Cluster. Langkah-langkahnya :
a.   Memilih klaster pusat
b.   Semua objek dalam jarak tertentu ditempatkan pada klaster yang terbentuk.
c. Memilih klaster selanjutnya dan menempatkan kembali objek sampai objek semuanya ditempatkan.

Beberapa istilah jenis-jenis analisis klaster :
Single Linkage : Didasarkan pada jarak terkecil, jika jaraknya berdekatan maka akan menjadi satu klaster.
Complete Linkage : Didasarkan pada jarak terjauh, jika jaraknya berjauhan maka akan mejadi beda klaster.
Average Linkage : Didasarkan pada rata-rata jarak seluruh individu dalam klaster dengan jarak seluruh individu dalam klaster yang lain.
Ward's Methods : Didasarkan pada jumlah Sum of Square dua klaster pada masing-masing variabel
Sequential Tresholds Methods : Diawali dengan pemilihan satu klaster, kemudian penempatan objek dengan jarak tertentu, lalu lanjut dengan penempatan objek jarak tertentu lainnya, dan seterusnya.
Parallel Treshold Methods : Diawali dengan memilih sejumlah klaster secara bersamaan dan menempattkan objek ke dalamnya. Jika ada yang tidak bisa ditempatkan, maka objek itu dibiarkan saja.
Optimization Methods : Menempati objek dengan optimal yaitu memungkinkan kembali objek untuk ditempatkan.

Langkah analisis klaster lainnya yaitu interpretasi hasil maksudnya adalah memberi nama spesifik untuk menggambarkan isi klaster. Dalam melakukan analisis klaster diperlukan uji asumsi yaitu sampel benar-benar mewakili populasi dan uji multikolinearitas.


by MEYF



Selasa, 05 April 2016

~"JIKA NILAI INTERCEPT PADA REGRESI LINEAR BERNILAI NEGATIF"~

Sedikit membahas mengenai regresi linear yang digunakan untuk mengetahui apakah terdapat pengaruh antara variabel bebas terhadap variabel terikat. Persamaan regresi linear atau disebut juga model regresi linear yang kita ketahui secara umum adalah berbentuk :

Y = a + b1X1 + ....+ bnXn

Selanjutnya adalah menginterpretasikan hasil dari model linear tersebut. Sebagaimana yang kita ketahui untuk menguji apakah ada pengaruh variabel X1, ..., Xn maka dilakukanlah pengujian terhadap nilai koefisien regresi yang kita sebut dengan slope. Ada beberapa tahap pengujian yaitu uji parsial dengan uji t dan uji simultan dengan uji F selanjutnya adalah menentukan besarnya koefisien determinasi. 

Misalkan kita akan melihat pengaruh jumlah promosi (X) terhadap penjualan (Y), diperoleh model yang signifikan berpengaruh yaitu:

Y = 0,125 + 0,452 X + error

Interpretasi model tersebut adalah 

  1. Nilai 0,125 adalah intercept yang berarti jika tidak ada promosi, maka penjualan sekitar 0,125 atau 12,5%.
  2. Nilai 0,452 adalah slope yang berarti jika jumlah promosi naik satu satuan maka penjualan akan naik sebesar 0,452 atau 45,2%.
Bagaimana jika model regresinya seperti berikut ini?

Y = -0,125 + 0,452 X + error

Tentu ada yang aneh pada nilai intercept yang negatif. Dimana artinya adalah jika tidak ada promosi maka penjualan adalah negatif 0,125. Dalam dunia nyata tidak ada penjualan yang negatif. 

Pertanyaannya : Kenapa hal ini terjadi?
Jika asumsi klasik atau asumsi dasar sudah terpenuhi dengan baik, hasil analisis regresi ini tidak ada yang salah. Dalam hal ini jangkauan nilai variabel bebas seringkali tidak memasukkan nol sebagai nilai yang diamati. 

Contohnya pada skala Likert yang mulai dari skor 1. Sehingga dalam hal ini interpretasi nilai intercept tidaklah digunakan. Namun jika dalam data sampel terdapat nilai x = 0 maka nilai intercept akan bermakna jika diinterpretasikan. Jadi jika dalam olah data diperoleh nilai intercept negatif, jangan putus asa  dan bukan berarti hasil yang diperoleh adalah salah. Asalkan asumsi-asumsi regresi terpenuhi dengan baik.

Hal ini didasarkan menurut Mendenhall dkk, dalam A Second Course In Statistics - Regression Analysis 5th Edition, bahwa "..........The reason is that we are attempting to use the least squares model to predict y for a value of x (x = 0) that is outside the range of the sampel data and therefore impractical. (We have more to say about predicting outside the range of the sample data - called extrapolation). Consequently, intercept will not always have a practical interpretation. Only when x=0 is within the range of the x values in the sampel and is a practical value will have a meaningful interpretation.

Semoga Bermanfaat 
^_^
MEYF

Minggu, 04 Januari 2015

~"UJI AUTOKORELASI"~

Dalam statistika parametrik berbasis OLS yaitu pada regresi harus memenuhi beberapa asumsi salah satu asumsi klasik adalah tidak adanya autokorelasi. Autokorelasi adalah keadaan dimana terjadinya korelasi antara residual pada satu pengamatan dengan pengamatan lainnya pada model regresi. Sebagaimana kita ketahui bahwa salah satu prasyarat yang harus dipenuhi oleh regresi berbasis OLS adalah tidak adanya autokorelasi.

Autokorelaso terjadi antar observasi dalam satu variabel, yaitu antar waktu atau antar individu. Biasanya sering kita temukan pada data runtun waktu (time series) yang mana keadaan saat ini dipengaruhi oleh keadaan sebelumnya.

Banyak hal yang menyebabkan terjadinya autokorelasi, diantaranya adalah kesalahan dalam membentuk model linear atau non linear, adanya manipulasi data, ada variabel penting namun tidak diikutkan dalam model, dll. Akibat adanya autokorelasi ini pada analisis regresi menghasilkan estimator yang dihasilkan tidak BLUE, terdapat variabel yang seharusnya tidak berhubungan namun menjadi berhubungan yang dapat dilihat dari nilai R_Squared, adanya kesulitan saat memeriksa residual, dll.

Ada beberapa metode yang dapat digunakan untuk menguji ada atau tidaknya autokorelasi dan yang akan kita bahas diantaranya :

1. Metode Grafik
pola siklik
Pada metode ini kita membandingkan antara residual dengan variabel X, jika membentuk pola siklik maka diindikasikan adanya autokorelasi.









Selain itu dapat juga dengan membandingkan antara residual ke-t dengan residual ke-(t-1). Jika kita menemukan pola linear baik negatif ataupun positif, sebagai berikut :
Pola Linear Negatif
Pola Linear Positif

2. Uji Durbin-Watson
Pengujian berikut lebih baik dibandingkan pengujian sebelumnya, karena dengan metode grafik akan bersifat subjektif, tergantung dari kita yang melihat dan memahami pola data tersebut.

Hipotesis uji autokorelasi pada uji Durbin-Watson, adalah sebagai berikut :
Ho : Tidak terdapat autokorelasi
Ha : Terdapat autokorelasi

Statistik Uji :


dengan beberapa ketentuan sebagai berikut :
  1. Nilai d < dl atau d > (4-dl) maka terdapat autokorelasi.
  2. Nilai du < d < (4-du) maka tidak terdapat autokorelasi.
  3. Jika dl < d < du atau di antara (4-dl) < d < (4-du), maka tidak menghasilkan kesimpulan yang pasti.


Note : du dan dl diperoleh dari tabel Durbin-Watson


Dan uji lainnya adalah uji Run serta uji Breusch Godfrey yang akan kita bahas dipostingan berikutnya.



Referensi :


  • Mendenhall, Sincinch. 1996. A Second Course In Statistics. Regression Analysis. Fifth Edition. Prentice Hall Internatiomal Edition.
  • Priyatno, Duwi. 2010. Paham Analisa Statistik Data dengan SPSS. Mediakom. Yogyakarta.
  • Shochrul dkk. Cara Cerdas Menguasai Eviews. Salemba Empat. 2011. Jakarta.



Rabu, 27 Agustus 2014

UJI HETEROSKEDASTISITAS

Uji asumsi klasik berikutnya adalah uji heteroskedastisitas. Dalam analisis regresi, salah satu asumsi yang harus dipenuhi adalah varians error masing-masing variabel bebas harus konstan. Hal ini dikenal dengan istilah Homoskedastisitas. Selain itu dikenal istilah Heteroskedasitas lawan dari Homoskedastisitas, yaitu keadaan dimana terjadinya ketidaksamaan varian dari error untuk semua pengamatan setiap variabel bebas pada model regresi. 


Untuk menguji ada atau tidaknya Heteroskedastisitas dapat dilakukan melalui beberapa uji, yaitu :

  1. Uji Spearman's rho.
  2. Uji Glejser.
  3. Uji Park. 
  4. Uji melalui pola grafik
Secara umum persamaan regresi linear berganda adalah 
Y = a + b1X1 + b2X2 + error

Sedangkan Y prediksi atau mean Y adalah 
Y' = E(Y) = a + b1X1 + b2X2

Untuk metode ke-4, melalui pola grafik, ada beberapa hal yang sering muncul, yaitu :

1. Jika data berdistribusi Poisson seperti jumlah hari sakit karyawan dalam sebulan. Maka pola grafiknya adalah :
 2. Jika data berdistribusi Binomial, maka pola grafiknya adalah :
3.Jika data adalah data ekonomi dan bisnis biasanya adalah model multiplikatif (perkalian), sehingga fungsi regresi yang terbentuk adalah hasil perkalian antara Y' dengan error, yaitu Y = E(Y) * error = Y' * error
Maka pola grafiknya adalah sebagai berikut :

Ada beberapa indikator yang dapat menyebabkan terjadinya heteroskedastisitas, yaitu :

  1. Kesalahan input nilai dari variabel tidak bebas Y.
  2. Biasanya ada pada data Time Series dan data ekonomi.
  3. Adanya manipulasi data.
  4. Distribusi data yang tidak normal seperti Poisson dan Binomial.

Apa solusinya jika terjadi heteroskedastisitas?

  1. Menambah atau mengganti data sampel baru.
  2. Melakukan transformasi variabel bebas X terhadap variabel tidak bebas Y.
  3. Menggunakan metode estimasi yang lebih Advance seperti GLS (Generalized Least Squares) dan WLS (Weighted Least Squares)
  4. Menggunakan model regresi linear berganda dimana nilai residualnya mengikuti Autoregressive Conditionally Heteroscedastic orde 1 (ARCH(1) ) atau mengikuti Generalized ARCH(1).
Next Session adalah contoh pengujian Heteroskedastisitas dengan IBM SPSS 21.

by MEYF

Referensi :
  • Mendenhall, Sincinch. 1996. A Second Course In Statistics. Regression Analysis. Fifth Edition. Prentice Hall Internatiomal Edition.
  • Priyatno, Duwi. 2010. Paham Analisa Statistik Data dengan SPSS. Mediakom. Yogyakarta.
  • Sugiyono. 2009. Metode Penelitian Kuantitatif Kualitatif dan R & B. Bandung.
  • Supranto, J. 2004. Analisis Multivariat : Arti dan Interpretasi. Rineka Cipta. Jakarta.
  • Walpole, Ronald E. 1992. Pengantar Statistika Edisi ke-3. PT Gramedia Pustaka Utama. Jakarta.
  • Shochrul dkk. Cara Cerdas Menguasai Eviews. Salemba Empat. 2011. Jakarta.

Selasa, 19 Agustus 2014

CONTOH UJI MULTIKOLINEARITAS DENGAN IBM SPSS 21

Berikut kita lakukan uji multikolinearitas dengan menggunakan software statistik IBM SPSS 21. Bersumber dari buku Prentice Hall International Edition, "A Second Course in Statistics : Regression Analisys".

Berdasarkan data tahunan dari The Federal Trade Comission (FTC) mengenai peringkat berbagai produk rokok lokal berdasarkan kandungan tembakau (mg), kandungan nikotin (mg), berat rokok (gram) dan karbon monoksida yang dihasilkan oleh rokok. Ahli bedah USA mempertimbangkan bahwa ketiga zat kimia tersebut sangat berbahaya bagi kesehatan perokok. Penelitian terdahulu menyimpulkan bahwa meningkatnya jumlah tembakau dan nikotin dalam rokok akan terjadi bersama-sama dengan meningkatnya karbon monoksida yang dihasilkan dari rokok saat digunakan. Berikut data yang diperoleh dari 25 merek rokok lokal di USA.
Source : Federal Trade Comission
Model Regresi yang dapat dibentuk adalah :
Y' = a + b1X1 + b2X2 + b3X3
dimana 
Y  = Karbon monoksida (mg)
X1 = Kandungan tembakau (mg)
X2 = Kandungan nikotin (mg)
X3 = Berat rokok (gram)

Dari data di atas akan diuji apakah terjadi multikolinearitas atau tidak dengan menggunakan IBM SPSS 21. Berikut langkah-langkahnya :
1. Klik  Start -> IBM SPSS 21
2. Pilih Variabel View dan isikan data seperti berikut :

3. Pilih Data View  dan isikan data seperti berikut :
4. Klik Analyze -> Regression -> Linear
5. Pindahkan variabel Karbon monoksida (Y) ke kolom Dependent dan variabel  Kandungan TAR (X1), Kandungan Nikotin (X2) dan Berat rokok (X3) ke kolom Independent. 
6. Tandai Estimates, Model Fit dan Collinearity dianostics lalu klik Continue ->  OK
7. Output pertama yang diperoleh adalah Variables Entered/Removed menunjukkan metode analisa regresi yaitu dengan metode Enter.
8. Output berikutnya adalah tabel Model Summary memperlihatkan nilai R Square dan Adjusted R Square yang tinggi yaitu 0,919 dan 0,907. Hal ini menunjukkan variabel-variabel bebas pada model dapat menjelaskan sekitar 90,7% variabel tak bebas pada model regresi tersebut.
9. Output berikutnya adalah tabel ANOVA menunjukkan nilai F=79,557 yang berguna untuk uji ketepatan model. Jika kita bandingkan dengan F tabel=3,07 (dengan k=3 dan v=25-(3+1)=21), maka nilai F=79,44 > F-tabel=3,07, sehingga model regresi secara keseluruhan adalah baik secara signifikan.
10. Output berikutnya adalah tabel Coefficients menunjukkan nilai parameter a, b1, b2 dan b3, sebagai berikut 
  • a = 3,210
  • b1 = 0,965 menunjukkan nilai korelasi antara variabel X1 dan Y positif dengan sig. = 0,001 
  • b2 = -2,654 menunjukkan nilai korelasi antara variabel X2 dan Y negatif, hal ini bertentangan dengan penelitian terdahulu, dan nilai sig. = 0,503 yang tidak signifikan. Sehingga patut dicurigai adanya pelanggaran asumsi regresi.
  • b3 = -1,47 menunjukkan nilai korelasi antara variabel X3 dan Y negatif, hal ini bertentangan dengan penelitian terdahulu, dan nilai sig. = 0,970 yang tidak signifikan. Sehingga patut dicurigai adanya pelanggaran asumsi regresi.
Hal ini pun didukung dengan nilai VIF pada kolom paling akhir, yang masing-masing variabel X2 dan X3 memiliki nilai VIF > 10 yang menunjukkan bahwa terjadinya pelanggaran asumsi multikolinearitas.

Dan jika kita hitung nilai R Square masing-masing parameter yang akan dibandingkan dengan nilai parameter, maka dapat diperoleh R Square = 1 - 1/(VIF)
  • Parameter b1 = 0,965 maka nilai R Square = 1 - (1/21,631) = 1 - 0,046 = 0,956 
  • Parameter b2 = -0,2654 maka nilai R Square = 1 - (1/21,900) = 1 - 0,46 = 0,956 
  • Parameter b3 = -0,147 maka nilai R Square = 1 - (1/1,334) = 1 - 0,7496 = 0,2504

Seperti kita ketahui bahwa nilai parameter adalah nilai yang menunjukkan hubungan antara variabel bebas dengan variabel tak bebas dalam model regresi. Dan hal ini berhubungan dengan nilai koefisien determinasi R Square. Diperoleh bahwa nilai parameter b2 dan b3 memiliki perbedaan yang sangat jauh dengan nilai masing-masing R Square-nya. Hal ini patut dicurigai bahwa terjadinya multikolinearitas dalam model regresi. 


by MEYF

Minggu, 17 Agustus 2014

UJI MUTIKOLINEARITAS (Test of Multicolinearity)

Misalkan model regresi Y' = a + b1X1 + b2X2, dimana pada variabel X1 dan X2 terdapat informasi yang redundan sehingga terjadinya hubungan atau korelasi antara variabel bebas X1 dan X2. Sehingga dalam hal ini akan mengganggu atau memberikan solusi yang tidak maksimum untuk model regresi. Kejadian ini disebut sebagai multikolinearitas.

Multikolinearitas adalah adanya hubungan atau korelasi linear yang sempurna atau pasti di antara beberapa atau semua variabel independen yang menjelaskan dari model regresi. Jika dalam model regresi terjadi multikolinearitas, maka akan muncul beberapa masalah serius dalam model. secara statistik masalah tersebut yaitu :
  • Akan mengakibatkan meningkatnya nilai likelihood error dalam mengestimasi parameter, standar error, dll. 
  • Hasil model regresi akan membingungkan dan menyesatkan.
Dalam model regresi asumsi yang harus dipenuhi adalah tidak adanya multikolinearitas antara variabel independen. Ada beberapa metode yang dapat dilakukan untuk menguji multikolinearitas :
  1. Dengan melihat nilai VIF (Variance Inflation Factor) pada model regresi.
  2. Membandingkan nilai koefisien determinasi bk dengan nilai determinasi R^2 secara serentak.
  3. Melihat nilai Eigenvalue dan Condition Index.
Adapun beberapa indikator terjadinya multikolinearitas dalam model regresi : 
Y' = a + b1X1 + b2X2, +...+bkXk,
  1. Adanya hubungan signifikan antara variabel bebas dalam model.
  2. Hasil uji-t yang tidak signifikan untuk semua parameter bk namun uji-F yang signifikan dalam uji ketepatan model.
  3. Adanya tanda yang berlawanan dengan apa yang diharapkan saat mengestimasi parameter. Misalnya saat menghitung korelasi antara Y dengan X1 diperoleh nilai korelasi R bertanda positif sedangkan korelasi dalam model regresi antara Y dan X1 (dilihat dari nilai parameter b1) diperoleh nilai bertanda negatif.
  4. Terjadinya perbedaan nilai yang besar antara koefisien regresi dengan nilai korelasi. Misalnya nilai korelasi antara variabel Y dengan X1 adalah r = 0,780 dan nilai signifikan. Sedangkan nilai koefisien regresi antara Y dan X1 b1 = 0,160 dan tidak signifikan.
  5. VIF = 1/(1-(Ri^2)) dimana Ri adalah koefisien determinasi dalam model. Jika nilai VIF lebih besar dari 10 maka terjadi multikolinearitas.
Jika hal di atas terjadi dalam model regresi Anda, patut untuk dicurigai bahwa terjadinya multikolinearitas dalam model regresi, sehingga terjadi pelanggaran asumsi. 

Apa solusi yang dapat kita lakukan jika terjadi multikolinearitas?
  1. Menambah atau mengganti data sampel baru, memang hal ini akan mengeluarkan cost yang besar.
  2. Menghapus salah satu variabel prediktor yang mengalami multikolinearitas (kadang bisa mengakibatkan salah menghapus variabel).
  3. Mengabaikannya selama tidak menimbulkan masalah serius dalam model regresi. Namun hindari inferensi mengenai parameter bk dan batasi nilai variabel bebas agar tidak terjadi perbedaan mencolok antara nilai Y (nyata) dengan Y' (estimasi).
  4. Jika tujuan kita ingin membentuk hubungan sebab akibat antara Y dengan variabel bebas Xk maka gunakan Design of Experiment (Rancangan Percobaan).
  5. Untuk mengurangi rounding error dan menstabilkan koefisien regresi maka gunakan Ridge Regression untuk mengestimasi parameter bk.
  6. Mengganti metode analisis regresi dengan yang lebih advance seperti metode stepwise, PCR (principle component regression), dll.
Next session...tahap pengujian multikolinearitas dengan SPSS IBM 21.

by MEYF


Referensi :
- Mendenhall, Sincinch. 1996. A Second Course In Statistics. Regression Analysis. Fifth Edition. Prentice Hall Internatiomal Edition. 
- Priyatno, Duwi. 2010. Paham Analisa Statistik Data dengan SPSS. Mediakom. Yogyakarta.
- Sugiyono. 2009. Metode Penelitian Kuantitatif Kualitatif dan R & B. Bandung.
- Supranto, J. 2004. Analisis Multivariat : Arti dan Interpretasi. Rineka Cipta. Jakarta.
- Walpole, Ronald E. 1992. Pengantar Statistika Edisi ke-3. PT Gramedia Pustaka Utama. Jakarta.
- Shochrul dkk. Cara Cerdas Menguasai Eviews. Salemba Empat. 2011. Jakarta.




UJI ASUMSI KLASIK REGRESI

Sebelumnya kita sudah membahas sebagian mengenai analisis regresi linear. Dapat kita rangkum beberapa langkah dalam analisis regresi linear :
  • Membuat bentuk model regresi linear
  • Mengambil data sampel
  • Gunakan data sampel untuk mengestimasi parameter model linear
  • Tentukan distribusi dari random error dan estimasi parameter lain yang tidak diketahui dari distribusi tersebut.
  • Uji kegunaan model secara statistik
  • Ketika model sudah sesuai maka model dapat digunakan untuk memprediksi atau mengestimasi. 
Dalam regresi linear berganda yang berbasis OLS (Ordinary Least Square), persyaratan statistik yang harus dipenuhi sebelum melakukan analisis regresi linear berganda yaitu disebut dengan uji asumsi regresi. Namun analisis regresi linear yang tidak berdasarkan OLS tidak memerlukan uji asumsi, seperti regresi logistik.

Secara umum, uji asumsi untuk regresi dapat dikelompokkan atas :
1. Uji asumsi dasar regresi
  • Uji normalitas
  • Uji linearitas
  • Uji homogenitas
2. Uji asumsi klasik regresi 
  • Uji multikolinearitas 
  • Uji heteroskedastisitas
  • Uji autokorelasi
  • Uji normalitas
Tidak ada ketentuan urutan uji mana yang harus dilakukan terlebih dahulu. Uji asumsi regresi ini dilakukan agar hasil analisa regresi yang diperoleh lebih akurat. Jika terdapat salah satu asumsi yang tidak terpenuhi, maka ada kecurigaan bahwa analisis yang diperoleh kurang akurat, error yang besar, koefisien yang tidak minim, variabel bebas yang tidak terdeteksi sehingga bisa menyebabkan kesalahan interpretasi. 

Untuk itu jika asumsi regresi tidak terpenuhi, dilakukan beberapa hal agar dapat memenuhi uji asumsi tersebut, sebagai contoh uji normalitas, jika tidak terpenuhi maka salah satu solusinya adalah menambah jumlah sampel atau melakukan transformasi variabel, dll. Dan jika asumsi dasar masih tidak terpenuhi maka selanjutnya adalah mengubah analisis data regresi dengan analisis data yang lain yang dianggap lebih tepat. 

Uji Normalitas (Test of normality) digunakan untuk mengetahui apakah populasi data berdistribusi normal atau tidak. Biasanya digunakan untuk data berskala ordinal, interval atau pun rasio. Uji yang biasa digunakan adalah uji Liliefors melalui nilai pada Kolmogorov Smirnov. (See this Uji Liliefors)

Uji Linearitas (Test of Linearity) digunakan untuk mengetahui apakah dua variabel mempunyai hubungan yang linear atau tidak secara signifikan. Pada SPSS diperoleh melalui ANOVA dengan memilih icon "Test for Linearity".

Uji Homogenitas (Test of Homogenity) digunakan untuk mengetahui apakah beberapa varian populasi data adalah sama atau tidak. Pada SPSS diperoleh melalui ANOVA dengan memilih Test of Homogenity, dan hasilnya bisa dilhat dari nilai Levene Test dimana semakin kecil nilainya maka semakin besar homogenitasnya.

Uji Multikolinearitas (Test of Multicolinearity) digunakan untuk mengetahui ada atau tidaknya hubungan linear antar variabel independen dalam model regresi. Pada SPSS diperoleh melalui Linear Regression dengan memilih icon Collinearity diagnostics, dan hasilnya ada pada kolom VIF yang memiliki nilai kurang dari 5 maka tidak terdapat multikolinearitas.

Uji Heteroskedastisitas (Test of Heteroskedasticity) digunakan untuk mengetahui ada atau tidaknya ketidaksamaan varian dari residual pada model regresi. Pada SPSS diperoleh melalui Bivariate Correlation.

Uji Autokorelasi (Test of Autocorrelation) digunakan untuk mengetahui ada atau tidaknya korelasi antara satu residual pengamatan dengan residual pengamatan lainnya pada model regresi. Pada SPSS diperoleh melalui Linear Regression dengan memilih icon Durbin-Watson.

Dalam regresi linear ada empat asumsi yang harus dipenuhi (see this Analisis Regresi Sederhana), yaitu :
  1. Masing-masing variabel bebas adalah linear dan tidak berkorelasi.
  2. Random error memiliki variansi konstan.
  3. Random error saling bebas (independen).
  4. Random error memiliki distribusi normal dengan mean 0 dan standar deviasi tetap.
Masing-masing asumsi dapat diuji dengan uji asumsi klasik di atas, yaitu 
  1. Asumsi 1 : Uji normalitas
  2. Asumsi 2 : uji heteroskedastisitas
  3. Asumsi 3 : Uji autokorelasi
  4. Asumsi 4 : Uji multikolinearitas
Untuk selanjutnya akan kita bahas satu-persatu. 


Semoga bermanfaat ;)

by MEYF


Referensi 

- Mendenhall, Sincinch. 1996. A Second Course In Statistics. Regression Analysis. Fifth Edition. Prentice Hall Internatiomal Edition. 
- Priyatno, Duwi. 2010. Paham Analisa Statistik Data dengan SPSS. Mediakom. Yogyakarta.
- Sugiyono. 2009. Metode Penelitian Kuantitatif Kualitatif dan R & B. Bandung.
- Supranto, J. 2004. Analisis Multivariat : Arti dan Interpretasi. Rineka Cipta. Jakarta.
- Walpole, Ronald E. 1992. Pengantar Statistika Edisi ke-3. PT Gramedia Pustaka Utama. Jakarta.
- Shochrul dkk. Cara Cerdas Menguasai Eviews. Salemba Empat. 2011. Jakarta.

Selasa, 01 Juli 2014

ANALISIS REGRESI LINEAR BERGANDA (DUA VARIABEL BEBAS)

Sebelumnya kita sudah membahas mengenai analisis linear sederhana yaitu mengetahui hubungan secara linear antara satu variabel bebas X dengan satu variabel tak bebas Y. Selanjutnya kita akan membahas mengenai hubungan linear antara dua atau lebih variabel bebas X terhadap satu variabel tak bebas Y.
Analisis Linear Berganda bertujuan 
  • Untuk memprediksi nilai dari variabel tak bebas Y jika diketahui nilai variabel-variabel bebas X1, X2, ..., Xn.
  • Untuk mengetahui hubungan antara variavel tak bebas Y jika variabel-variabel bebas X1, X2, ..., Xn mengalami kenaikan atau penurunan. 
  • Untuk mengetahui arah hubungan antara variabel tak bebas dengan variabel-variabel bebas.
Untuk asumsi yang harus dipenuhi sama dengan analisis regresi linear sederhana. Pls see this Asumsi Dasar dan Asumsi Klasik Regresi.

Hal-hal yang harus diketahui dalam Analisis Regresi Linear Berganda :

> Variabel Tak Bebas Y
Variabel yang dipengaruhi.Jumlahnya satu variabel tak bebas.

> Variabel Bebas X1, X2, ..., Xn
Variabel yang mempengaruhi dan jumlahnya dua atau lebih variabel bebas.

> Persamaan Regresi Linear Berganda :

Y' = a + b1 X1 + b2 X2 + ... + bn Xn
dimana
Y'             = variabel tak bebas (nilai yang diprediksikan)
X1, X2, ..., Xn = variabel bebas
a              = konstanta (nilai Y'bila variabel X1,X2,...,Xn=0)
b1, b2, ..., bn = koefisien regresi 

Dalam hal ini kita harus menentukan nilai konstanta a dan koefisien regresi b1, b2,...bn
  
Kita akan ambil kasus variabel X1 dan X2, sehingga persamaan regresi akan menjadi
Y' = a + b1 X1 + b2 X2

Nilai koefisien regresi b1 dan b2 jika 
  • bernilai 0, maka tidak ada pengaruh variabel bebas X1 dan X2 terhadap variabel tak bebas Y.
  • bernilai negatif maka terjadi hubungan yang berbalik arah antara variabel bebas X1 dan X2 dengan variabel tak bebas Y.
  • bernilai positif maka terjadi hubungan yang searah antara variabel bebas X1 dan X2 dengan variabel tak bebas Y.
maka harus tentukan nilai konstanta a dan koefisien regresi b1 dan b2 dengan formula berikut ini :



dimana

> Analisis Koefisien Determinasi (R2)

  • Artinya : Sekitar R2 variasi variabel tidak bebas Y dapat dijelaskan oleh variabel bebas X1 dan X2.
  • Koefisien determinasi digunakan untuk mengetahui prosentase sumbangan pengaruh variabel bebas X1 dan X2 terhadap variabel bebas Y.
  • Jika nilai R2=0 berarti variasi variabel bebas X1 dan X2 tidak sedikitpun dapat menjelaskan variasi variabel tidak bebas Y dalam model tersebut.
  • Jika nilai R2=1 berarti variasi variabel bebas X1 dan X2 dapat menjelaskan dengan SEMPURNA variabel tidak bebas Y dalam model tersebut. 
  • Jadi nilai koefisien determinasi R2 sebesar mungkin.


> Analisis Korelasi Ganda (R)

  • Gunanya adalah untuk mengetahui seberapa besar korelasi yang terjadi antara variabel bebas X1, X2, ..., Xn secara serentak dengan variabel tak bebas Y.
  • Nilainya -1 ≤ R ≤ +1, R semakin mendekati nilai +/- 1 maka semakin kuat hubungannya yang terjadi dan sebaliknya jika R mendekati 0 maka semakin lemah hubungan yang terjadi.

> Korelasi Parsial

Korelasi parsial berarti korelasi antara satu variabel bebas dengan satu variabel tak bebas Y dimana variabel bebas lainnya dianggap tetap atau konstan.
  • r12.Y adalah korelasi antara variabel bebas X1 dan X2 dimana variabel Y dianggap tetap. 

  • rY1.2 adalah korelasi antara variabel bebas X1 dengan variabel tak bebas Y dimana variabel X2 dianggap tetap. 

  • rY2.1 adalah korelasi antara variabel bebas X2 dengan variabel tak bebas Y dimana variabel bebas X1 dianggap tetap.

dimana 

> Standart Error Estimate


Jika nilai kesalahan baku besar, berarti persamaan regresi yang terbentuk kurang tepat untuk melakukan peramalan/prediksi, dan akan memiliki selisih yang besar antara nilai Y kenyataan dengan Y prediksi.

> Uji Koefisien Regresi Secara Bersama-sama (Uji F)
Uji F digunakan untuk mengetahui apakah variabel independen X1 dan X2 secara bersama-sama signifikan berpengaruh terhadap variabel tak bebas Y.

Langkah-langkah uji-F :

1. Hipotesis Uji
Ho : b1 b= 0;(Tidak ada pengaruh variabel bebas Xdan X2 terhadap variabel tak bebas Y)
Ha : $ bi ≠ 0;(Ada pengaruh variabel bebas Xdan X2 terhadap variabel tak bebas Y)

2. Taraf Signifikansi
Tingkat signifikansi yang biasa digunakan adalah 5%, adapun yang lainnya adalah 1% - 10%.


3.  Menentukan Daerah Penolakan Ho (Daerah Kritis)
Bentuk pengujian F berbeda dengan uji sebelumnya. 
Ho akan ditolak jika Fhitung > Ftabel,berarti H1 diterima.
Ho akan diterima jika Fhitung  Ftabel, berarti H1 ditolak.


4. Menentukan Statistik Uji F-hitung

dimana k adalah jumlah variabel dan n adalah jumlah data sampel.

5.  Keputusan (Membandingkan Fhitung dengan Ftabel.

6. Kesimpulan (Apakah ada pengaruh antara variabel bebas X1 dan X2 terhadap variabel tidak bebas Y).

> Uji Koefisien Regresi secara Parsial (Uji-t)
Uji ini digunakan untuk mengetahui apakah dalam model regresi variabel bebas X1 dan X2 secara parsial berpengaruh signifikan terhadap variabel tak bebas Y.

Langkah-langkah pengujiannya adalah sama dengan uji t pada regresi linear sederhana, yaitu:

1.  Menentukan Hipotesis Uji
Ho : bi = 0 
(tidak ada pengaruh antara variabel bebas Xi terhadap variabel tidak bebas Y)
Ha : bi ≠ 0 
(ada pengaruh antara variabel bebas Xi terhadap variabel tidak bebas Y)

2.  Menentukan Tingkat Signifikansi
Tingkat signifikansi yang biasa digunakan adalah 5%, adapun yang lainnya adalah 1% - 10%.

3.  Menentukan Daerah Penolakan Ho (Daerah Kritis)
Bentuk pengujian kita adalah dua arah sehingga gunakan uji-t dua arah :
Ho akan ditolak jika thitung > ttabel atau -(thitung) < -(ttabel),berarti H1 diterima.
Ho akan diterima jika -(thitung) < ttabel < thitung , berarti H1 ditolak.
4.  Menentukan t-hitung

5.  Keputusan (Membandingkan t-hitung dengan t-tabel.

6. Kesimpulan (Apakah ada pengaruh antara variabel bebas Xi terhadap variabel tidak bebas Y).


by MEYF

Reference:
- Mendenhall, Sincinch. 1996. A Second Course In Statistics. Regression Analysis. Fifth Edition. Prentice Hall Internatiomal Edition. 
- Priyatno, Duwi. 2010. Paham Analisa Statistik Data dengan SPSS. Mediakom. Yogyakarta.
- Sugiyono. 2008. Metode Penelitian Bisnis. Alfabeta. Bandung.
- Sugiyono. 2009. Metode Penelitian Kuantitatif Kualitatif dan R & B. Bandung.
- Sugiyono, 2008. Statistik Nonparametris untuk Penelitian. Alfabeta. Bandung.
-Supranto, J. 2004. Analisis Multivariat : Arti dan Interpretasi. Rineka Cipta. Jakarta.
-Walpole, Ronald E. 1992. Pengantar Statistika Edisi ke-3. PT Gramedia Pustaka Utama. Jakarta.