About

Menampilkan postingan yang diurutkan menurut relevansi untuk kueri uji asumsi. Urutkan menurut tanggal Tampilkan semua postingan
Menampilkan postingan yang diurutkan menurut relevansi untuk kueri uji asumsi. Urutkan menurut tanggal Tampilkan semua postingan

Minggu, 17 Agustus 2014

UJI ASUMSI KLASIK REGRESI

Sebelumnya kita sudah membahas sebagian mengenai analisis regresi linear. Dapat kita rangkum beberapa langkah dalam analisis regresi linear :
  • Membuat bentuk model regresi linear
  • Mengambil data sampel
  • Gunakan data sampel untuk mengestimasi parameter model linear
  • Tentukan distribusi dari random error dan estimasi parameter lain yang tidak diketahui dari distribusi tersebut.
  • Uji kegunaan model secara statistik
  • Ketika model sudah sesuai maka model dapat digunakan untuk memprediksi atau mengestimasi. 
Dalam regresi linear berganda yang berbasis OLS (Ordinary Least Square), persyaratan statistik yang harus dipenuhi sebelum melakukan analisis regresi linear berganda yaitu disebut dengan uji asumsi regresi. Namun analisis regresi linear yang tidak berdasarkan OLS tidak memerlukan uji asumsi, seperti regresi logistik.

Secara umum, uji asumsi untuk regresi dapat dikelompokkan atas :
1. Uji asumsi dasar regresi
  • Uji normalitas
  • Uji linearitas
  • Uji homogenitas
2. Uji asumsi klasik regresi 
  • Uji multikolinearitas 
  • Uji heteroskedastisitas
  • Uji autokorelasi
  • Uji normalitas
Tidak ada ketentuan urutan uji mana yang harus dilakukan terlebih dahulu. Uji asumsi regresi ini dilakukan agar hasil analisa regresi yang diperoleh lebih akurat. Jika terdapat salah satu asumsi yang tidak terpenuhi, maka ada kecurigaan bahwa analisis yang diperoleh kurang akurat, error yang besar, koefisien yang tidak minim, variabel bebas yang tidak terdeteksi sehingga bisa menyebabkan kesalahan interpretasi. 

Untuk itu jika asumsi regresi tidak terpenuhi, dilakukan beberapa hal agar dapat memenuhi uji asumsi tersebut, sebagai contoh uji normalitas, jika tidak terpenuhi maka salah satu solusinya adalah menambah jumlah sampel atau melakukan transformasi variabel, dll. Dan jika asumsi dasar masih tidak terpenuhi maka selanjutnya adalah mengubah analisis data regresi dengan analisis data yang lain yang dianggap lebih tepat. 

Uji Normalitas (Test of normality) digunakan untuk mengetahui apakah populasi data berdistribusi normal atau tidak. Biasanya digunakan untuk data berskala ordinal, interval atau pun rasio. Uji yang biasa digunakan adalah uji Liliefors melalui nilai pada Kolmogorov Smirnov. (See this Uji Liliefors)

Uji Linearitas (Test of Linearity) digunakan untuk mengetahui apakah dua variabel mempunyai hubungan yang linear atau tidak secara signifikan. Pada SPSS diperoleh melalui ANOVA dengan memilih icon "Test for Linearity".

Uji Homogenitas (Test of Homogenity) digunakan untuk mengetahui apakah beberapa varian populasi data adalah sama atau tidak. Pada SPSS diperoleh melalui ANOVA dengan memilih Test of Homogenity, dan hasilnya bisa dilhat dari nilai Levene Test dimana semakin kecil nilainya maka semakin besar homogenitasnya.

Uji Multikolinearitas (Test of Multicolinearity) digunakan untuk mengetahui ada atau tidaknya hubungan linear antar variabel independen dalam model regresi. Pada SPSS diperoleh melalui Linear Regression dengan memilih icon Collinearity diagnostics, dan hasilnya ada pada kolom VIF yang memiliki nilai kurang dari 5 maka tidak terdapat multikolinearitas.

Uji Heteroskedastisitas (Test of Heteroskedasticity) digunakan untuk mengetahui ada atau tidaknya ketidaksamaan varian dari residual pada model regresi. Pada SPSS diperoleh melalui Bivariate Correlation.

Uji Autokorelasi (Test of Autocorrelation) digunakan untuk mengetahui ada atau tidaknya korelasi antara satu residual pengamatan dengan residual pengamatan lainnya pada model regresi. Pada SPSS diperoleh melalui Linear Regression dengan memilih icon Durbin-Watson.

Dalam regresi linear ada empat asumsi yang harus dipenuhi (see this Analisis Regresi Sederhana), yaitu :
  1. Masing-masing variabel bebas adalah linear dan tidak berkorelasi.
  2. Random error memiliki variansi konstan.
  3. Random error saling bebas (independen).
  4. Random error memiliki distribusi normal dengan mean 0 dan standar deviasi tetap.
Masing-masing asumsi dapat diuji dengan uji asumsi klasik di atas, yaitu 
  1. Asumsi 1 : Uji normalitas
  2. Asumsi 2 : uji heteroskedastisitas
  3. Asumsi 3 : Uji autokorelasi
  4. Asumsi 4 : Uji multikolinearitas
Untuk selanjutnya akan kita bahas satu-persatu. 


Semoga bermanfaat ;)

by MEYF


Referensi 

- Mendenhall, Sincinch. 1996. A Second Course In Statistics. Regression Analysis. Fifth Edition. Prentice Hall Internatiomal Edition. 
- Priyatno, Duwi. 2010. Paham Analisa Statistik Data dengan SPSS. Mediakom. Yogyakarta.
- Sugiyono. 2009. Metode Penelitian Kuantitatif Kualitatif dan R & B. Bandung.
- Supranto, J. 2004. Analisis Multivariat : Arti dan Interpretasi. Rineka Cipta. Jakarta.
- Walpole, Ronald E. 1992. Pengantar Statistika Edisi ke-3. PT Gramedia Pustaka Utama. Jakarta.
- Shochrul dkk. Cara Cerdas Menguasai Eviews. Salemba Empat. 2011. Jakarta.

Minggu, 26 Januari 2014

STATISTIK PARAMETRIS DAN NON PARAMETRIS



Dalam statistik inferensial terdapat statistik parametris dan statistik nonparametris. Saat kita akan melakukan analisa data, seringkali kita terbentur untuk memilih statistik apa yang cocok untuk digunakan. Apakah statistik parametris atau statistik nonparametris. Namun seringkali kita menggunakan statistik parametris, padahal hal tersebut belum tentu bisa sepenuhnya. Banyak hal yang harus kita ketahui kapan menggunakan statistik parametris dan kapan menggunakan statistik nonparametris. 

Salah satu hal yang membedakan statistik parametris dan nonparametris adalah distribusi dari data. Statistik parametris syarat utamanya adalah memenuhi asumsi kenormalan dalam artian data harus berdistribusi normal sedangkan statistik nonparametris tidak demikian, bebas distribusi.

Berikut akan dijelaskan sedikit mengenai statistik parametris dan statistik nonparametris.
1. Statistik parametris. 
Statistik parametris digunakan untuk menguji parameter populasi melalui statistik data sampel. Penggunaannya harus memenuhi banyak asumsi. Asumsi utama adalah data yang akan dianalisis harus berdistribusi normal. Jika tidak berdistribusi normal, maka data seharusnya dikerjakan dengan metode statistik nonparametris atau setidak-tidaknya dilakukan transformasi terlebih dahulu agar data mengikuti sebaran normal, sehingga bisa menggunakan analisis data dengan statistik parametris.

Ciri-ciri statistik parametris, sebagai berikut :
  1. Data yang digunakan berskala interval atau rasio.
  2. Data berdistribusi normal.
  3. Harus memenuhi asumsi-asumsi yang ditentukan, seperti normalitas, liniearitas, multikolinearitas, homogenitas, heteroskedasitas, autokorelasi, dll.
Contoh metode statistik parametris sebagai berikut:
  1. Uji satu sampel atau dua sampel dengan uji-Z
  2. Uji satu sampel atau dua sampel dengan uji-t
  3. Korelasi Pearson Product Moments
  4. Korelasi Ganda
  5. Analisis Regresi
  6. Analisis of Varians (ANOVA) - parametrik
  7. dll
Keunggulan statistik parametris, diantaranya :
  1. Observasi bebas satu sama lain dan ditarik dari populasi yang berdistribusi normal serta memiliki varian yang homogen.
  2. Biasanya tidak menguji syarat parameter dari suatu populasi dan dianggap sudah memenuhi syarat, pengukuran terhadap data dilakukan dengan kuat.
Kelemahan statistik parametris, diantaranya:
  1. Populasi harus memiliki varian yang sama.
  2. Variabel yang diteliti harus dapat diukur minimal skala interval.
  3. Dalam ANOVA harus ditambahkan persyaratan rata-rata populasi harus normal dan bervarian sama Harus merupakan kombinasi linier dari efek-efek yang ditimbulkan.
2. Statistik Nonparametris
Statistik nonparametris tidak menuntut terpenuhi banyaknya asumsi, misalnya data yang akan dianalisis tidak harus berdistribusi normal (distribution free). Sering digunakan untuk data berskala nominal dan ordinal. 

Ciri-ciri statistik nonparametris, diantaranya :
  1. Data tidak berdistribusi normal.
  2. Data berskala nominal atau ordinal.
  3. Umumnya jumlah sampel sedikit (n kecil).
  4. Umumnya dilakukan pada penelitian sosial.
Contoh uji statistik non parametris, diantaranya :
  1. Uji Binomial
  2. Uji Mc Nemar
  3. Run Test
  4. Wilcoxon 
  5. Mann-Whitney
  6. dll
Keunggulan statistik nonparametris, diantaranya:
  1. Tidak membutuhkan banyak asumsi, seperti normalitas.
  2. Tidak terikat pada data berdistribusi normal, namun dapat digunakan pada populasi berdistribusi normal.
  3. Dapat digunakan untuk data yang tidak diketahui distribusinya.
  4. Lebih mudah dikerjakan dan lebih mudah dimengerti.
  5. Dapat dilakukan secara langsung pada pengamatan yang nyata.
  6. Dapat digunakan untuk data yang berskala nominal atau ordinal.
Kelemahan statistik nonparametris, diantaranya:
  1. Hasil pengujian statistik nonparametris tidak setajam atau sekuat analisis statistik parametris. Seperti dinyatakan oleh beberapa ahli :Emory (1985): "The parametric test are more powerful are generally the tests of choisce if their use assumptions are reasonably met". dan Phopan (1973) : " ...parametric procedures are often markedly more powerful than their nonparametric counterparts.
  2. Hasil statistik nonparametris tidak dapat digeneralisasi ke populasi, karena hasil statistik nonparametris mendekati eksperimen dengan sampel kecil dan umumnya membandingkan dua sampel.
Dalam melakukan penelitian kuantitatif yang menggunakan statistik, ada dua hal utama yang harus diperhatikan yaitu :
  1. Macam data, yaitu berskala nominal, ordinal, rasio atau interval.
  2. Bentuk hipotesis, yaitu hipotesis komparatif (membandingkan), hipotesis asosiatif (hubungan) dan hipotesis deskriptif.



Reference:
- Sugiyono. 2008. Metode Penelitian Bisnis. Alfabeta. Bandung.
- Sugiyono. 2009. Metode Penelitian Kuantitatif Kualitatif dan R & B. Bandung.
- Priyatno, Duwi. 2010. Paham Analisa Statistik Data dengan SPSS. Mediakom. Yogyakarta.
- Sugiyono, 2008. Statistik Nonparametris untuk Penelitian. Alfabeta. Bandung.

Senin, 07 April 2014

CONTOH TWO WAY ANOVA

Sebelumnya kita sudah kenalkan mengenai ANOVA dua jalur. Nah..sekarang kita coba terapkan ke contoh berikut ini :

Seorang konsultan mesin dari perusahaan penyalur atau DEALER kendaraan diminta untuk mengkaji apakah ada perbedaan rata-rata efisiensi pemakaian BBM (kilometer/liter) antara tiga merek mobil. Disamping itu, ia diminta juga untuk mengkaji apakah ada perbedaan rata-rata efisiensi pemakaian BBM yang disebabkan oleh kapasitas mesin. Dari hasil pengumpulan data yang dilakukan konsultan tersebut diperoleh data sebagai berikut :

Berikut tahap ANOVA 2 arah :
1. Uji Asumsi Data.
Dalam hal ini kita anggap sudah memenuhi asumsi, karena langkah uji asumsi data sama dengan sebelumnya. Namun uji asumsi ini wajib dilakukan agar analisis ANOVA yang diperoleh memiliki keakuratan yang baik.

2. Tabel Pengamatan
3. Melakukan Perhitungan 

jumlah baris (r) = 2
jumlah kolom (k) = 3
T.. = 66
T1. = 32
T2. = 34
T.= 21
T.= 23
T.= 22



df (baris) = r-1 = 2-1 = 1
df (kolom) = k-1 = 3-1 =2
df (galat) = (r-1)(k-1) = 1*2 = 2
df (total) = (2*3 - 1) = 5

4. Merumuskan Hipotesis
Hipotesis Uji untuk Kolom :
Ho : Rata-rata efisiensi pemakaian BBM ketiga merek mobil tersebut adalah sama
Ha : Rata-rata efisiensi pemakaian BBM ketiga merek mobil tersebut adalah berbeda

Hipotesis Uji untuk Kolom :
Ho : Rata-rata efisiensi pemakaian BBM kedua kapasitas mesin mobil tersebut adalah sama
Ha : Rata-rata efisiensi pemakaian BBM kedua kapasitas mesin mobil tersebut adalah berbeda

5. Menentukan Tarf Signifikansi
Kita pilih nilai signifikansi alpha 5%.

6. Membuat Hasil Perhitungan kedalam Tabel ANOVA dan Menentukan F-Tabel








7. Menentukan Wilayah Kritis atau Kriteria Pengujian
Mencari nilai F-tabel untuk:
Baris : F-tabel = F(5%; 1; 2) = 18,513
Kolom : F-tabel = F(5%; 2; 2) = 19,000

8. Keputusan
Baris : F-hitung = 4 < F-tabel = 18,513. Ho diterima
Kolom : F-Hitung = 3 < F-tabel = 19,000. Ho diterima

9. Kesimpulan 
Tidak ada perbedaan nyata rata-rata efisiensi pemakaian BBM terhadap ketiga merek mobil tersebut.
Tidak ada perbedaan nyata rata-rata efisiensi pemakaian BBM terhadap kedua kapasitas mesin tersebut.

-Supranto, J. 2004. Analisis Multivariat : Arti dan Interpretasi. Rineka Cipta. Jakarta.
-Walpole, Ronald E. 1992. Pengantar Statistika Edisi ke-3. PT Gramedia Pustaka Utama. Jakarta.

Minggu, 29 Juni 2014

ANALISIS REGRESI SEDERHANA

Dalam analisis regresi sederhana tujuannya adalah untuk melihat hubungan linier antara variabel bebas X dengan variabel tidak bebas Y dan memprediksi nilai variabel tidak bebas Y dari nilai yang diberikan variabel bebas X.

Asumsi-asumsi dasar yang harus dipenuhi sebelum melakukan analisis regresi linier sederhana adalah :
  1. Model regresi harus linier secara parameter (uji liniearitas). 
  2. Berdistribusi normal (uji normalitas).
  3. Varians data sama (uji homogenitas).

Asumsi klasik regresi :
  1. Tidak ada korelasi antara variabel bebas atau hubungan linier sempurna (uji multikolinearitas)
  2. Varians masing-masing error selalu konstan (uji heteroskedasitas).
  3. Tidak ada korelasi antara error yang satu dengan error yang lainnya (uji autokorelasi).
  4. Masing-masing error berdistribusi normal dengan mean nol dan standar deviasi tetap.
Dalam analisis regresi yang harus diketahui adalah :

> Variabel bebas / independent / tidak terikat
  • Biasanya disimbolkan dengan X (huruf kapital).Adalah variabel yang mempengaruhi variabel lain.(pls see this jenis-jenis variabel).

> Variabel tidak bebas / dependent / terikat
  • Biasanya disimbolkan dengan Y (huruf kapital).Adalah variabel yang dipengaruhi oleh variabel lain.(pls see this jenis-jenis variabel).


> Persamaan Regresi : Y' = a + bX 
  • Dimana : 
  • Y' = variabel tidak bebas (nilai yang diprediksikan)
  • X  = Variabel bebas (nilai yang memprediksi / prediktor)
  • a  = Konstanta (jika nilai X = 0, maka Y' = a)
  • b  = Koefisien regresi 

Dalam analisis regresi linier sederhana adalah menentukan nilai konstanta a dan koefisien b. Apakah koefisien b bernilai positif atau negatif, apakah koefisien b bernilai nol atau tidak. Jika 
  • b = 0, berarti tidak ada pengaruh antara variabel bebas X terhadap variabel tidak bebas Y.
  • b < 0, berarti hubungan yang berbalik arah antara variabel bebas X dengan variabel tak bebas Y.
  • b > 0, berarti hubungan yang searah antara variabel bebas X dengan variabel tak bebas Y.

Menghitung koefisien a dan b :



> Analisis Koefisien Determinasi R2


  • Artinya : Sekitar R2 variasi variabel tidak bebas Y dapat dijelaskan oleh variabel bebas X.
  • Koefisien determinasi digunakan untuk mengetahui prosentase sumbangan pengaruh variabel bebas X terhadap variabel bebas Y.
  • Jika nilai R2=0 berarti variasi variabel bebas X tidak sedikitpun dapat menjelaskan variasi variabel tidak bebas Y dalam model tersebut.
  • Jika nilai R2=1 berarti variasi variabel bebas X dapat menjelaskan dengan SEMPURNA variabel tidak bebas Y dalam model tersebut. 
  • Jadi nilai koefisien determinasi R2 sebesar mungkin.

> Standar Error Estimate

  • Nilai Y' adalah nilai prediksi sehingga terjadi kesalahan/galat/error dalam memprediksinya. Standar error digunakan untuk mengukur simpangan data aktual di sekitar garis regresi. 
  • Jadi nilai standar error estimate harus sekecil mungkin 

> Uji Koefisien Regresi Sederhana (Uji - t)
  • Tujuan untuk mengetahui apakah variabel bebas X berpengaruh secara signifikan terhadap variabel tidak bebas Y.(Signifikan berarti dapat digeneralisasikan).
Langkah-langkah pengujiannya:
1.  Menentukan Hipotesis Uji
Ho : b = 0 
    (tidak ada pengaruh antara variabel bebas X terhadap variabel tidak bebas Y)
Ha : b ≠ 0 
    (ada pengaruh antara variabel bebas X terhadap variabel tidak bebas Y)

2.  Menentukan Tingkat Signifikansi
Tingkat signifikansi yang biasa digunakan adalah 5%, adapun yang lainnya adalah 1% - 10%.

3.  Menentukan Daerah Penolakan Ho (Daerah Kritis)
Bentuk pengujian kita adalah dua arah sehingga gunakan uji-t dua arah :
Ho akan ditolak jika thitung > ttabel atau -(thitung) < -(ttabel),berarti H1 diterima.
Ho akan diterima jika -(thitung) < ttabel < thitung , berarti H1 ditolak.

4.  Menentukan t-hitung

5.  Keputusan (Membandingkan t-hitung dengan t-tabel.

6. Kesimpulan (Apakah ada pengaruh antara variabel bebas X terhadap variabel tidak bebas Y).



by MEYF

Reference:
- Mendenhall, Sincinch. 1996. A Second Course In Statistics. Regression Analysis. Fifth Edition. Prentice Hall Internatiomal Edition. 
- Priyatno, Duwi. 2010. Paham Analisa Statistik Data dengan SPSS. Mediakom. Yogyakarta.
- Sugiyono. 2008. Metode Penelitian Bisnis. Alfabeta. Bandung.
- Sugiyono. 2009. Metode Penelitian Kuantitatif Kualitatif dan R & B. Bandung.
- Sugiyono, 2008. Statistik Nonparametris untuk Penelitian. Alfabeta. Bandung.
-Supranto, J. 2004. Analisis Multivariat : Arti dan Interpretasi. Rineka Cipta. Jakarta.
-Walpole, Ronald E. 1992. Pengantar Statistika Edisi ke-3. PT Gramedia Pustaka Utama. Jakarta.



Selasa, 01 Juli 2014

ANALISIS REGRESI LINEAR BERGANDA (DUA VARIABEL BEBAS)

Sebelumnya kita sudah membahas mengenai analisis linear sederhana yaitu mengetahui hubungan secara linear antara satu variabel bebas X dengan satu variabel tak bebas Y. Selanjutnya kita akan membahas mengenai hubungan linear antara dua atau lebih variabel bebas X terhadap satu variabel tak bebas Y.
Analisis Linear Berganda bertujuan 
  • Untuk memprediksi nilai dari variabel tak bebas Y jika diketahui nilai variabel-variabel bebas X1, X2, ..., Xn.
  • Untuk mengetahui hubungan antara variavel tak bebas Y jika variabel-variabel bebas X1, X2, ..., Xn mengalami kenaikan atau penurunan. 
  • Untuk mengetahui arah hubungan antara variabel tak bebas dengan variabel-variabel bebas.
Untuk asumsi yang harus dipenuhi sama dengan analisis regresi linear sederhana. Pls see this Asumsi Dasar dan Asumsi Klasik Regresi.

Hal-hal yang harus diketahui dalam Analisis Regresi Linear Berganda :

> Variabel Tak Bebas Y
Variabel yang dipengaruhi.Jumlahnya satu variabel tak bebas.

> Variabel Bebas X1, X2, ..., Xn
Variabel yang mempengaruhi dan jumlahnya dua atau lebih variabel bebas.

> Persamaan Regresi Linear Berganda :

Y' = a + b1 X1 + b2 X2 + ... + bn Xn
dimana
Y'             = variabel tak bebas (nilai yang diprediksikan)
X1, X2, ..., Xn = variabel bebas
a              = konstanta (nilai Y'bila variabel X1,X2,...,Xn=0)
b1, b2, ..., bn = koefisien regresi 

Dalam hal ini kita harus menentukan nilai konstanta a dan koefisien regresi b1, b2,...bn
  
Kita akan ambil kasus variabel X1 dan X2, sehingga persamaan regresi akan menjadi
Y' = a + b1 X1 + b2 X2

Nilai koefisien regresi b1 dan b2 jika 
  • bernilai 0, maka tidak ada pengaruh variabel bebas X1 dan X2 terhadap variabel tak bebas Y.
  • bernilai negatif maka terjadi hubungan yang berbalik arah antara variabel bebas X1 dan X2 dengan variabel tak bebas Y.
  • bernilai positif maka terjadi hubungan yang searah antara variabel bebas X1 dan X2 dengan variabel tak bebas Y.
maka harus tentukan nilai konstanta a dan koefisien regresi b1 dan b2 dengan formula berikut ini :



dimana

> Analisis Koefisien Determinasi (R2)

  • Artinya : Sekitar R2 variasi variabel tidak bebas Y dapat dijelaskan oleh variabel bebas X1 dan X2.
  • Koefisien determinasi digunakan untuk mengetahui prosentase sumbangan pengaruh variabel bebas X1 dan X2 terhadap variabel bebas Y.
  • Jika nilai R2=0 berarti variasi variabel bebas X1 dan X2 tidak sedikitpun dapat menjelaskan variasi variabel tidak bebas Y dalam model tersebut.
  • Jika nilai R2=1 berarti variasi variabel bebas X1 dan X2 dapat menjelaskan dengan SEMPURNA variabel tidak bebas Y dalam model tersebut. 
  • Jadi nilai koefisien determinasi R2 sebesar mungkin.


> Analisis Korelasi Ganda (R)

  • Gunanya adalah untuk mengetahui seberapa besar korelasi yang terjadi antara variabel bebas X1, X2, ..., Xn secara serentak dengan variabel tak bebas Y.
  • Nilainya -1 ≤ R ≤ +1, R semakin mendekati nilai +/- 1 maka semakin kuat hubungannya yang terjadi dan sebaliknya jika R mendekati 0 maka semakin lemah hubungan yang terjadi.

> Korelasi Parsial

Korelasi parsial berarti korelasi antara satu variabel bebas dengan satu variabel tak bebas Y dimana variabel bebas lainnya dianggap tetap atau konstan.
  • r12.Y adalah korelasi antara variabel bebas X1 dan X2 dimana variabel Y dianggap tetap. 

  • rY1.2 adalah korelasi antara variabel bebas X1 dengan variabel tak bebas Y dimana variabel X2 dianggap tetap. 

  • rY2.1 adalah korelasi antara variabel bebas X2 dengan variabel tak bebas Y dimana variabel bebas X1 dianggap tetap.

dimana 

> Standart Error Estimate


Jika nilai kesalahan baku besar, berarti persamaan regresi yang terbentuk kurang tepat untuk melakukan peramalan/prediksi, dan akan memiliki selisih yang besar antara nilai Y kenyataan dengan Y prediksi.

> Uji Koefisien Regresi Secara Bersama-sama (Uji F)
Uji F digunakan untuk mengetahui apakah variabel independen X1 dan X2 secara bersama-sama signifikan berpengaruh terhadap variabel tak bebas Y.

Langkah-langkah uji-F :

1. Hipotesis Uji
Ho : b1 b= 0;(Tidak ada pengaruh variabel bebas Xdan X2 terhadap variabel tak bebas Y)
Ha : $ bi ≠ 0;(Ada pengaruh variabel bebas Xdan X2 terhadap variabel tak bebas Y)

2. Taraf Signifikansi
Tingkat signifikansi yang biasa digunakan adalah 5%, adapun yang lainnya adalah 1% - 10%.


3.  Menentukan Daerah Penolakan Ho (Daerah Kritis)
Bentuk pengujian F berbeda dengan uji sebelumnya. 
Ho akan ditolak jika Fhitung > Ftabel,berarti H1 diterima.
Ho akan diterima jika Fhitung  Ftabel, berarti H1 ditolak.


4. Menentukan Statistik Uji F-hitung

dimana k adalah jumlah variabel dan n adalah jumlah data sampel.

5.  Keputusan (Membandingkan Fhitung dengan Ftabel.

6. Kesimpulan (Apakah ada pengaruh antara variabel bebas X1 dan X2 terhadap variabel tidak bebas Y).

> Uji Koefisien Regresi secara Parsial (Uji-t)
Uji ini digunakan untuk mengetahui apakah dalam model regresi variabel bebas X1 dan X2 secara parsial berpengaruh signifikan terhadap variabel tak bebas Y.

Langkah-langkah pengujiannya adalah sama dengan uji t pada regresi linear sederhana, yaitu:

1.  Menentukan Hipotesis Uji
Ho : bi = 0 
(tidak ada pengaruh antara variabel bebas Xi terhadap variabel tidak bebas Y)
Ha : bi ≠ 0 
(ada pengaruh antara variabel bebas Xi terhadap variabel tidak bebas Y)

2.  Menentukan Tingkat Signifikansi
Tingkat signifikansi yang biasa digunakan adalah 5%, adapun yang lainnya adalah 1% - 10%.

3.  Menentukan Daerah Penolakan Ho (Daerah Kritis)
Bentuk pengujian kita adalah dua arah sehingga gunakan uji-t dua arah :
Ho akan ditolak jika thitung > ttabel atau -(thitung) < -(ttabel),berarti H1 diterima.
Ho akan diterima jika -(thitung) < ttabel < thitung , berarti H1 ditolak.
4.  Menentukan t-hitung

5.  Keputusan (Membandingkan t-hitung dengan t-tabel.

6. Kesimpulan (Apakah ada pengaruh antara variabel bebas Xi terhadap variabel tidak bebas Y).


by MEYF

Reference:
- Mendenhall, Sincinch. 1996. A Second Course In Statistics. Regression Analysis. Fifth Edition. Prentice Hall Internatiomal Edition. 
- Priyatno, Duwi. 2010. Paham Analisa Statistik Data dengan SPSS. Mediakom. Yogyakarta.
- Sugiyono. 2008. Metode Penelitian Bisnis. Alfabeta. Bandung.
- Sugiyono. 2009. Metode Penelitian Kuantitatif Kualitatif dan R & B. Bandung.
- Sugiyono, 2008. Statistik Nonparametris untuk Penelitian. Alfabeta. Bandung.
-Supranto, J. 2004. Analisis Multivariat : Arti dan Interpretasi. Rineka Cipta. Jakarta.
-Walpole, Ronald E. 1992. Pengantar Statistika Edisi ke-3. PT Gramedia Pustaka Utama. Jakarta.

Senin, 07 April 2014

ANALISIS VARIANS DUA ARAH - TANPA INTERAKSI (TWO WAY-ANOVA)

Sebelumnya kita sudah membahas mengenai uji analisis ragam satu arah yaitu satu perbedaan kriteria. Biasanya ANOVA digunakan terutama pada rancangan percobaan (Design of Experiment - DOE) yang memiliki implikasi pengambilan keputusan untuk menggunakan teknlogi baru, prosedur-prosedur baru ataupun kebijakan-kebijakan baru. (Nanti kita akan bahas mengenai DOE dan aplikasinya pada MINITAB). 

Sebagai contoh dalam perusahaan industri yang akan merancang produk baru, tentu dibutuhkan beberapa kali percobaan sehingga menghasilkan suatu produk baru yang memiliki kualitas yang baik dn memberikan keuntungan pada perusahaan. Biasanya dalam Six Sigma menggunakan ANOVA untuk DOE. Pada prinsipnya pemakaian ANOVA atau sering disebut uji F yaitu dalam pengujian hipotesis dimana mean dari kelompok bagian sangat berbeda maka variasi kombinasi dari seluruh kelompok jauh lebih besar dari variansi masing-masing kelompok bagian. 

Berikut kita akan lanjutkan analisis ragam dua arah. Pada analisis ragam dua arah yaitu membandingkan perbedaan rata-rata antara kelompok yang telah dibagi dua variabel independen (disebut faktor). ANOVA dua arah terbagi atas dua yaitu ANOVA dua arah dengan interaksi dan ANOVA dua arah tanpa interaksi. pengujian ANOVA dua arah tanpa interaksi merupakan pengujian hipotesis beda tiga rata-rara atau lebih dengan dua faktor yang berpengaruh dan interaksi antara kedua faktor tersebut ditiadakan. Tujuannya adalah untuk menguji apakah ada pengaruh dan berbagai kriteria yang diuji terhadap hasil yang diinginkan. Atau bunyi hipotesisnya adalah tidak ada perbedaan k mean (k>2) pada perlakuan pertama; tidak ada perbedaan k mean (k>2) pada perlakuan kedua; dan tidak ada efek interaksi antara perlakuan pertama dan kedua.

Adapun contoh kasus ANOVA dua arah adalah :
  1. Ingin mengetahui pengaruh dari tingkat harga dan tingkat distribusi terhadap keinginan pelanggan membeli barang A (harga : sangat mahal, mahal, murah dan distribusi: sangat lancar, lancar dan tidak lancar).
  2. Apakah tingkat pendidikan : bukan sarjana, sarjana muda dan sarjana serta tingkat umur (<35, 35-55, >55) mempengaruhi tingkat konsumsi sejenis minuman tertentu?
Adapun langkah-langkah yang dapat kita lakukan adalah :


1. Uji asumsi data
kenormalan data, independen data dan homoskedastisitas.Sampel berasal dari kelompok yang independen berarti pada saat pengambilan sampel yang dilakukan secara acak terhadap beberapa kelompok dengan nilai suatu kelompok tidak bergantung pada nilai dari kelompok lainnya. Data masing-masing kelompok harus berdistribusi normal dan variansi antar kelompok harus homogen dapat kita uji dengan menggunakan uji kenormalan dan uji homoskedastisitas (akan dibahas pada artikel berikutnya). Jika asumsi tidak dipenuhi maka data harus ditransformasi dan apabila masih tidak memenuhi maka ganti dengan uji nonparametrik. 

2. Membuat tabel pengamatan. Jika kita punya kriteria pertama disebut sebagai blok sebanyak r dan kriteria kedua disebut sebagai perlakuan sebanyak k, maka dapat kita susun tabel sebagai berikut :
Tabel Pengamatan
3. Melakukan perhitungan. Dalam hal ini perhitungan hampir sama dengan ANOVA satu arah.
yaitu menghitung berbagai jumlah kuadrat, yaitu :

JKT = JKB + JKK + JKG

Dimana:
Jumlah Kuadrat Total : 
 Jumlah Kuadrat Kolom
 Jumlah Kuadrat Baris
 Jumlah Kuadrat Galat (error)

4. Merumuskan hipotesis
Dalam ANOVA dua arah terdapat dua kasus yang akan diuji : mean semua perlakuan (kolom) dan mean semua blok (baris).
a. Membandingkan mean semua perlakuan (kolom)
Hipotesis Uji  :
Ho : Semua rata-rata perlakuan (kolom) adalah sama
Ha : Ada rata-rata perlakuan (kolom) yang berbeda

b. Membandingkan mean semua blok (baris)
Hipotesis Uji :
Ho : Semua rata-rata blok (baris) adalah sama
Ha : Ada rata-rata blok (baris) yang berbeda

5. Menentukan taraf signifikansi
Biasanya kita menggunakan alpha 5% yang artinya terdapat sekitar 5 dari 100 peluang bahwa kita akan menolak hipotesis yang seharusnya kita terima atau melakukan kesalahan.

6. Membuat hasil perhitungan ke dalam tabel ANOVA dan menentukan F tabel
Tabel ANOVA










7. Menentukan wilayah kritis atau kriteria pengujian
Daerah kritis disesuaikan dengan F-tabel dan derajat bebas. Untuk menentukan derajat bebas terdiri dari :
  • df baris = (r-1)
  • df kolom = (k-1)
  • df galat = (r-1)(k-1)
  • df total = (rk-1)
Mencari F-tabel terbagi atas dua, yaitu :
  • Rata-rata baris = F-tabel dengan (alpha; df baris; df galat)
  • Rata-rata kolom = F-tabel dengan (alpha; df kolom; df galat)
Mencari wilayah kritis atau daerah pengujian yaitu mencari batas wilayah penolakan Ho atau penerimaan Ho, yaitu :
Ho ditolak jika F-hitung > F-tabel
Wilayah Kritis F









8. Keputusan
9. Membuat kesimpulan 


Kesimpulan disesuaikan dengan hipotesis.

Artikel berikutnya akan kita bahas mengenai contoh ANOVA dua arah tanpa interaksi.

---^_^---


Reference:
- Mendenhall, Sincinch. 1996. A Second Course In Statistics. Regression Analysis. Fifth Edition. Prentice Hall Internatiomal Edition. 
- Priyatno, Duwi. 2010. Paham Analisa Statistik Data dengan SPSS. Mediakom. Yogyakarta.
- Sugiyono. 2008. Metode Penelitian Bisnis. Alfabeta. Bandung.
- Sugiyono. 2009. Metode Penelitian Kuantitatif Kualitatif dan R & B. Bandung.
- Sugiyono, 2008. Statistik Nonparametris untuk Penelitian. Alfabeta. Bandung.
-Supranto, J. 2004. Analisis Multivariat : Arti dan Interpretasi. Rineka Cipta. Jakarta.
-Walpole, Ronald E. 1992. Pengantar Statistika Edisi ke-3. PT Gramedia Pustaka Utama. Jakarta.