About

Minggu, 17 Agustus 2014

UJI ASUMSI KLASIK REGRESI

Sebelumnya kita sudah membahas sebagian mengenai analisis regresi linear. Dapat kita rangkum beberapa langkah dalam analisis regresi linear :
  • Membuat bentuk model regresi linear
  • Mengambil data sampel
  • Gunakan data sampel untuk mengestimasi parameter model linear
  • Tentukan distribusi dari random error dan estimasi parameter lain yang tidak diketahui dari distribusi tersebut.
  • Uji kegunaan model secara statistik
  • Ketika model sudah sesuai maka model dapat digunakan untuk memprediksi atau mengestimasi. 
Dalam regresi linear berganda yang berbasis OLS (Ordinary Least Square), persyaratan statistik yang harus dipenuhi sebelum melakukan analisis regresi linear berganda yaitu disebut dengan uji asumsi regresi. Namun analisis regresi linear yang tidak berdasarkan OLS tidak memerlukan uji asumsi, seperti regresi logistik.

Secara umum, uji asumsi untuk regresi dapat dikelompokkan atas :
1. Uji asumsi dasar regresi
  • Uji normalitas
  • Uji linearitas
  • Uji homogenitas
2. Uji asumsi klasik regresi 
  • Uji multikolinearitas 
  • Uji heteroskedastisitas
  • Uji autokorelasi
  • Uji normalitas
Tidak ada ketentuan urutan uji mana yang harus dilakukan terlebih dahulu. Uji asumsi regresi ini dilakukan agar hasil analisa regresi yang diperoleh lebih akurat. Jika terdapat salah satu asumsi yang tidak terpenuhi, maka ada kecurigaan bahwa analisis yang diperoleh kurang akurat, error yang besar, koefisien yang tidak minim, variabel bebas yang tidak terdeteksi sehingga bisa menyebabkan kesalahan interpretasi. 

Untuk itu jika asumsi regresi tidak terpenuhi, dilakukan beberapa hal agar dapat memenuhi uji asumsi tersebut, sebagai contoh uji normalitas, jika tidak terpenuhi maka salah satu solusinya adalah menambah jumlah sampel atau melakukan transformasi variabel, dll. Dan jika asumsi dasar masih tidak terpenuhi maka selanjutnya adalah mengubah analisis data regresi dengan analisis data yang lain yang dianggap lebih tepat. 

Uji Normalitas (Test of normality) digunakan untuk mengetahui apakah populasi data berdistribusi normal atau tidak. Biasanya digunakan untuk data berskala ordinal, interval atau pun rasio. Uji yang biasa digunakan adalah uji Liliefors melalui nilai pada Kolmogorov Smirnov. (See this Uji Liliefors)

Uji Linearitas (Test of Linearity) digunakan untuk mengetahui apakah dua variabel mempunyai hubungan yang linear atau tidak secara signifikan. Pada SPSS diperoleh melalui ANOVA dengan memilih icon "Test for Linearity".

Uji Homogenitas (Test of Homogenity) digunakan untuk mengetahui apakah beberapa varian populasi data adalah sama atau tidak. Pada SPSS diperoleh melalui ANOVA dengan memilih Test of Homogenity, dan hasilnya bisa dilhat dari nilai Levene Test dimana semakin kecil nilainya maka semakin besar homogenitasnya.

Uji Multikolinearitas (Test of Multicolinearity) digunakan untuk mengetahui ada atau tidaknya hubungan linear antar variabel independen dalam model regresi. Pada SPSS diperoleh melalui Linear Regression dengan memilih icon Collinearity diagnostics, dan hasilnya ada pada kolom VIF yang memiliki nilai kurang dari 5 maka tidak terdapat multikolinearitas.

Uji Heteroskedastisitas (Test of Heteroskedasticity) digunakan untuk mengetahui ada atau tidaknya ketidaksamaan varian dari residual pada model regresi. Pada SPSS diperoleh melalui Bivariate Correlation.

Uji Autokorelasi (Test of Autocorrelation) digunakan untuk mengetahui ada atau tidaknya korelasi antara satu residual pengamatan dengan residual pengamatan lainnya pada model regresi. Pada SPSS diperoleh melalui Linear Regression dengan memilih icon Durbin-Watson.

Dalam regresi linear ada empat asumsi yang harus dipenuhi (see this Analisis Regresi Sederhana), yaitu :
  1. Masing-masing variabel bebas adalah linear dan tidak berkorelasi.
  2. Random error memiliki variansi konstan.
  3. Random error saling bebas (independen).
  4. Random error memiliki distribusi normal dengan mean 0 dan standar deviasi tetap.
Masing-masing asumsi dapat diuji dengan uji asumsi klasik di atas, yaitu 
  1. Asumsi 1 : Uji normalitas
  2. Asumsi 2 : uji heteroskedastisitas
  3. Asumsi 3 : Uji autokorelasi
  4. Asumsi 4 : Uji multikolinearitas
Untuk selanjutnya akan kita bahas satu-persatu. 


Semoga bermanfaat ;)

by MEYF


Referensi 

- Mendenhall, Sincinch. 1996. A Second Course In Statistics. Regression Analysis. Fifth Edition. Prentice Hall Internatiomal Edition. 
- Priyatno, Duwi. 2010. Paham Analisa Statistik Data dengan SPSS. Mediakom. Yogyakarta.
- Sugiyono. 2009. Metode Penelitian Kuantitatif Kualitatif dan R & B. Bandung.
- Supranto, J. 2004. Analisis Multivariat : Arti dan Interpretasi. Rineka Cipta. Jakarta.
- Walpole, Ronald E. 1992. Pengantar Statistika Edisi ke-3. PT Gramedia Pustaka Utama. Jakarta.
- Shochrul dkk. Cara Cerdas Menguasai Eviews. Salemba Empat. 2011. Jakarta.

Senin, 11 Agustus 2014

TEKNIK INTERPOLASI LINIER

Dalam matematika fungsi dan titik, kita kenal istilah interpolasi yaitu teknik mencari harga suatu fungsi pada suatu titik di antara dua titik yang nilai fungsi pada ke-2 titik tersebut sudah diketahui.

Jenis-jenis interpolasi terbagi atas empat, yaitu :

  1. Interpolasi Linier
  2. Interpolasi Kuadrat
  3. Interpolasi Lagrange
  4. Interpolasi Newton

Dalam hal ini kita akan membahas mengenai teknik interpolasi linier karena dalam kasus statistik lebih sering menggunakan interpolasi linier dalam menentukan nilai kurva tabel.

Perhatikan gambar berikut ini :

Kurva yang terdiri dari titik-titik : (xk, yk) ; (x, y*) dan (xk+1, yk+1).
Dalam hal ini titik y* tidak diketahui dan akan kita cari menggunakan teknik interpolasi linier.

Melalui persamaan garis linier maka kita akan memperoleh nilai y*, yaitu :


Sebagai contoh penentuan nilai tabel pada kurva normal (Tabel Normal Standar).
Berapakah nilai Z jika taraf signifikansinya 0,7100 ?

Dalam hal ini jika kita lihat tabel kurva normal. Nilai taraf nyata 0,7100 tidak terdapat di dalam tabel. Namun kita dapat menentukannya melalui teknik interpolasi, yaitu dengan mencari nilai taraf signifikansi yang mengapit nilai 0,7100.

Kita peroleh nilai tersebut :
0,7088 -> Z = 0,55
0,7123 -> Z = 0,56
misalkan 0,7100 -> Z = x

Perhatikan gambar berikut ini :
Gunakan persamaan di atas untuk menentukan nilai x

Jadi diperoleh nilai Z = 0,5534 untuk taraf signifikansi 0,7100.

Contoh lain pada tabel Liliefors. (Tabel Uji Liliefors)
Berapakah nilai L jika jumlah sampel n = 27?

n = 25  -> L = 0,173
n = 30 -> L = 0,161
misalkan n = 27 -> L = x

Perhatikan gambar berikut ini :

Maka nilai x menggunakan interpolasi linier sebagai berikut :

Jadi diperoleh nilai L = 0,1658 = 0,166.

Contoh pertama pada tabel kurva normal memiliki kemiringan garis positif dan pada tabel Liliefors memiliki kemiringan garis negatif.


by MEYF



Jumat, 08 Agustus 2014

CONTOH ANALISIS REGRESI LINEAR BERGANDA (DUA VARIABEL) MENGGUNAKAN IBM SPSS 21

Kita gunakan contoh sebelumnya pada artikel Contoh Perhitungan Manual Analisis Linear Berganda Dua Variabel. Terdapat satu variabel tak bebas Y dan dua variabel bebas X1 dan X2.
Dengan menggunakan IBM SPSS 21, maka kita dapat melakukan analisis linear berganda pada data tersebut dengan tujuan untuk melihat pengaruh X1 dan X2 terhadap Y dan sekaligus dapat memprediksi nilai Y jika X1 dan X2 diberikan.

Bentuk umum persamaan regresi linear berganda kasus tersebut adalah :
Y' = a + b1X1 + b2X2

Selanjutnya kita akan menentukan nilai dari abdan b2.

Berikut tahap-tahap yang dapat dilakukan :
1. Klik Start -> IBM SPSS 21
2. Pada Variabel View isikan data seperti berikut :

3. Pada Data View  input data seperti berikut :





















4. Klik Analyze -> Regression -> Linear


5. Pada kolom Linear Regression pindahkan varibel tak bebas Y, Permintaan Minyak ke kolom Dependent, dan pindahkan variabel bebas X1, Harga Minyak dan X2, Pendapatan ke kolom Independent.

6. Klik Statistics centrang tiga item berikut lalu klik Continue.
  • Estimates untuk menentukan nilai parameter a, b1 dan b2
  • Model Fit: untuk uji ketepatan model regresi linier
  • Squared Change : untuk menentukan nilai R


7. Pilih Options masukkan nilai taraf signifikansi dalam hal ini kita pilih 5% sehingga ketik 0,05 pada kolom Entry. Tandai Include Constant in Equation. 
Pada kolom ini berfungsi untuk uji-F, untuk menguji pengaruh variabel bebas X1 dan X2 secara bersamaan terhadap variabel tak bebas Y. (Regresi Linear Berganda)
Pada Missing Values
  • Exclude cases listwise :hanya data yang valid untuk semua variabel yang ikut dianalisis
  • Exclude cases pairwise :menganalisis koefisien korelasi dan seluruh cases yang berharga valid dari dua variabel yang dikorelasikan.
  • Replace with mean : Semua data dianalisis dan untuk data yang kosong digantikan dengan rata-rata variabel tersebut.
7. Diperoleh output sebagai berikut :

Dari output disamping menjelaskan mengenai output dari method yang kita pilih yaitu Enter.





Dari output di atas pada tabel Model Summary diperoleh nilai koefisien determinasi Rsquared = 0,942 yang berarti sekitar 94,2% variasi sampel harga minyak dan pendapatan dapat menjelaskan variasi variabel permintaan minyak goreng. Nilai ini merupakan nilai yang tinggi dan mencerminkan terjadinya hubungan kuat antara variabel bebas  X1 dan X2 dan variabel tak bebas Y.

Nilai Adjusted Rsquared pun menunjukkan nilai yang tinggi yaitu 0,929. Nilai ini sama-sama boleh digunakan dengan Rsquared. Jika kita ingin menggeneralisasikannya ke populasi dan responden yang dipilih acak maka kita gunakan Adjusted Rsquare  dan jika sampel tidak acak kita gunakan sebaiknya Rsquared. Nilai keduanya akan mendekati nilai yang sama jika sampel yang diambil berukuran besar.



Pada kolom Coefficients diperoleh nilai koefisien/parameter regresi linear berganda a = 12,775, b1 = -0,001 dan  b2  = -0,488. Sehingga persamaan regresi yang diperoleh adalah :


Y' = 12,775 -0,001X1 - 0,488X2

Dan untuk uji-t diambil dari kolom t dan sig. pada variabel X1 dan X2. Tabel ini berguna untuk pengujian parameter secara parsial, apakah variabel bebas secara terpisah berpengaruh signifikan terhadap variabel tak bebas. 

a. Uji parameter b1
Hipotesis Uji :
Ho : b1 = 0
Ha : b1 ≠ 0

Taraf Signifikansi :
Pilih nilai a = 5%

Daerah Kritis :
Dengan nilai signifikansi 5% dan derajat bebas df = n-2 = 12-2 = 10, maka diperoleh t-tabel = 2,228.

Statistik Uji :
Diperoleh t-hitung = -1,486 dan nilai p-value = 0,172

Keputusan :
Nilai t-hitung = -1,486 > t-tabel = -2,228 atau nilai p-value = 0,172 > 0,05.
Jadi Ho diterima dan Ha ditolak.

Kesimpulan :
Dengan signifikansi 5% ternyata harga minyak goreng tidak berpengaruh terhadap permintaan minyak goreng tersebut. Hal ini minyak goreng adalah kebutuhan pokok yang sangat dibutuhkan oleh semua orang dalam memenuhi kebutuhan makanannya. Berapapun harganya permintaan akan minyak gorengpun tetap ada.

b. Uji parameter b2
Hipotesis Uji :
Ho : b2 = 0
Ha : b2 ≠ 0

Taraf Signifikansi :
Pilih nilai a = 5%

Daerah Kritis :
Dengan nilai signifikansi 5% dan derajat bebas df = n-2 = 12-2 = 10, maka diperoleh t-tabel = 2,228.

Statistik Uji :
Diperoleh t-hitung = -3,776 dan nilai p-value = 0,172

Keputusan :
Nilai t-hitung = -3,776 < t-tabel = -2,228 atau nilai p-value = 0,004 < 0,05.
Jadi Ho ditolak dan Ha diterima.

Kesimpulan :
Dengan signifikansi 5% ternyata pendapatan konsumen berpengaruh terhadap permintaan minyak goreng tersebut. 
Tabel ANOVA  di atas adalah salah satu untuk menguji ketepatan model. Apakah variabel bebas secara bersama-sama mempengaruhi variabel tak bebas. Kita menggunakan uji F.

Hipotesis Uji :
Ho : b= b2 = 0
Ha : Terdapat bi ≠ 0 dengan i = 1 dan 2

Taraf Signifikansi :
Pilih nilai a = 5%

Daerah Kritis :
Dengan nilai signifikansi 5%, derajat bebas pembilang dk = 2 dan derajat bebas penyebut df = n-k-1 = 12-2-1 = 9, maka diperoleh F-tabel =19,39.

Statistik Uji :
Diperoleh F-hitung = 73,312 dan nilai p-value = 0,000

Keputusan :
Nilai t-hitung = 73,312 > F-tabel = 19,39 atau nilai p-value = 0,000 < 0,05.
Jadi Ho ditolak dan Ha diterima.

Kesimpulan :
Dengan signifikansi 5% harga minyak goreng dan pendapatan konsumen secara bersama-sama berpengaruh terhadap permintaan minyak goreng.


by MEYF

Sabtu, 05 Juli 2014

CONTOH PENGHITUNGAN MANUAL ANALISIS REGRESI LINEAR BERGANDA (DUA VARIABEL) - 1

Menurut kajian literatur permintaan suatu produk ditentukan oleh harga barang dan pendapatan seseorang. Hasil pengamatan terhadap 12 sampel atas permintaan suatu barang dalam hal ini gula diperoleh data harga minyak goreng dan pendapatan konsumen :




















Langkah-langkah penyelesaiannya:
> Variabel bebas dan variabel tak bebas

  • Variabel Bebas : X1 = Harga minyak goreng dan X2 = Pendapatan konsumen
  • Variabel Tak Bebas : Y = Permintaan minyak goreng
> Persamaan regresi linear berganda : Y' = a + b1X1 + b2X2

> Menentukan nilai konstanta dan koefisien regresi
sehingga

Khusus untuk parameter b1 data adalah dalam ribuan, sehingga hasil tersebut harus dibagi dengan 1000, diperoleh b1 = -0,000582 = -0,001.
Jadi persamaan Regresi Linear Berganda dengan dua variabel bebas adalah :

Y' = 12,7753 - 0,001 X1 - 0,488 X2

> Interpretasi koefisien regresi 
  • Nilai a = 12,7753 artinya jika tidak ada harga minyak goreng dan pendapatan konsumen, namun permintaan akan minyak goreng sebanyak 12,7753.
  • Nilai b1 = -0,001 artinya jika harga minyak goreng meningkat satu rupiah maka akan terjadi penurunan permintaan sebesar 0,001 satuan dimana pendapatan konsumen dianggap tetap.
  • Nilai b2 = - 0,488 artinya jika pendapatan konsumen mengalami kenaikan sebesar satu rupiah maka akan terjadi penurunan permintaan gula sebesar 0,488 satuan dimana harga gula dianggap tetap.
> Menghitung Koefisien Determinasi
Artinya sekitar 94,21% variasi variabel bebas harga minyak goreng X1 dan pendapatan konsumen Xdapat menjelaskan variasi variabel tak bebas permintaan minyak goreng Y.

Note :
b1 yang digunakan -0,582 dan pengali -32 seharusnya -32000 sehingga perkalian keduanya akan memiliki hasil yang sama yaitu (-0,00582 x -32000) = (-0,582 x 32).

> Menghitung Koefisien Korelasi Berganda
Artinya terjadi hubungan yang sangat kuat antara variabel bebas harga minyak goreng X1 dan pendapatan konsumen X2 dengan variabel tak bebas permintaan minyak goreng Y.

> Menghitung Nilai Standart Error Estimate
Jadi standart error persamaan regresi adalah 0,6818, hal ini menunjukkan penyimpangan data-data terhadap garis persamaan regresi linear berganda yang terbentuk. Nilainya cukup kecil.

> Menghitung Nilai Korelasi Parsial
dimana

Next Session adalah Pengujian Koefisien Regresi secara keseluruhan dan secara parsial.

by MEYF








Selasa, 01 Juli 2014

ANALISIS REGRESI LINEAR BERGANDA (DUA VARIABEL BEBAS)

Sebelumnya kita sudah membahas mengenai analisis linear sederhana yaitu mengetahui hubungan secara linear antara satu variabel bebas X dengan satu variabel tak bebas Y. Selanjutnya kita akan membahas mengenai hubungan linear antara dua atau lebih variabel bebas X terhadap satu variabel tak bebas Y.
Analisis Linear Berganda bertujuan 
  • Untuk memprediksi nilai dari variabel tak bebas Y jika diketahui nilai variabel-variabel bebas X1, X2, ..., Xn.
  • Untuk mengetahui hubungan antara variavel tak bebas Y jika variabel-variabel bebas X1, X2, ..., Xn mengalami kenaikan atau penurunan. 
  • Untuk mengetahui arah hubungan antara variabel tak bebas dengan variabel-variabel bebas.
Untuk asumsi yang harus dipenuhi sama dengan analisis regresi linear sederhana. Pls see this Asumsi Dasar dan Asumsi Klasik Regresi.

Hal-hal yang harus diketahui dalam Analisis Regresi Linear Berganda :

> Variabel Tak Bebas Y
Variabel yang dipengaruhi.Jumlahnya satu variabel tak bebas.

> Variabel Bebas X1, X2, ..., Xn
Variabel yang mempengaruhi dan jumlahnya dua atau lebih variabel bebas.

> Persamaan Regresi Linear Berganda :

Y' = a + b1 X1 + b2 X2 + ... + bn Xn
dimana
Y'             = variabel tak bebas (nilai yang diprediksikan)
X1, X2, ..., Xn = variabel bebas
a              = konstanta (nilai Y'bila variabel X1,X2,...,Xn=0)
b1, b2, ..., bn = koefisien regresi 

Dalam hal ini kita harus menentukan nilai konstanta a dan koefisien regresi b1, b2,...bn
  
Kita akan ambil kasus variabel X1 dan X2, sehingga persamaan regresi akan menjadi
Y' = a + b1 X1 + b2 X2

Nilai koefisien regresi b1 dan b2 jika 
  • bernilai 0, maka tidak ada pengaruh variabel bebas X1 dan X2 terhadap variabel tak bebas Y.
  • bernilai negatif maka terjadi hubungan yang berbalik arah antara variabel bebas X1 dan X2 dengan variabel tak bebas Y.
  • bernilai positif maka terjadi hubungan yang searah antara variabel bebas X1 dan X2 dengan variabel tak bebas Y.
maka harus tentukan nilai konstanta a dan koefisien regresi b1 dan b2 dengan formula berikut ini :



dimana

> Analisis Koefisien Determinasi (R2)

  • Artinya : Sekitar R2 variasi variabel tidak bebas Y dapat dijelaskan oleh variabel bebas X1 dan X2.
  • Koefisien determinasi digunakan untuk mengetahui prosentase sumbangan pengaruh variabel bebas X1 dan X2 terhadap variabel bebas Y.
  • Jika nilai R2=0 berarti variasi variabel bebas X1 dan X2 tidak sedikitpun dapat menjelaskan variasi variabel tidak bebas Y dalam model tersebut.
  • Jika nilai R2=1 berarti variasi variabel bebas X1 dan X2 dapat menjelaskan dengan SEMPURNA variabel tidak bebas Y dalam model tersebut. 
  • Jadi nilai koefisien determinasi R2 sebesar mungkin.


> Analisis Korelasi Ganda (R)

  • Gunanya adalah untuk mengetahui seberapa besar korelasi yang terjadi antara variabel bebas X1, X2, ..., Xn secara serentak dengan variabel tak bebas Y.
  • Nilainya -1 ≤ R ≤ +1, R semakin mendekati nilai +/- 1 maka semakin kuat hubungannya yang terjadi dan sebaliknya jika R mendekati 0 maka semakin lemah hubungan yang terjadi.

> Korelasi Parsial

Korelasi parsial berarti korelasi antara satu variabel bebas dengan satu variabel tak bebas Y dimana variabel bebas lainnya dianggap tetap atau konstan.
  • r12.Y adalah korelasi antara variabel bebas X1 dan X2 dimana variabel Y dianggap tetap. 

  • rY1.2 adalah korelasi antara variabel bebas X1 dengan variabel tak bebas Y dimana variabel X2 dianggap tetap. 

  • rY2.1 adalah korelasi antara variabel bebas X2 dengan variabel tak bebas Y dimana variabel bebas X1 dianggap tetap.

dimana 

> Standart Error Estimate


Jika nilai kesalahan baku besar, berarti persamaan regresi yang terbentuk kurang tepat untuk melakukan peramalan/prediksi, dan akan memiliki selisih yang besar antara nilai Y kenyataan dengan Y prediksi.

> Uji Koefisien Regresi Secara Bersama-sama (Uji F)
Uji F digunakan untuk mengetahui apakah variabel independen X1 dan X2 secara bersama-sama signifikan berpengaruh terhadap variabel tak bebas Y.

Langkah-langkah uji-F :

1. Hipotesis Uji
Ho : b1 b= 0;(Tidak ada pengaruh variabel bebas Xdan X2 terhadap variabel tak bebas Y)
Ha : $ bi ≠ 0;(Ada pengaruh variabel bebas Xdan X2 terhadap variabel tak bebas Y)

2. Taraf Signifikansi
Tingkat signifikansi yang biasa digunakan adalah 5%, adapun yang lainnya adalah 1% - 10%.


3.  Menentukan Daerah Penolakan Ho (Daerah Kritis)
Bentuk pengujian F berbeda dengan uji sebelumnya. 
Ho akan ditolak jika Fhitung > Ftabel,berarti H1 diterima.
Ho akan diterima jika Fhitung  Ftabel, berarti H1 ditolak.


4. Menentukan Statistik Uji F-hitung

dimana k adalah jumlah variabel dan n adalah jumlah data sampel.

5.  Keputusan (Membandingkan Fhitung dengan Ftabel.

6. Kesimpulan (Apakah ada pengaruh antara variabel bebas X1 dan X2 terhadap variabel tidak bebas Y).

> Uji Koefisien Regresi secara Parsial (Uji-t)
Uji ini digunakan untuk mengetahui apakah dalam model regresi variabel bebas X1 dan X2 secara parsial berpengaruh signifikan terhadap variabel tak bebas Y.

Langkah-langkah pengujiannya adalah sama dengan uji t pada regresi linear sederhana, yaitu:

1.  Menentukan Hipotesis Uji
Ho : bi = 0 
(tidak ada pengaruh antara variabel bebas Xi terhadap variabel tidak bebas Y)
Ha : bi ≠ 0 
(ada pengaruh antara variabel bebas Xi terhadap variabel tidak bebas Y)

2.  Menentukan Tingkat Signifikansi
Tingkat signifikansi yang biasa digunakan adalah 5%, adapun yang lainnya adalah 1% - 10%.

3.  Menentukan Daerah Penolakan Ho (Daerah Kritis)
Bentuk pengujian kita adalah dua arah sehingga gunakan uji-t dua arah :
Ho akan ditolak jika thitung > ttabel atau -(thitung) < -(ttabel),berarti H1 diterima.
Ho akan diterima jika -(thitung) < ttabel < thitung , berarti H1 ditolak.
4.  Menentukan t-hitung

5.  Keputusan (Membandingkan t-hitung dengan t-tabel.

6. Kesimpulan (Apakah ada pengaruh antara variabel bebas Xi terhadap variabel tidak bebas Y).


by MEYF

Reference:
- Mendenhall, Sincinch. 1996. A Second Course In Statistics. Regression Analysis. Fifth Edition. Prentice Hall Internatiomal Edition. 
- Priyatno, Duwi. 2010. Paham Analisa Statistik Data dengan SPSS. Mediakom. Yogyakarta.
- Sugiyono. 2008. Metode Penelitian Bisnis. Alfabeta. Bandung.
- Sugiyono. 2009. Metode Penelitian Kuantitatif Kualitatif dan R & B. Bandung.
- Sugiyono, 2008. Statistik Nonparametris untuk Penelitian. Alfabeta. Bandung.
-Supranto, J. 2004. Analisis Multivariat : Arti dan Interpretasi. Rineka Cipta. Jakarta.
-Walpole, Ronald E. 1992. Pengantar Statistika Edisi ke-3. PT Gramedia Pustaka Utama. Jakarta.