About

Minggu, 06 Desember 2015

~"LANGKAH-LANGKAH ANALISIS FAKTOR DENGAN IBM SPSS 21"~

Sebelumnya kita sudah membahas mengenai analisis faktor. Berikut akan kita bahas bagaimana cara mengolah data dengan IBM SPSS 21 dengan teknik Analisis Faktor. Data berikut diambil dari latihan halaman 139 Buku J. Supranto :

Sumber : Supranto, J. 2004. Analisis Multivariate Arti dan Interpretasi.

Dalam suatu studi mengenai hubungan antara perilaku rumah tangga dan belanja, data mengenai pertanyaan gaya hidup , diperoleh dengan menggunakan 7 butir skala yaitu 1 = sangat tidak setuju sampai 7 = sangat setuju.
X1 = saya lebih baik tinggal di rumah daripada pergi pesta
X2 = saya selalu mengecek harga walaupun pada barang murah
X3 = majalah lebih menarik daripada bioskop
X4 = saya tidak mau membeli produk yang diiklankan di billboard
X5 = saya termasuk homebody
X6 = saya menyimpan dan membelanjakan kupon
X7 = perusahaan banyak menghabiskan uang untuk membiayai iklan

Dari data di atas akan dilakukan analisis faktor dengan tujuan untuk mendapatkan faktor-faktor yang lebih sedikit dari 7 variabel di atas. Adapun langkah-langkah yang dapat dilakukan adalah :

1. Klik Start --> IBM SPSS 21. Pada Variable View isi seperti berikut :
 2. Pada Data View, input data seperti berikut :
3. Klik Analyze --> Dimension Reduction --> Factor
 

4. Pada tabel Factor Analysis, pindahkan semua variabel yang akan dianalisis ke kolom variables 


5. Pilih Descriptives dan akan muncul tabel Factor Analysis Descriptives, centang Coefficients, Significance levels, KMO and Bartlett's test of sphericity lalu continue.


6. Pilih Extraction maka akan muncul tabel Factor Analysis Rotation. Centang Varimax pada kolom method, karena tujuan kita adalah menghasilkan faktor-faktor unik dan berusaha membuat seminimum mungkin banyaknya variabel dengan muatan tinggi pada satu faktor. 
Pada kolom Display centang Rotated solution dan Loading plots lalu continue.

















7. Pilih Scores maka akan muncul tabel Factor Analysis : Factor Scores. Dalam hal ini berguna jika ingin melakukan analisis lanjutan. Dan disarankan menggunakan metode principal component analysis. Centang Save as Variables lalu centang Anderson-Rubin. Dan dilanjutkan dengan centang Display factor score coefficient matrix lalu continue.


8. Klik OK

Ada tiga methode mengestimasi skor faktor, yaitu :
  1. Metode Regression. Skor yang dihasilkan memiliki rata-rata 0 dan varians sama dengan kuadrat korelasi berganda antara skor faktor dengan nilai variabel aslinya. Skor yang diperoleh bisa jadi masih berkorelasi walaupun faktor adalah orthogonal.
  2. Metode Bartlett. Skor yang dihasilkan memiliki rata-rata 0 dan jumlah kuadrat faktor unik berada pada range variabel yang minimal.
  3. Metode Anderson-Rubin. Merupakan modifikasi dari metode Bartlett yang menjamin adanya orthogonal pada faktor yang diestimasi. Skornya akan menghasilkan mean 0 dan standar deviasi 1 serta tidak berkorelasi satu sama lainnya.


Sabtu, 05 Desember 2015

~"ANALISIS FAKTOR"~

Biasanya saya menggunakan analisis faktor adalah untuk mereduksi sejumlah n-variabel menjadi  m-faktor unik, dimana m<n. AKan tetapi m-faktor tersebut bisa menyerap sebagian besar informasi yang terkandung dalam n-variabel asli atau yang bisa memberikan sumbangan terhadap varian seluruh variabel. Dalam analisis faktor tidak terdapat variabel bebas atau pun variabel tak bebas. 

Dalan analisis multivariate terdapat dua kelompok model besar, yaitu :
  1. Model Dependensi, terdapat didalamnya variabel bebas dan variabel tak bebas. Dalam hal ini melihat pengaruh variabel bebas terhadap variabel tak bebas. Dan bahkan hingga meramalkan nilai variabel tak bebas berdasarkan variabel bebas. Contohnya pada analisis regresi, analisis diskriminan, analisis varian, dll.
  2. Model Interdependensi, tidak terdapat variabel bebas dan variabel tak bebas. Dalam hal ini menganalisis komponen utama berbagai jenis hubungan. Dan semua variabel dan hubungannya dianggap terjadi secara simultan. Contohnya pada analisis faktor dan analisis diskriminan.

Dalam analisis regresi linear berganda sering ditemukan terjadinya multikolinearitas yaitu adanya korelasi antara variabel bebas. Hal ini tentu akan melanggar asumsi dalam regresi linear berganda. Untuk itu, salah satu cara yang dapat dilakukan adalah mengubah n-variabel bebas yang berkorelasi menjadi beberapa m-faktor sebagai variabel baru yang tidak saling berkorelasi dengan n<m.

Ada beberapa contoh penelitian yang menggunakan analisis faktor :
  1. Dalam pemasaran untuk mengidentifikasi karakteristik pelanggan yang sensitif terhadap harga.
  2. Dalam manajemen SDM untuk mengidentifikasi faktor-faktor yang mempengaruhi produktivitas karyawan.
  3. dll

Langkah-langkah dalam analisis faktor, yaitu :
1. Merumuskan masalah
Meliputi : 
  • Tujuan analisis faktor harus diidentifikasi
  • Variabel yang digunakan berdasarkan teori dan penelitian sebelumnya dan pertimbangan peneliti.
  • Pengukuran variabel berdasarkan skala interval atau rasio.
  • Banyaknya elemen sampel (n) harus cukup memadai. Sebagai petunjuk kasar, jika ada k variabel maka n = 4k. 
Pengujian untuk hal ini dilakukan dengan menggunakan statistik KMO (Kaiser-Meyer-Olkin) yaitu untuk mengukur kecukupan sampling. Nilai KMO yang kecil (<0,50) menunjukkan bahwa korelasi antar-pasangan variabel tidak bisa diterangkan oleh variabel lainnya dan analisis faktor tidak mungkin tepat.

2. Menentukan bentuk matriks korelasi
Analisis faktor tepat digunakan jika ada korelasi antara variabel-variabel yang diteliti. Dalam hal ini matriks korelasi bukanlah matriks identitas.  Sedangkan untuk menguji apakah analisis faktor tepat digunakan atau tidak maka digunakan pengujian "The Bartlett's test of sphericity". 
Hipotesis ujinya adalah

    Ho : matriks korelasi adalah matriks identitas (tidak ada korelasi antar variabel)
    Ha : matriks korelasi adalah bukan matriks identitas (ada korelasi antar variabel)

Ho akan ditolak jika nilai signifikansi pada Bartlett's test adalah kurang dari 5%.
Artinya terdapat korelasi antar variabel dan model tepat digunakan dengan teknik analisis faktor.

3. Menentukan metode analisis faktor
Terdapat beberapa metode analisis faktor yang biasa digunakan yaitu :
  1. Principal Component Analysi Jumlah varian dalam data dipertimbangkan direkomendasikan jika banyaknya faktor harus minimum dengan memperhitungkan varian maksimum dalam data untuk dipergunakan dalam analisis multivariat lebih lanjut.
  2. Common Factor Analysis, direkomendasikan untuk mengenali atau mengidentifikasi dimensi yang mendasari.

3. Menentukan banyaknya faktor
Ada beberapa prosedur yang dapat dilakukan, yaitu :
  • Penentuan apriori yaitu menentukan jumlah faktor berdasarkan pengalaman sebelumnya atau teori yang mendukung. Jumlah faktor langsung ditentukan sesuai dengan yang diharapkan.
  • Berdasarkan nilai eigen (eigenvalues) yaitu berdasarkan besarnya sumbangan dari faktor terhadap varian seluruh variabel asli. Dan hanya faktor yang memiliki nilai varian lebih besar dari 1 yang akan dimasukkan dalam model.
  • Berdasarkan Scree Plot yaitu suatu plot dari nilai eigen sebagai fungsi banyaknya faktor. Hasil eksperimen menunjukkan bahwa titik tempat di mana scree plot mulai terjadi, menunjukkan banyaknya faktor yang benar. Kenyataannya jumlah faktor dengan scree plot akan lebih banyak 1 daripada berdasarkan eigenvalues.
  • Penentuan berdasarkan pada persentase varian. Petunjuk yang disarankan adalah ekstraksi faktor dihentikan jika kumulatif persentase varian sudah mencapai paling sedikit 60% atau 75% dari seluruh varian variabel asli.

4. Melakukan rotasi faktor dengan tujuan untuk mempermudah interpretasi faktor. Melalui rotasi faktor maka matriks faktor akan diubah ke matriks yang lebih sederhana. Dalam melakukan rotasi ada beberapa metode yang digunakan, yaitu orthogonal rotation dan oblique rotation.
Orthogonal rotation yang biasanya digunakan adalah varimax procedure yaitu berusaha meminimumkan banyaknya variabel dengan muatan tinggi pada satu faktor, sehingga memudahkan interpretasi faktor-faktor. Sedangkan oblique rotation digunakan jika faktor dalam populasi berkorelasi sangat kuat.

5. Melakukan interpretasi faktor. Akan lebih mudah dilakukan dengan mengenali/mengidentifikasi variabel yang muatannya (loadingnya) besar pada faktor yang sama. Dalam hal ini memberi nama dari faktor yang terbentuk.

6. Menghitung skor atau nilai faktor, hal ini dilakukan jika ingin melakukan analisis lanjutan. Seperti regresi yang mana faktor adalah hasil variabel yang tidak multikolinear, atau analisis multidiskriminan. Sedangkan jika kita hanya ingin mengidentifikasi faktor atau karakteristik maka hal ini tidak perlu dilakukan.
Metode component factor analysis tidak akan ada korelasi pada faktor-faktor yang dihasilkan. Sedangkan jika menggunakan common factor analysisi maka tidak akan menjamin bahwa faktor tersebut tidak akan berkorelasi. Menghitung faktor skor dapat dilakukan setelah model faktor dibentuk, yaitu :

Fi = wi1F1 + wi2F2 + wi3F3 + ... + wijXj + ...  wikXk

Fi  = skor (nilai) faktor ke-i
wi = bobot / koefisien faktor
k  = banyaknya variabel
i  = jumlah faktor

Timbangan atau bobot atau koefisien faktor wij digunakan untuk menggabung variabel yang dibakukan yang diperoleh dari factor score coefficient matrix.

7. Menentukan "Model Fit".


Reference :
  • Sharma, Shubash, 1996. Applied Multivariate Techniques. John Wiley & Sons, Inc. Canada.
  • Supranto, J., 2004. Analisis Multivariat : Arti dan Interpretasi. Rineka Cipta. Jakarta.




Selasa, 22 September 2015

~"MODUL STATISTIKA"~

Selasa, 18 Agustus 2015

~"PENENTUAN JUMLAH SAMPEL"~

Dalam penelitian sampel merupakan bagian dari populasi yang masih memiliki karakteristik populasi tersebut. Untuk mempermudah penelitian, menghemat biaya dan waktu maka sampel sangat dibutuhkan. Agar hasil penelitian yang dilakukan terhadap sampel masih dapat dipercaya maka pemilihan sampel yang dilakukan haruslah tepat.
Ada beberapa perhitungan yang dapat digunakan untuk menghitung seberapa banyak sampel yang dapat diambil, diantaranya :

1. Rumus menurut Slovin   
dimana 
n = jumlah sampel
N = jumlah populasi
e^2 = batas ketelitian yang diinginkan



2. Rumus menurut Taro Yamate

dimana
n = jumlah sampel
N = jumlah populasi
d^2 = tingkat kesalahan


3. Rumus menurut Isaac dan Michael
dimana
S = jumlah sampel
N = jumlah populasi
P = Proporsi populasi diambil dari P = 0,5
d = derajat ketepatan ysng direfleksikan oleh kesalahan yang dapat ditoleransikan dalam fluktuasi proporsi sampel (P) umumnya diambil dari 0,05
X^2 = nilai tabel Chi-Square untuk satu derajat bebas relatif level confidence yang diinginkan.


4. Rumus Pengambilan Sampel Bertingkat
dimana
ni = jumlah sampel menurut stratum
n = jumlah seluruh sampel
Ni = jumlah populasi menurut stratum
N = jumlah seluruh populasi

Rabu, 29 Juli 2015

~"ANALISIS JALUR (PATH ANALYSIS)"-- 2~

Sebelumnya sudah kita bahas sedikit mengenai analisis jalur. Nah berikutnya kita akan lihat bagaimana membuat diagram jalur.
Seperti contoh kasus sebelumnya, pengaruh motivasi terhadap produktifitas kerja dengan insentif sebagai variabel intervening.

Identifikasi Variabel

Merumuskan Hipotesis Penelitian




  1. Diduga ada pengaruh langsung antara motivasi dengan produktivitas kerja.
  2. Diduga ada pengaruh langsung antara motivasi dengan insentif.
  3. Diduga ada pengaruh tidak langsung melalui insentif antara motivasi kerja dengan produktivitas kerja.

Membentuk Diagram Jalur
Diagram jalur adalah diagram yang melukiskan secara grafis mengenai struktur hubungan kausalitas antar variabel bebas, variabel intervening dan variabel terikat. Ada beberapa ketentuan secara umum dalam melukiskan diagram jalur :

  1. Setiap variabel dinyatakan dalam bentuk kotak..
  2. Error dinyatakan dalam bentuk lingkaran
  3. Hubungan antar variabel dinyatakan dengan anak panah satu arah
  4. Hubungan korelasi atau kovarian diantara dua variabel menggunakan anak panah berkepala dua.




Membentuk Persamaan Struktural
Persamaan struktural dari diagram di atas berdasarkan hipotesis adalah :

Produktivitas = a1 + b1*Motivasi + error 1

Produktivitas =  a2 + b2*Insentif + error 2

Produktivitas = a3 + b3*Motivasi + b4*Insentif + error 3

Mengukur Pengaruh Variabel
Untuk mengukur besarnya pengaruh dihitung berdasarkan nilai Standardized Coefficients (Beta) yang diperoleh dari hasil regresi linear antara produktivitas, motivasi dan insentif. 

  • Misalkan dalam hubungan langsung antara motivasi terhadap produktivitas diperoleh nilai Standardized Coefficients (Beta) p1, maka pengaruh langsungnya adalah p1. 
  • Misalkan dalam hubungan langsung antara insentif terhadap produktivitas diperoleh nilai Standardized Coefficients (Beta) p2, maka pengaruh langsungnya adalah p2.
  • Maka pengaruh tidak langsung antara motivasi terhadap produktivitas melalui insentif adalah p1 x p2.
  • Pengaruh total adalah jumlah antara pengaruh langsung dan pengaruh tak langsung yaitu p1 + (p1xp2).


Jika persentase pengaruh total sangat kecil, maka dapat disimpulkan bahwa adanya pengaruh motivasi terhadap produktivitas dengan insentif sebagai variabel intervening.


Menghitung Kesalahan Regresi
Untuk menghitung kesalahan regresi error 1, error 2 dan error 3 adalah dengan menghitung besarnya akar dari (1-R-square) masing-masing regresi. Kesalahan ini menunjukkan berapa persen variasi variabel terikat yang tidak dapat dijelaskan oleh variabel bebasnya.


Next Aplikasi Analisis Jalur >>

by MEYF

~"ANALISIS JALUR (PATH ANALYSIS)" -- 1~

Analisis jalur merupakan perluasan dari analisis regresi linear berganda. Analisis jalur digunakan untuk menguji pengaruh variabel intervening dan untuk mengetahui pengaruh secara langsung atau pun tidak langsung antar variabel.

Pengaruh langsung misalnya hubungan antara variabel bebas dengan variabel tak bebas secara langsung tanpa melalui variabel lainnya. Sedangkan pengaruh tidak langsung adalah hubungan antara variabel bebas dan variabel tak bebas namun melalui variabel lainnya. Adapun variabel lainnya seperti variabel intervening dan variabel moderator. Coba klik dan baca jenis-jenis variabel.

Sebagai contoh penelitian yang akan melihat pengaruh motivasi terhadap produktivitas dengan insentif sebagai variabel intervening. Dalam hal ini variabel bebas adalah variabel motivasi dan variabel tak bebas adalah variabel produktivitas kerja. Hubungan langsung adalah pengaruh antara motivasi terhadap produktivitas kerja. Sedangkan pengaruh tak langsung adalah pengaruh motivasi terhadap produktivitas melalui adanya variabel insentif. Jika digambarkan maka :




Adapun asumsi dari analisis jalur diantaranya :
  1. Hubungan antara variabel adalah bersifat linear, adaptif dan normal.
  2. Arah hubungan hanya satu arah, tidak ada arah hubungan berbalik.
  3. Variabel terikat minimal dalam skala ukur interval atau pun rasio.
  4. Menggunaka probability sampling.
  5. Observed Variable diukur tanpa kesalahan artinya variabel yang diteliti dapat diobservasi secara langsung (instrumen pengukuran valid dan reliabel).
  6. Model yang dikaji disusun berdasarkan teori.


Penjabaran analisis jalur :
  1. Diagram jalur adalah alat yang digunakan untuk melukiskan secara grafis mengenai struktur hubungan antar variabel bebas, variabel tak bebas dan variabel intervening. 
  2. Persamaan struktural menggambarkan hubungan sebab akibat antar variabel yang diteliti yang dinyatakan dalam bentuk persamaan matematis.


Next....Langkah-langkah dengan SPSS >>>

by MEYF


Kamis, 28 Mei 2015

STATISTIKA - "DISTRIBUSI NORMAL"

STATISTIKA - "DISTRIBUSI HIPERGEOMETRIK"

STATISTIKA -"DISTRIBUSI POISSON"

STATISTIKA -"DISTRIBUSI BINOMIAL"

STATISTIKA - "DISTRIBUSI TEORITIS"

STATISTIKA - "TEORI PROBABILITAS"

STATISTIKA - "HIMPUNAN"

MKB-"PENYUSUTAN"

MKB - "DANA PELUNASAN"

MKB - "AMORTISASI UTANG"

MKB-"ANUITAS DIMUKA"

Rabu, 08 April 2015

MKB - MODUL ANUITAS DIMUKA

Minggu, 29 Maret 2015

MKB - ANUITAS BIASA (AKHIR)

Minggu, 15 Maret 2015

MKB - DISKON DAN TINGKAT DISKON

MKB - BUNGA MAJEMUK

Sabtu, 14 Maret 2015

MKB - MODULE BUNGA SEDERHANA

Senin, 05 Januari 2015

~"ANALISIS KORELASI PEARSON PRODUCT MOMENT"~

Korelasi Pearson Product Moment digunakan untuk mengetahui hubungan dua variabel dengan syarat kedua variabel tersebut berskala interval atau rasio. Nilai korelasi menentukan ada atau tidaknya hubungan serta arah dari hubungan kedua variabel tersebut. Besar kecinya hubungan antara dua variabel dinyatakan dalam bilangan koefisien korelasi yang disimbolkan dengan r.


Adapun nilainya berkisar antara -1 < r < +1, nilai r = +1 dikatakan korelasi sempurna sedangkan r = 0 berarti tidak adanya korelasi antara kedua variabel. Tanda positif dan negatif dari sebuah nilai korelasi menunjukkan arah dari korelasi tersebut, jika nilai r bertanda positif dikatakan hubungan kedua variabel adalah searah atau positif sedangkan jika nilai r adalah negatif dikatakan hubungan kedua variabel adalah berlawanan arah atau negatif. Dapat digambarkan dengan grafik berikut ini :


1. Korelasi Positif, artinya jika variabel bebas X naik maka variabel tak bebas Y akan naik juga, sebaliknya jika variabel bebas X turun maka variabel tak bebas Y akan turun juga.
2. Korelasi Negatif, artinya jika variabel bebas X naik maka variabel tak bebas Y akan turun, sebaliknya jika variabel bebas X turun maka variabel tak bebas Y akan naik.
3. Tidak Ada Korelasi, artinya kedua variabel tidak menunjukkan adanya hubungan.
4. Korelasi Sempurna, artinya kenaikan atau penurunan variabel bebas berbanding dengan kenaikan atau penurunan variabel lainnya, dan grafik menunjukkan plot tepat berada pada garis linear.

Adapun perhitungan nilai korelasi Pearson Product Moment adalah :
Keterangan :
Adapun interpretasi dari nilai korelasi tersebut (menurut Sugiyono, 2007) adalah 
0,00 - 0,199 = sangat rendah
0,20 - 0,399 = rendah
0,40 - 0,599 = sedang
0,60 - 0,799 = kuat
0,80 - 1,000 = sangat kuat

Jadi semakin dekat ke +1 maka nilai koefisien korelasi semakin kuat sedangkan semakin dekat ke 0 maka nilai koefisien korelasi semakin lemah. Koefisien korelasi = +1 dikatakan sempurna.

By MEYF

Referensi:
  • Mendenhall, Sincinch. 1996. A Second Course In Statistics. Regression Analysis. Fifth Edition. Prentice Hall Internatiomal Edition.
  • Priyatno, Duwi. 2010. Paham Analisa Statistik Data dengan SPSS. Mediakom. Yogyakarta.
  • Sugiyono. 2007. Metode Penelitian Bisnis. CV Alfabeta. Bandung.

Minggu, 04 Januari 2015

`"CONTOH UJI AUTOKORELASI DENGAN IBM SPSS 21"~

Data diambil dari contoh uji multikolinearitas sebelumnya, dimana variabel tidak bebas Y (=karbon monoksida), dan variabel tak bebas X1 (=kandungan tar), X2 (=kandungan nikotin) dan X3 (=berat rokok).




Adapun langkah-langkah pengujiannya adalah :
1. Menentukan Hipotesis Uji
Ho : Tidak ada autokorelasi 
H1 : Ada Autokorelasi

2. Menentukan Statistik Uji (menggunakan IBM SPSS 21)
Langkah-langkahnya :
a. Klik Start >> IBM SPSS 21 >> Variable View, isikan data berikut :
b. Pilih Data View, dan isikan data sebagai berikut :
c. Klik Analyze >> Regression >> Linear

d. Pindahkan variabel karbon monoksida (Y) ke kolom Dependent dan variabel kandungan tar (X1), kandungan nikotin (X2) dan berat rokok (X3) ke kolom Independent.
e. Klik menu Statistic >> centang Durbin Watson >> Continue >> OK

f. Diperoleh hasil sebagai berikut :
Dari tabel Durbin-Watson, dimana jumlah variabel bebas k=3 dan jumlah data n=25. Pada taraf signifikansi 5% baris n=25 dan kolom k=3 diperoleh nilai dl=1,123 (4-dl = 2,877) dan du=1,654 (4-du=2,346)

3. Keputusan :
Diperoleh nilai d=2,858 (pada kolom Durbin-Watson tabel Model Sumary). Nilai  (4-du)=2,346<d=2,858<(4-dl)=2,877. Keputusannya adalah berada pada daerah keragua-raguan.

4. Kesimpulan
Kita belum dapat menentukan apakah terjadi autokorelasi atau pun tidak. 
Jika masih ingin menentukan apakah terdapat autokorelasi atau tidak, kita dapat gunakan analisis uji autokorelasi lainnya seperti uji Run atau Uji Breusch Godfrey (pada postingan berikutnya).

Semoga Bermanfaat ^_^ 

by MEYF


~"UJI AUTOKORELASI"~

Dalam statistika parametrik berbasis OLS yaitu pada regresi harus memenuhi beberapa asumsi salah satu asumsi klasik adalah tidak adanya autokorelasi. Autokorelasi adalah keadaan dimana terjadinya korelasi antara residual pada satu pengamatan dengan pengamatan lainnya pada model regresi. Sebagaimana kita ketahui bahwa salah satu prasyarat yang harus dipenuhi oleh regresi berbasis OLS adalah tidak adanya autokorelasi.

Autokorelaso terjadi antar observasi dalam satu variabel, yaitu antar waktu atau antar individu. Biasanya sering kita temukan pada data runtun waktu (time series) yang mana keadaan saat ini dipengaruhi oleh keadaan sebelumnya.

Banyak hal yang menyebabkan terjadinya autokorelasi, diantaranya adalah kesalahan dalam membentuk model linear atau non linear, adanya manipulasi data, ada variabel penting namun tidak diikutkan dalam model, dll. Akibat adanya autokorelasi ini pada analisis regresi menghasilkan estimator yang dihasilkan tidak BLUE, terdapat variabel yang seharusnya tidak berhubungan namun menjadi berhubungan yang dapat dilihat dari nilai R_Squared, adanya kesulitan saat memeriksa residual, dll.

Ada beberapa metode yang dapat digunakan untuk menguji ada atau tidaknya autokorelasi dan yang akan kita bahas diantaranya :

1. Metode Grafik
pola siklik
Pada metode ini kita membandingkan antara residual dengan variabel X, jika membentuk pola siklik maka diindikasikan adanya autokorelasi.









Selain itu dapat juga dengan membandingkan antara residual ke-t dengan residual ke-(t-1). Jika kita menemukan pola linear baik negatif ataupun positif, sebagai berikut :
Pola Linear Negatif
Pola Linear Positif

2. Uji Durbin-Watson
Pengujian berikut lebih baik dibandingkan pengujian sebelumnya, karena dengan metode grafik akan bersifat subjektif, tergantung dari kita yang melihat dan memahami pola data tersebut.

Hipotesis uji autokorelasi pada uji Durbin-Watson, adalah sebagai berikut :
Ho : Tidak terdapat autokorelasi
Ha : Terdapat autokorelasi

Statistik Uji :


dengan beberapa ketentuan sebagai berikut :
  1. Nilai d < dl atau d > (4-dl) maka terdapat autokorelasi.
  2. Nilai du < d < (4-du) maka tidak terdapat autokorelasi.
  3. Jika dl < d < du atau di antara (4-dl) < d < (4-du), maka tidak menghasilkan kesimpulan yang pasti.


Note : du dan dl diperoleh dari tabel Durbin-Watson


Dan uji lainnya adalah uji Run serta uji Breusch Godfrey yang akan kita bahas dipostingan berikutnya.



Referensi :


  • Mendenhall, Sincinch. 1996. A Second Course In Statistics. Regression Analysis. Fifth Edition. Prentice Hall Internatiomal Edition.
  • Priyatno, Duwi. 2010. Paham Analisa Statistik Data dengan SPSS. Mediakom. Yogyakarta.
  • Shochrul dkk. Cara Cerdas Menguasai Eviews. Salemba Empat. 2011. Jakarta.