About

Selasa, 30 September 2014

STATISTIKA PENGENDALIAN MUTU

Statistika, sebagian orang ada yang menyatakan alergi dengan statistika. Berhubungan dengan data-data dan formula-formula yang memerlukan pemahaman, logika dan ketelitian yang sangat tajam dalam mengolah dan menganalisanya. Mungkin sempat terlintas dalam pikiran timbul pertanyaan "Apa sih gunanya belajar statistika? Apa gunanya untuk kehidupan?" dan pertanyaan-pertanyaan lainnya yang mengarah kepada tidak ada gunanya mempelajari statistika. 

Eiitss....jangan salah....mulai dari kehidupan sehari-hari, ekonomi, bisnis, hukum dan bahkan politik pun menggunakan statistika. Perhitungan hasil Pilkada melalui Quick Count, melacak kebenaran mengenai tindakan kriminal dibutuhkan informasi-informasi dan data-data terkait pun juga perlu pemikiran statistika, ketahanan pasien terhadap penyakit juga diperlukan analisa dan pemikiran statistika, dan masih banyak hal lainnya yang nanti akan mengacu pada pengambilan keputusan.

Berbagi pengalaman saat saya bekerja di salah satu perusahaan manufaktur yang menerapkan prinsip Six-Sigma yaitu salah satu strategi perbaikan bisnis untuk menghilangkan pemborosan, mengurangi biaya karena menghasilkan kualitas yang buruk dan memperbaiki efektivitas dan efisiensi semua kegiatan operasi. Nantinya perusahaan akan mampu memenuhi kebutuhan dan harapan konsumen. Dalam Six-Sigma, manajemennya sangat memperhatikan dan menerapkan budaya statistik mulai dari karyawan hingga level manajemen dengan memberikan pelatihan-pelatihan statistika yang menekankan kepada data dan informasi yang akurat hingga mengolah dan menganalisa guna pengambilan keputusan manajemen.
  
Dalam dunia bisnis dan industri, mutu atau kualitas barang dan jasa yang dihasilkan adalah salah satu hal terpenting dalam memberikan pelayanan dan memuaskan pelanggannya. Data dan informasi yang akurat sangat dibutuhkan untuk menjaga, mengelola dan meningkatkan kualitasnya. Kualitas adalah unsur yang mutlak dimiliki setiap produk dan jasa yang dihasilkan oleh perusahaan. Kualitas merupakan ukuran tingkat kesesuaian barang/jasa dengan standar dan spesifikasi yang telah ditentukan/diterapkan. Dalam hal ini peran statistika banyak digunakan.

Konsep dasar penggunaan statistika dalam pengendalian mutu bermula dari berbagai kajian dan eksperimen beberapa ahli statistika, Dr. Waiter Shewart (ilmuan di Laboratorium Bell, 1924). Prinsipnya dikenal melalui diagram kendali (Control Chart) menggunakan hukum probabilitas dan statistik untuk menggambarkan bagaimana suatu variasi mempengaruhi ukuran-ukuran sampel bagi produk-produk manufaktur. Dasarnya adalah untuk mengetahui produk yang dapat diterima atau produk yang ditolak karena rusak, sehingga produk yang rusak tidak dijual kepada konsumen tetapi harus dimusnahkan.

Dalam hal ini tercermin bahwa produk yang sudah jadi (finished goods) yang diperiksa kemudian diseleksi apakah memenuhi standar atau tidak untuk dijual kepada konsumen. Jika secara statistik banyak data yang rusak maka proses produksi dihentikan untuk dianalisis faktor penyebab rusaknya. Namun, bila diketahui faktor penyebabnya maka faktor inilah yang diperbaiki dan proses produksi berikutnya dapat dilanjutkan dan diawasi secara statistik.

Ada beberapa hal yang terkait dalam manufaktur/industri, diantaranya :
  1. Bila suatu barang dan jasa diproduksi maka outputnya akan serupa (similar) tapi tidak sama (identical).
  2. Adanya variasi dari barang dan jasa yang diproduksi merupakan hal yang wajar dan normal.
  3. Tidak ada dua produk dan jasa yang benar-benar sama.
  4. Data tidak selalu memberikan kepastian mengenai pola yang normal. Dan akan ada variasi pada proses yang terkendali dan variasi pada proses yang tidak terkendali.
Dalam dunia industri pengendalian mutu merupakan suatu filosofi yang pasti berbicara mengenai produk yang bebas cacat atau kesalahan (zero defect) dalam arti bahwa perusahaan atau organisasi sebagai pihak produsen benar-benar menginginkan kepuasan pelanggan. Alat bantu statistik yaitu SPC dan SQC adalah teknik penyelesaian masalah yang digunakan untuk memonitor, mengendalikan, menganalisis, mengelola dan memperbaiki produk dan proses  dengan menggunakan metode statistik.

Istilah Statistical Quality Control (SQC) dan Statistical Process Control (SPC) sangat penting dalam pengendalian mutu. Perbedaannya adalah pada letak proses berlangsungnya. Apabila SQC meninjau kualitas atau mutu dari produk jadi, sedangkan SPC meninjau dari proses yang sedang berlangsung dalam pembuatan produknya. SQC merupakan sistem yang dikembangkan untuk menjaga standar yang seragam dari kualitas hasil produksi, pada tingkat biaya yang minimum dan menerapkan bantuan untuk mencapai efisiensi perusahaan. Sedangkan SPC digunakan untuk mengawasi standar, membuat pengukuran dan mengambil tindakan perbaikan selagi produk dan jasa sedang diproduksi.

Kenapa diperlukan peningkatan kualitas produk atau jasa? Banyak alasan yang dapat menjelaskan hal ini, diantaranya adalah dapat meningkatkan daya saing, menarik konsumen kembali dan memberikan konsumen informasi dan keyakinan terhadap produk dan jasa serta mengurangi biaya yang terjadi karena konsumen pindah ke merek lainnya.

Disini peran statistika sangat penting, statistika proses kontrol sebagai ilmu yang mempelajari tentang teknik/metode pengendalian kualitas berdasarkan prinsip-prinsip dan konsep statistik. Terdapat tujuh alat bantu (The seven Tools) yang digunakan dalam pengendalian mutu yaitu Check Sheet, Scatter diagram, Cause and Effect Diagram, Pareto Chart, Process flow chart, Histogram, dan Control Chart.

Untuk selanjutnya akan kita bahas satu persatu.


Sumber : 
  • Montgomery, Douglas C. 2009. Introduction to Statistical Process Control, 6-th Edition. John Wiley & Sons, Inc. United States of America. 
  • Gaspersz, Vincent. Total Quality Management, Andi Offset

Selasa, 23 September 2014

Minggu, 21 September 2014

MODUL BARISAN DAN DERET

Sabtu, 20 September 2014

MODULE PENYAJIAN DATA STATISTIKA

Rabu, 27 Agustus 2014

UJI HETEROSKEDASTISITAS

Uji asumsi klasik berikutnya adalah uji heteroskedastisitas. Dalam analisis regresi, salah satu asumsi yang harus dipenuhi adalah varians error masing-masing variabel bebas harus konstan. Hal ini dikenal dengan istilah Homoskedastisitas. Selain itu dikenal istilah Heteroskedasitas lawan dari Homoskedastisitas, yaitu keadaan dimana terjadinya ketidaksamaan varian dari error untuk semua pengamatan setiap variabel bebas pada model regresi. 


Untuk menguji ada atau tidaknya Heteroskedastisitas dapat dilakukan melalui beberapa uji, yaitu :

  1. Uji Spearman's rho.
  2. Uji Glejser.
  3. Uji Park. 
  4. Uji melalui pola grafik
Secara umum persamaan regresi linear berganda adalah 
Y = a + b1X1 + b2X2 + error

Sedangkan Y prediksi atau mean Y adalah 
Y' = E(Y) = a + b1X1 + b2X2

Untuk metode ke-4, melalui pola grafik, ada beberapa hal yang sering muncul, yaitu :

1. Jika data berdistribusi Poisson seperti jumlah hari sakit karyawan dalam sebulan. Maka pola grafiknya adalah :
 2. Jika data berdistribusi Binomial, maka pola grafiknya adalah :
3.Jika data adalah data ekonomi dan bisnis biasanya adalah model multiplikatif (perkalian), sehingga fungsi regresi yang terbentuk adalah hasil perkalian antara Y' dengan error, yaitu Y = E(Y) * error = Y' * error
Maka pola grafiknya adalah sebagai berikut :

Ada beberapa indikator yang dapat menyebabkan terjadinya heteroskedastisitas, yaitu :

  1. Kesalahan input nilai dari variabel tidak bebas Y.
  2. Biasanya ada pada data Time Series dan data ekonomi.
  3. Adanya manipulasi data.
  4. Distribusi data yang tidak normal seperti Poisson dan Binomial.

Apa solusinya jika terjadi heteroskedastisitas?

  1. Menambah atau mengganti data sampel baru.
  2. Melakukan transformasi variabel bebas X terhadap variabel tidak bebas Y.
  3. Menggunakan metode estimasi yang lebih Advance seperti GLS (Generalized Least Squares) dan WLS (Weighted Least Squares)
  4. Menggunakan model regresi linear berganda dimana nilai residualnya mengikuti Autoregressive Conditionally Heteroscedastic orde 1 (ARCH(1) ) atau mengikuti Generalized ARCH(1).
Next Session adalah contoh pengujian Heteroskedastisitas dengan IBM SPSS 21.

by MEYF

Referensi :
  • Mendenhall, Sincinch. 1996. A Second Course In Statistics. Regression Analysis. Fifth Edition. Prentice Hall Internatiomal Edition.
  • Priyatno, Duwi. 2010. Paham Analisa Statistik Data dengan SPSS. Mediakom. Yogyakarta.
  • Sugiyono. 2009. Metode Penelitian Kuantitatif Kualitatif dan R & B. Bandung.
  • Supranto, J. 2004. Analisis Multivariat : Arti dan Interpretasi. Rineka Cipta. Jakarta.
  • Walpole, Ronald E. 1992. Pengantar Statistika Edisi ke-3. PT Gramedia Pustaka Utama. Jakarta.
  • Shochrul dkk. Cara Cerdas Menguasai Eviews. Salemba Empat. 2011. Jakarta.

Selasa, 19 Agustus 2014

CONTOH UJI MULTIKOLINEARITAS DENGAN IBM SPSS 21

Berikut kita lakukan uji multikolinearitas dengan menggunakan software statistik IBM SPSS 21. Bersumber dari buku Prentice Hall International Edition, "A Second Course in Statistics : Regression Analisys".

Berdasarkan data tahunan dari The Federal Trade Comission (FTC) mengenai peringkat berbagai produk rokok lokal berdasarkan kandungan tembakau (mg), kandungan nikotin (mg), berat rokok (gram) dan karbon monoksida yang dihasilkan oleh rokok. Ahli bedah USA mempertimbangkan bahwa ketiga zat kimia tersebut sangat berbahaya bagi kesehatan perokok. Penelitian terdahulu menyimpulkan bahwa meningkatnya jumlah tembakau dan nikotin dalam rokok akan terjadi bersama-sama dengan meningkatnya karbon monoksida yang dihasilkan dari rokok saat digunakan. Berikut data yang diperoleh dari 25 merek rokok lokal di USA.
Source : Federal Trade Comission
Model Regresi yang dapat dibentuk adalah :
Y' = a + b1X1 + b2X2 + b3X3
dimana 
Y  = Karbon monoksida (mg)
X1 = Kandungan tembakau (mg)
X2 = Kandungan nikotin (mg)
X3 = Berat rokok (gram)

Dari data di atas akan diuji apakah terjadi multikolinearitas atau tidak dengan menggunakan IBM SPSS 21. Berikut langkah-langkahnya :
1. Klik  Start -> IBM SPSS 21
2. Pilih Variabel View dan isikan data seperti berikut :

3. Pilih Data View  dan isikan data seperti berikut :
4. Klik Analyze -> Regression -> Linear
5. Pindahkan variabel Karbon monoksida (Y) ke kolom Dependent dan variabel  Kandungan TAR (X1), Kandungan Nikotin (X2) dan Berat rokok (X3) ke kolom Independent. 
6. Tandai Estimates, Model Fit dan Collinearity dianostics lalu klik Continue ->  OK
7. Output pertama yang diperoleh adalah Variables Entered/Removed menunjukkan metode analisa regresi yaitu dengan metode Enter.
8. Output berikutnya adalah tabel Model Summary memperlihatkan nilai R Square dan Adjusted R Square yang tinggi yaitu 0,919 dan 0,907. Hal ini menunjukkan variabel-variabel bebas pada model dapat menjelaskan sekitar 90,7% variabel tak bebas pada model regresi tersebut.
9. Output berikutnya adalah tabel ANOVA menunjukkan nilai F=79,557 yang berguna untuk uji ketepatan model. Jika kita bandingkan dengan F tabel=3,07 (dengan k=3 dan v=25-(3+1)=21), maka nilai F=79,44 > F-tabel=3,07, sehingga model regresi secara keseluruhan adalah baik secara signifikan.
10. Output berikutnya adalah tabel Coefficients menunjukkan nilai parameter a, b1, b2 dan b3, sebagai berikut 
  • a = 3,210
  • b1 = 0,965 menunjukkan nilai korelasi antara variabel X1 dan Y positif dengan sig. = 0,001 
  • b2 = -2,654 menunjukkan nilai korelasi antara variabel X2 dan Y negatif, hal ini bertentangan dengan penelitian terdahulu, dan nilai sig. = 0,503 yang tidak signifikan. Sehingga patut dicurigai adanya pelanggaran asumsi regresi.
  • b3 = -1,47 menunjukkan nilai korelasi antara variabel X3 dan Y negatif, hal ini bertentangan dengan penelitian terdahulu, dan nilai sig. = 0,970 yang tidak signifikan. Sehingga patut dicurigai adanya pelanggaran asumsi regresi.
Hal ini pun didukung dengan nilai VIF pada kolom paling akhir, yang masing-masing variabel X2 dan X3 memiliki nilai VIF > 10 yang menunjukkan bahwa terjadinya pelanggaran asumsi multikolinearitas.

Dan jika kita hitung nilai R Square masing-masing parameter yang akan dibandingkan dengan nilai parameter, maka dapat diperoleh R Square = 1 - 1/(VIF)
  • Parameter b1 = 0,965 maka nilai R Square = 1 - (1/21,631) = 1 - 0,046 = 0,956 
  • Parameter b2 = -0,2654 maka nilai R Square = 1 - (1/21,900) = 1 - 0,46 = 0,956 
  • Parameter b3 = -0,147 maka nilai R Square = 1 - (1/1,334) = 1 - 0,7496 = 0,2504

Seperti kita ketahui bahwa nilai parameter adalah nilai yang menunjukkan hubungan antara variabel bebas dengan variabel tak bebas dalam model regresi. Dan hal ini berhubungan dengan nilai koefisien determinasi R Square. Diperoleh bahwa nilai parameter b2 dan b3 memiliki perbedaan yang sangat jauh dengan nilai masing-masing R Square-nya. Hal ini patut dicurigai bahwa terjadinya multikolinearitas dalam model regresi. 


by MEYF

Minggu, 17 Agustus 2014

UJI MUTIKOLINEARITAS (Test of Multicolinearity)

Misalkan model regresi Y' = a + b1X1 + b2X2, dimana pada variabel X1 dan X2 terdapat informasi yang redundan sehingga terjadinya hubungan atau korelasi antara variabel bebas X1 dan X2. Sehingga dalam hal ini akan mengganggu atau memberikan solusi yang tidak maksimum untuk model regresi. Kejadian ini disebut sebagai multikolinearitas.

Multikolinearitas adalah adanya hubungan atau korelasi linear yang sempurna atau pasti di antara beberapa atau semua variabel independen yang menjelaskan dari model regresi. Jika dalam model regresi terjadi multikolinearitas, maka akan muncul beberapa masalah serius dalam model. secara statistik masalah tersebut yaitu :
  • Akan mengakibatkan meningkatnya nilai likelihood error dalam mengestimasi parameter, standar error, dll. 
  • Hasil model regresi akan membingungkan dan menyesatkan.
Dalam model regresi asumsi yang harus dipenuhi adalah tidak adanya multikolinearitas antara variabel independen. Ada beberapa metode yang dapat dilakukan untuk menguji multikolinearitas :
  1. Dengan melihat nilai VIF (Variance Inflation Factor) pada model regresi.
  2. Membandingkan nilai koefisien determinasi bk dengan nilai determinasi R^2 secara serentak.
  3. Melihat nilai Eigenvalue dan Condition Index.
Adapun beberapa indikator terjadinya multikolinearitas dalam model regresi : 
Y' = a + b1X1 + b2X2, +...+bkXk,
  1. Adanya hubungan signifikan antara variabel bebas dalam model.
  2. Hasil uji-t yang tidak signifikan untuk semua parameter bk namun uji-F yang signifikan dalam uji ketepatan model.
  3. Adanya tanda yang berlawanan dengan apa yang diharapkan saat mengestimasi parameter. Misalnya saat menghitung korelasi antara Y dengan X1 diperoleh nilai korelasi R bertanda positif sedangkan korelasi dalam model regresi antara Y dan X1 (dilihat dari nilai parameter b1) diperoleh nilai bertanda negatif.
  4. Terjadinya perbedaan nilai yang besar antara koefisien regresi dengan nilai korelasi. Misalnya nilai korelasi antara variabel Y dengan X1 adalah r = 0,780 dan nilai signifikan. Sedangkan nilai koefisien regresi antara Y dan X1 b1 = 0,160 dan tidak signifikan.
  5. VIF = 1/(1-(Ri^2)) dimana Ri adalah koefisien determinasi dalam model. Jika nilai VIF lebih besar dari 10 maka terjadi multikolinearitas.
Jika hal di atas terjadi dalam model regresi Anda, patut untuk dicurigai bahwa terjadinya multikolinearitas dalam model regresi, sehingga terjadi pelanggaran asumsi. 

Apa solusi yang dapat kita lakukan jika terjadi multikolinearitas?
  1. Menambah atau mengganti data sampel baru, memang hal ini akan mengeluarkan cost yang besar.
  2. Menghapus salah satu variabel prediktor yang mengalami multikolinearitas (kadang bisa mengakibatkan salah menghapus variabel).
  3. Mengabaikannya selama tidak menimbulkan masalah serius dalam model regresi. Namun hindari inferensi mengenai parameter bk dan batasi nilai variabel bebas agar tidak terjadi perbedaan mencolok antara nilai Y (nyata) dengan Y' (estimasi).
  4. Jika tujuan kita ingin membentuk hubungan sebab akibat antara Y dengan variabel bebas Xk maka gunakan Design of Experiment (Rancangan Percobaan).
  5. Untuk mengurangi rounding error dan menstabilkan koefisien regresi maka gunakan Ridge Regression untuk mengestimasi parameter bk.
  6. Mengganti metode analisis regresi dengan yang lebih advance seperti metode stepwise, PCR (principle component regression), dll.
Next session...tahap pengujian multikolinearitas dengan SPSS IBM 21.

by MEYF


Referensi :
- Mendenhall, Sincinch. 1996. A Second Course In Statistics. Regression Analysis. Fifth Edition. Prentice Hall Internatiomal Edition. 
- Priyatno, Duwi. 2010. Paham Analisa Statistik Data dengan SPSS. Mediakom. Yogyakarta.
- Sugiyono. 2009. Metode Penelitian Kuantitatif Kualitatif dan R & B. Bandung.
- Supranto, J. 2004. Analisis Multivariat : Arti dan Interpretasi. Rineka Cipta. Jakarta.
- Walpole, Ronald E. 1992. Pengantar Statistika Edisi ke-3. PT Gramedia Pustaka Utama. Jakarta.
- Shochrul dkk. Cara Cerdas Menguasai Eviews. Salemba Empat. 2011. Jakarta.