MAKALAH PELAJARAN
STATISTIKA
D
I
S
U
S
U
N
OLEH
INTAN NOVITA ROLANDYA
NPM : 115 100 051
INSTITUSI / PRODI : STMIK / SI
Perguruan Tinggi
Mitra Lampung
Jln. Zainal Abidin
Pagar Alam No.7
Gedongmeneng
Bandar Lampung
Telp. ( 0721 ) 701418
Fax. ( 0721 ) 788960
KATA PENGANTAR
Puji dan syukur saya panjatkan atas kehadirat
Allah SWT, karena berkat rahmat dan hidayah-Nya lah saya dapat menyelesaikan
Makalah ini tepat pada waktunya.
Adapun tujuan disusun nya makalah ini adalah dalam rangka memenuhi
persyaratan mata kuliah “ Statistika “
Saya menyadari sepenuhnya bahwa dalam pembuatan
makalah ini masih memiliki kekurangan , baik dalam penyajian maupun dalam
pembahasan. Karena itu saya mengharapkan kritik dan saran yang bersifat
membangun guna perbaikan dan menghindari adanya kesalahan dalam pembuatan
makalah pada masa yang akan datang.
Dalam menyelesaikan Makalah ini saya banyak
mendapatkan kesulitan dan hambatan. Namun berkat dorongan dan bimbingan dari
bebagai pihak maka makalah ini dapat saya selesaikan dengan baik.
Bandar Lampung, 27 Desember 2011
Penulis,
Intan Novita Rolandya
BAB I
ANALISIS OF VARIAN (
ANOVA )
1.1
PENGERTIAN
Analisis varian (ANOVA)
adalah suatu metode untuk menguraikan keragaman total data menjadi
komponen-komponen yang mengukur berbagai sumber keragaman.
ANOVA digunakan
apabila terdapat lebih dari dua variabel. Dalam literatur Indonesia metode ini
dikenal dengan berbagai nama lain, seperti analisis ragam, sidik ragam, dan
analisis variansi. Ia merupakan pengembangan dari masalah Behrens-Fisher,
sehingga uji-F juga dipakai dalam pengambilan keputusan. Analisis varians
pertama kali diperkenalkan oleh Sir Ronald Fisher, bapak statistika modern.
Dalam praktek, analisis varians dapat merupakan uji hipotesis (lebih sering
dipakai) maupun pendugaan (estimation, khususnya di bidang genetika terapan).
Secara umum,
analisis varians menguji dua varians (atau ragam) berdasarkan hipotesis nol
bahwa kedua varians itu sama. Varians pertama adalah varians antar contoh
(among samples) dan varians kedua adalah varians di dalam masing-masing contoh
(within samples). Dengan ide semacam ini, analisis varians dengan dua contoh
akan memberikan hasil yang sama dengan uji-t untuk dua rerata (mean).
Analisis varians relatif mudah
dimodifikasi dan dapat dikembangkan untuk berbagai bentuk percobaan yang lebih
rumit. Selain itu, analisis ini juga masih memiliki keterkaitan dengan analisis
regresi. Akibatnya, penggunaannya sangat luas di berbagai bidang, mulai dari
eksperimen laboratorium hingga eksperimen periklanan, psikologi, dan
kemasyarakatan
Ada tiga kelas konseptual model seperti:
• Model efek tetap berasumsi bahwa data berasal dari populasi normal yang mungkin berbeda hanya dalam kemampuan mereka. (Model 1)
• Model efek acak berasumsi bahwa data yang menggambarkan hierarki populasi yang berbeda yang perbedaan dibatasi oleh hirarki. (Model 2)
• Model efek campuran menggambarkan situasi di mana baik tetap dan efek acak hadir. (Model 3)
Sesuai dengan kebutuhannya Anova dibedakan menjadi 2 yaitu Anova satu arah dan Anova dua arah. Anova satu arah hanya memperhitungkan 1 faktor yang menimbulkan variasi, sedangkan Anova dua arah memperhitungkan dua faktor yang menimbulkan variasi.
Pada dasarnya pola sampel dapat dikelompokan menjadi dua kelompok, yaitu:
1. Seluruh sampel, baik yang berada pada kelompok pertama sampai dengan yang ada di kelompok lain, berasal dari populasiyang sama. Untuk kondisi ini hipotesis nol terbatas pada tidak ada efek dari treatment (perlakuan)
2. Sampel yang ada di kelompok satu berasal dari populasi yang bebeda dengan populasi sampel dengan populasi sampel yang ada di kelompok lainnya.
Mengingat Anova berkaitan dengan pengujian hipotesis multipel (ganda). Pada saat melakukan pengujian hipotesis (perbedaan dua rata-rata) dengan menggunakan t tes selalu menanggung kesalahan tipe 1 sebesar alpha. Untuk ANOVA kesalahan tipe 1 disebut dengan experiment wise alpha level yang besarnya:
1-(1-α)N
N Merupakan banyaknya tes jika menggunakan t tes (dilakukan satu per satu)
Misalnya: Untuk pengujian perbedaan rata-rata dari 5 kelompok sampel. Jika dimbil alpha sebesar 0,005 maka dengan penggunaan t tes besarnya resiko kesalahan tipe 1 untuk sekali pengujian adalah 0,05 dan untuk 10 kali pengujian berarti menanggung kesalahan tipe 1 sebesar 0,5. Apabila kita menggunakan ANOVA kesalahan tipe 1 yang harus ditanggung adalah :
1-(1-0,05)10 = 0,40
Mengapa N berjumlah 10 untuk 5 kelompok sampel? Untuk menjawab pertanyaan tersebut marilah kita telusuri satu per satu pengujian yang dilakukan dengan t tes.
μ1 = μ2
μ1 = μ3
μ1 = μ4
μ1 = μ5
μ2 = μ3
μ2 = μ4
μ2 = μ5
μ3 = μ4
Melalui perbandingan sederhana adalah teknik analisis statistik yang dapat memberi jawaban atas ada tidaknya perbedaan skor pada masing-masing kelompok (khususnya untuk kelompok yang banyak), dengan suatu risiko kesalahan yang sekecil mungkin. Anova mempunyai kemampuan membedakan antar banyak kelompok dengan risiko kesalahan yang kecil, juga dapat memberi informasi tentang ada tidaknya interaksi antar variabel bebas sehubungan dengan variabel terikat.
Pada dasarnya ANOVA dapat dibagi menjadi 2 kelompok besar, yaitu:
1. Beberapa kelompok yang dihadapi merupakan pembagian dari satu independen varibel (variabel bebas)
2. Beberapa kelompok yang dihadapi merupakan pembagian dari beberapa independen varibel (variabel bebas)
Asumsi Dasar dalam ANOVA :
1. Kenormalan
Setiap harga dalam sampel berasal dari distribusi normal, sehingga distribusi skor sampel dalam kelompok pun hendaknya normal. Kenormalan dapat diatasi dengan memperbanyak sampel dalam kelompok, karena semakin banyak n maka distribusi akan mendekati normal. Apabila sampel tiap kelompok kecil dan tidak dapat pula diatasi dengan jaln melakukan transformasi.
2. Kesamaan Variansi
Masing-masing kelompok hendaknya berasal dari populasi yang mempunyai variansi yang sama. Untuk sampel yang sama pada setiap kelompok, kesamaan variansi dapat diabaikan. Tetapi, jika banyaknya sampel pada masing-masimg kelompok tidak sama, maka kesamaan variansi populasi memang sangat diperlukan.
3. Penamatan Bebas
Sampel hendaknya diambil secara acak (random), sehingga setiap pengamatan merupakan informasi yang bebas.
Ada tiga kelas konseptual model seperti:
• Model efek tetap berasumsi bahwa data berasal dari populasi normal yang mungkin berbeda hanya dalam kemampuan mereka. (Model 1)
• Model efek acak berasumsi bahwa data yang menggambarkan hierarki populasi yang berbeda yang perbedaan dibatasi oleh hirarki. (Model 2)
• Model efek campuran menggambarkan situasi di mana baik tetap dan efek acak hadir. (Model 3)
Sesuai dengan kebutuhannya Anova dibedakan menjadi 2 yaitu Anova satu arah dan Anova dua arah. Anova satu arah hanya memperhitungkan 1 faktor yang menimbulkan variasi, sedangkan Anova dua arah memperhitungkan dua faktor yang menimbulkan variasi.
Pada dasarnya pola sampel dapat dikelompokan menjadi dua kelompok, yaitu:
1. Seluruh sampel, baik yang berada pada kelompok pertama sampai dengan yang ada di kelompok lain, berasal dari populasiyang sama. Untuk kondisi ini hipotesis nol terbatas pada tidak ada efek dari treatment (perlakuan)
2. Sampel yang ada di kelompok satu berasal dari populasi yang bebeda dengan populasi sampel dengan populasi sampel yang ada di kelompok lainnya.
Mengingat Anova berkaitan dengan pengujian hipotesis multipel (ganda). Pada saat melakukan pengujian hipotesis (perbedaan dua rata-rata) dengan menggunakan t tes selalu menanggung kesalahan tipe 1 sebesar alpha. Untuk ANOVA kesalahan tipe 1 disebut dengan experiment wise alpha level yang besarnya:
1-(1-α)N
N Merupakan banyaknya tes jika menggunakan t tes (dilakukan satu per satu)
Misalnya: Untuk pengujian perbedaan rata-rata dari 5 kelompok sampel. Jika dimbil alpha sebesar 0,005 maka dengan penggunaan t tes besarnya resiko kesalahan tipe 1 untuk sekali pengujian adalah 0,05 dan untuk 10 kali pengujian berarti menanggung kesalahan tipe 1 sebesar 0,5. Apabila kita menggunakan ANOVA kesalahan tipe 1 yang harus ditanggung adalah :
1-(1-0,05)10 = 0,40
Mengapa N berjumlah 10 untuk 5 kelompok sampel? Untuk menjawab pertanyaan tersebut marilah kita telusuri satu per satu pengujian yang dilakukan dengan t tes.
μ1 = μ2
μ1 = μ3
μ1 = μ4
μ1 = μ5
μ2 = μ3
μ2 = μ4
μ2 = μ5
μ3 = μ4
Melalui perbandingan sederhana adalah teknik analisis statistik yang dapat memberi jawaban atas ada tidaknya perbedaan skor pada masing-masing kelompok (khususnya untuk kelompok yang banyak), dengan suatu risiko kesalahan yang sekecil mungkin. Anova mempunyai kemampuan membedakan antar banyak kelompok dengan risiko kesalahan yang kecil, juga dapat memberi informasi tentang ada tidaknya interaksi antar variabel bebas sehubungan dengan variabel terikat.
Pada dasarnya ANOVA dapat dibagi menjadi 2 kelompok besar, yaitu:
1. Beberapa kelompok yang dihadapi merupakan pembagian dari satu independen varibel (variabel bebas)
2. Beberapa kelompok yang dihadapi merupakan pembagian dari beberapa independen varibel (variabel bebas)
Asumsi Dasar dalam ANOVA :
1. Kenormalan
Setiap harga dalam sampel berasal dari distribusi normal, sehingga distribusi skor sampel dalam kelompok pun hendaknya normal. Kenormalan dapat diatasi dengan memperbanyak sampel dalam kelompok, karena semakin banyak n maka distribusi akan mendekati normal. Apabila sampel tiap kelompok kecil dan tidak dapat pula diatasi dengan jaln melakukan transformasi.
2. Kesamaan Variansi
Masing-masing kelompok hendaknya berasal dari populasi yang mempunyai variansi yang sama. Untuk sampel yang sama pada setiap kelompok, kesamaan variansi dapat diabaikan. Tetapi, jika banyaknya sampel pada masing-masimg kelompok tidak sama, maka kesamaan variansi populasi memang sangat diperlukan.
3. Penamatan Bebas
Sampel hendaknya diambil secara acak (random), sehingga setiap pengamatan merupakan informasi yang bebas.
1.2
TUJUAN ANALISIS VARIAN
-Untuk menempatkan variabel-variabel
bebas penting di dalam suatu studi.
-Untuk menentukkan bagaimana mereka berinteraksi dalam mempengaruhi jawaban.
-Untuk menentukkan bagaimana mereka berinteraksi dalam mempengaruhi jawaban.
1.3 TIPE ANALISIS VARIAN
Analisis Varian memiliki dua tipe
yaitu :
A. Analisis Varian 1 Arah
Analisis varian 1 arah yaitu suatu metode untuk menguraikan keragaman total data menjadi komponen-komponen yang mengukur berbagai sumber keragaman dengan menggunakan One-Way ANOVA dengan satu perlakuan.
A. Analisis Varian 1 Arah
Analisis varian 1 arah yaitu suatu metode untuk menguraikan keragaman total data menjadi komponen-komponen yang mengukur berbagai sumber keragaman dengan menggunakan One-Way ANOVA dengan satu perlakuan.
Contoh Tipe ANOVA 1 arah
Sampel dibagi menjadi beberapa kategori dan ulangan :
kolom
= kategori
baris
= ulangan/replika
|
Terdapat 4 Metode diet, dan 14 orang digunakan sebagai sampel
|
Metode-1
|
Metode-2
|
Metode-3
|
Metode-3
|
Member
#1
|
Ali
|
Badu
|
Cici
|
Lina
|
Member
#2
|
Edo
|
Fifi
|
Intan
|
Iwan
|
Member
#3
|
Ina
|
July
|
Lia
|
Anton
|
Member
#4
|
-
|
Mimi
|
-
|
Lina
|
Metode-1 diulang 3
kali, Metode-2 diulang 4 kali,
Metode-3 diulang 3
kali, Metode-4 diulang 4 kali.
Catatan : Dalam banyak kasus untuk mempermudah perhitungan, ulangan untuk
setiap kategori dibuat sama banyak
B. Analisis Varian 2 Arah
Analisis
varian 2 arah yaitu suatu metode untuk menguraikan keragaman total data menjadi
komponen-komponen yang mengukur berbagai sumber keragaman dengan menggunakan
One-Way ANOVA dengan dua perlakuan.
Untuk hipotesis
nol pada analisis varian dua arah interaksi antarvariabel perlakuannya sebagai
berikut.
• Pengujian hipotesis nol bahwa nilai tengah baris µi adalah sama:
Ho : αi = 0
H1 : minimal satu αi tidak sama dengan nol
• Pengujian hipotesis nol bahwa nilai tengah kolom µj adalah sama :
Ho : βj = 0
H1 : minimal satu βj tidak sama dengan nol
• Pengujian hipotesis nol bahwa nilai tengah interaksi antara baris dan kolom adalah sama.
Ho : (αβ)ij = 0
Hi : minimal satu (αβ)ij tidak sama dengan nol.
Soal Analisis Data
Dari hasil penelitian yang dilakukan terhadap mahasiswa/i Biologi semester 3 kelas c angkatan 2008 pada nilai mata kuliah PAI 1, PAI 2, dan PPKN. Penelitian ini ingin mengetahui apakah dari ke tiga mata kuliah tersebut akan menghasilkan nilai rata-rata yang sama? Dengan data yang diperoleh sebagai berikut :
Sampel PAI 1 PAI 2 PPKN
1. 4.00 4.00 3.00
2. 4.00 4.00 4.00
3. 4.00 4.00 4.00
4. 3.00 3.00 3.00
5. 3.00 4.00 3.00
6. 4.00 4.00 4.00
7. 4.00 4.00 4.00
8. 4.00 4.00 3.00
9. 4.00 4.00 4.00
10. 4.00 4.00 4.00
11. 4.00 4.00 4.00
12. 4.00 4.00 4.00
13. 3.00 3.00 4.00
14. 4.00 4.00 3.00
15. 4.00 4.00 4.00
16. 4.00 4.00 4.00
17. 3.00 3.00 4.00
18. 4.00 4.00 4.00
19. 3.00 3.00 4.00
20. 3.00 3.00 3.00
21. 4.00 4.00 3.00
22. 3.00 3.00 4.00
23. 4.00 3.00 4.00
24. 3.00 4.00 3.00
25. 3.00 4.00 4.00
26. 4.00 4.00 4.00
27. 4.00 4.00 4.00
28. 3.00 3.00 3.00
29. 4.00 3.00 3.00
30. 4.00 4.00 4.00
Keterangan :
Di karenakan data yang diperoleh berupa huruf, maka nilai sebenarnya diubah kedalam angka menjadi 4.00 untuk Nilai A, dan 3.00 untuk nilai B
• Pengujian hipotesis nol bahwa nilai tengah baris µi adalah sama:
Ho : αi = 0
H1 : minimal satu αi tidak sama dengan nol
• Pengujian hipotesis nol bahwa nilai tengah kolom µj adalah sama :
Ho : βj = 0
H1 : minimal satu βj tidak sama dengan nol
• Pengujian hipotesis nol bahwa nilai tengah interaksi antara baris dan kolom adalah sama.
Ho : (αβ)ij = 0
Hi : minimal satu (αβ)ij tidak sama dengan nol.
Soal Analisis Data
Dari hasil penelitian yang dilakukan terhadap mahasiswa/i Biologi semester 3 kelas c angkatan 2008 pada nilai mata kuliah PAI 1, PAI 2, dan PPKN. Penelitian ini ingin mengetahui apakah dari ke tiga mata kuliah tersebut akan menghasilkan nilai rata-rata yang sama? Dengan data yang diperoleh sebagai berikut :
Sampel PAI 1 PAI 2 PPKN
1. 4.00 4.00 3.00
2. 4.00 4.00 4.00
3. 4.00 4.00 4.00
4. 3.00 3.00 3.00
5. 3.00 4.00 3.00
6. 4.00 4.00 4.00
7. 4.00 4.00 4.00
8. 4.00 4.00 3.00
9. 4.00 4.00 4.00
10. 4.00 4.00 4.00
11. 4.00 4.00 4.00
12. 4.00 4.00 4.00
13. 3.00 3.00 4.00
14. 4.00 4.00 3.00
15. 4.00 4.00 4.00
16. 4.00 4.00 4.00
17. 3.00 3.00 4.00
18. 4.00 4.00 4.00
19. 3.00 3.00 4.00
20. 3.00 3.00 3.00
21. 4.00 4.00 3.00
22. 3.00 3.00 4.00
23. 4.00 3.00 4.00
24. 3.00 4.00 3.00
25. 3.00 4.00 4.00
26. 4.00 4.00 4.00
27. 4.00 4.00 4.00
28. 3.00 3.00 3.00
29. 4.00 3.00 3.00
30. 4.00 4.00 4.00
Keterangan :
Di karenakan data yang diperoleh berupa huruf, maka nilai sebenarnya diubah kedalam angka menjadi 4.00 untuk Nilai A, dan 3.00 untuk nilai B
Dari data
tersebut dilakukan uji perbandingan, dengan menggunakan Prosedur One-Way Anova
dengan tipe satu arah . Dengan langkah-langkah sebagai berikut :
• Aktifkan menu analize
• Pilih compare means
• Klik One-Way Anova sehingga akan muncul kotak dialog One-Way Anova.
• Masukka variabel-variabel yang anda perlukan kedalam kotak Dependent List dan Factor.
• Sehingga diperoleh output SPSS sebagai berikut.
ANOVA
Nilai
Sum of Squares df Mean Square F Sig.
Between Groups .022 2 .011 .050 .951
Within Groups 19.267 87 .221
Total 19.289 89
ANALISIS OUTPUT
Hipotesis:
Ho : µpai1 = µpai2 = µppkn
(Tidak ada perbedaan daya tahan rata-rata dari ke 3 mata kuliah tersebut)
H1 : µpai1 ≠ µpai2 ≠ µppkn
(Minimal ada 1 pasangan dengan nilai rata-rata yang berbeda)
Dalam pengujian kali ini digunakan tingkat signifikansi 0,05 (α = 0.05) atau dengan kata lain tingkat kepercayaan sebesar 0,95 (95%).
Penarikan kesimpulan :
F hitung > F table → tolak Ho
F hitung < F table → terima Ho
Nilai statistik F table adalah (2;87;0;05) = 3,11 (dari table distribusi F)
Terlihat dari table ANOVA bahwa nilai F hitung = 0.50, yang mana nilai ini lebih kecil dari nilai F table sehingga dapat disimpulkan bahwa kita tidak dapat menolak Ho, yang artinya tidak ada perbedaan nilai mata kuliah dari ke tiga mata kuliah tersebut.
Berdasarkan hasil analisis diatas, apakah perlu pengujian dengan Post Hoc???
Jawab :
Diatas sudah dijelaskan bila Ho diterima uji perbandingan mean dalam Post Hoc tidak berguna lagi, hal ini bisa kita lihat bahwa tingkat signifikansi semuanya diatas 0,05.
• Aktifkan menu analize
• Pilih compare means
• Klik One-Way Anova sehingga akan muncul kotak dialog One-Way Anova.
• Masukka variabel-variabel yang anda perlukan kedalam kotak Dependent List dan Factor.
• Sehingga diperoleh output SPSS sebagai berikut.
ANOVA
Nilai
Sum of Squares df Mean Square F Sig.
Between Groups .022 2 .011 .050 .951
Within Groups 19.267 87 .221
Total 19.289 89
ANALISIS OUTPUT
Hipotesis:
Ho : µpai1 = µpai2 = µppkn
(Tidak ada perbedaan daya tahan rata-rata dari ke 3 mata kuliah tersebut)
H1 : µpai1 ≠ µpai2 ≠ µppkn
(Minimal ada 1 pasangan dengan nilai rata-rata yang berbeda)
Dalam pengujian kali ini digunakan tingkat signifikansi 0,05 (α = 0.05) atau dengan kata lain tingkat kepercayaan sebesar 0,95 (95%).
Penarikan kesimpulan :
F hitung > F table → tolak Ho
F hitung < F table → terima Ho
Nilai statistik F table adalah (2;87;0;05) = 3,11 (dari table distribusi F)
Terlihat dari table ANOVA bahwa nilai F hitung = 0.50, yang mana nilai ini lebih kecil dari nilai F table sehingga dapat disimpulkan bahwa kita tidak dapat menolak Ho, yang artinya tidak ada perbedaan nilai mata kuliah dari ke tiga mata kuliah tersebut.
Berdasarkan hasil analisis diatas, apakah perlu pengujian dengan Post Hoc???
Jawab :
Diatas sudah dijelaskan bila Ho diterima uji perbandingan mean dalam Post Hoc tidak berguna lagi, hal ini bisa kita lihat bahwa tingkat signifikansi semuanya diatas 0,05.
BAB II
ANALISIS REGRESI
2.1 pendahuluan
analisis
regresi berkenaan dengan studi ketergantungan dari suatu variabel yang disebut
tak bebas (dependent variable) pada satu atau lebih variabel, yaitu
variabel yang menerangkan dengan tujuan untuk memperkirakan atau pun meramalkan
nilai-nilai dari variabel tak bebas (independent variable). Dalam ilmu
statistik nonparametrik tidak menguji populasi ( semua objek penelitian yang
merupakan nilai yang sebenarnya ) tetapi menguji distribusi. Dan statistik
nonparametrik tidak menuntut terpenuhi banyak asumsi, misalnya data yang
dianalisis tidak harus berdistribusi normal. Oleh karena itu statistik
nonparametrik sering disebut sebagai distribusi bebas (free distribution).
Statistik nonparametrik juga banyak digunakan untuk menganalisa data nominal
dan ordinal,karena itu statistik nonparametrik relatif masih kurang banyak
diketahui daripada statistik parametrik. (Hardle,1994).
Ada beberapa metode
pendekatan regresi nonparametrik diantaranya theil,spline, kernel, dan lain –
lain.
Dalam
beberapa masalah terdapat dua atau lebih variabel yang hubungannya tidak dapat
dipisahkan, dan hal tersebut biasanya diselidiki sifat hubungannya.
Berdasarkan
bentuk kelinearan data, model regresi dapat diklasifikasikan
menjadi
dua macam yaitu linear dan non-linear. Jika pola data linear maka
digunakan
pemodelan
linear. Begitu juga sebaliknya apabila pola data tidak linear maka digunakan
pemodelan
non linear.
Untuk
mengetahui bentuk linear atau nonlinear dapat dilakukan dengan membuat
scatterplot
seperti berikut :
Gambar.
Plot Pola Linear
Gambar..
Plot Pola Nonlinear.
2.2 Pengertian Analisis
regresi
Regresi berasal dari kata “regress”
artinya bergerak menuju sifat-sifat populasi (induknya). Kata regressi berasal
dari studi empirik yang mana ditemukan bahwa tinggi badan rata anak yang
dilahirkan ternyata cenderung “regress” atau mengikuti tinggi badan orang
tuanya. Tinggi badan anak yang mengikuti disebut variabel dependen = variabel
yang diteliti = variabel yang dijelaskan = “regressand”. Tinggi badan orang tua
disebut “regressor” = variabel yang menjelaskan variabel independen. (Setiaji,
2005)
Istilah regresi pertama kali diperkenalkan oleh Sir Francis
Galton (1822-1911). Menurut Galton, Analisis regresi
adalah sebuah teknik statistika untuk membuat model dan menyelidiki hubungan
antara dua variabel atau lebih.
Pada dasarnya tahapan penyusunan
model analisis regresi adalah sebagai berikut:
- Menentukan yang mana
variabel bebas dan variabel terikatnya
- Menentukan metode
pembuatan model regresi, dalam SPSS ada beberapa pilihan, yaitu: Enter,
Stepwise, Forward dan Backward (perbedaanya akan dibahas pada bagian
lain). Default SPSS adalah metode Enter. Jika kita memilih metode
Stepwise, maka uji signifikansi justru mendahului uji asumsi seperti
normalitas dan sebagainya, oleh karena itu dalam latihan kita akan
menggunakan default SPSS yaitu metode Enter.
- Melihat ada tidaknya
data yang outlier (ekstrem)
- Menguji
asumsi-asumsi pada regresi berganda, seperti normalitas, Linieritas,
Heteroskedastisitas dan lain-lainnya.
- Menguji signifikansi
model (uji-t, uji-F dan sebagainya)
- Intepretasi model
Regresi Berganda
2.3 Tujuan Analisis Regresi
·
untuk membuat sebuah
model yang menggambarkan hasil sebagai sebuah fungsi temperatur tertentu
·
untuk tujuan optimalisasi atau
tujuan proses kontrol.
·
untukmempelajari pola
dan mengukur hubungan statistika antara dua atau lebih peubah (variabel).
·
untuk meramalkan atau
memperkirakan nilai dari suatu variabel lain yang belum diketahui.
2.4
Pemodelan Regresi
Analisis
regresi merupakan analisis untuk mendapatkan hubungan dan model
matematis
antara variabel respon (y) dan satu atau lebih variabel prediktor (x).
Hubungan
antara respon dan prediktor yang mempengaruhinya dalam pemodelan linear
dapat
dituliskan dalam bentuk persamaan regresi sebagai berikut
(Drapper&Smith,1996):
Taksiran
persamaan tersebut adalah
i
= 1,2 …..n dan j = 1,2,….k, dengan n adalah banyaknya pengamatan dan (k+1)
adalah
banyaknya
parameter.
Keterangan
:
y
: Variabel respon
yˆ
: Taksiran variabel respon
x
: Variabel prediktor
β
: Parameter regresi
b
: Taksiran parameter regresi
ε
: Residual, dengan asumsi ε~IIDN(0,σ2)
Persamaan
regresi dapat dinotasikan dalam bentuk matrik :
dengan
:
Pendugaan
atau estimasi parameter β dapat
dilakukan melalui metode Ordinary
Least
square (OLS) yang bertujuan untuk meminimumkan Sum
Square Error (SSE),
yaitu
untuk menaksir β maka :
Sementara itu, beberapa bentuk persamaan
regresi non linear disajikan pada
Tebel
1. Penaksiran parameter pada regresi non linear dapat dilakukan dengan
melakukan
transformasi sehingga bentuk non linear berubah menjadi linear. Metode
penaksiran
parameter tersebut juga dilakukan dengan metode kuadrat terkecil seperti
pada
regresi linear.
Tabel1.
Bentuk persamaan non linear dan transformasinya
Bentuk Non
Linear
|
Transformasi
|
Bentuk
linear
|
|
Ln Y X
|
In
|
|
Ln Y ln(X)
|
In
|
|
Ln
(1-Y) ln(X)
|
In
|
|
In
|
In
|
Dalam
pemodelan nonlinear, cara mengestimasinya dapat dilakukan dengan
estimasi
model linear, dimana dilakukan transfomasi ke dalam bentuk linear terlebih
dahulu.
2.5
Pengujian Parameter
Pengujian
parameter dalam model regresi bertujuan untuk mengetahui apakah
parameter
tersebut telah menunjukkan hubungan yang nyata antara variabel prediktor
dan
variabel respon. Terdapat dua tahap pengujian yaitu uji serentak dan uji
parsial
(individu).
a.
Uji
Serentak
Uji
serentak merupakan pengujian secara bersama semua parameter dalam
model
regresi. Hipotesis yang digunakan adalah :
Statistik
uji yang digunakan :
Ket
: MSR : Mean Square Regression
MSE : Mean Square Error
Pengambilan
keputusan adalah apabila Fhitung > Fα (k, n-k-1) dengan k adalah
parameter
maka H0 ditolak pada tingkat signifikansi α, artinya paling
sedikit ada satu βj
yang
tidak sama dengan nol atau jika P-value < α.
b.
Uji Parsial
Uji
parsial merupakan pengujian secara individu parameter dalam model regresi
yang
bertujuan untuk mengetahui parameter model regresi telah signifikan atau tidak.
Hipotesis
yang digunakan :
H0
: βj
= 0
H1
: βj
≠ 0,
j = 0, 1, 2, ..., k
Statistik
uji yang digunakan untuk metode OLS adalah
dengan
adalah nilai dugaan
simpangan baku bagi
Pengambilan
keputusannya yaitu apabila
atau
P value < α maka
ditolak pada tingkat signifikansi α, artinya ada pengaruh
xi terhadap model.
2.1.4
Pengujian Asumsi Residual
Asumsi residual yang harus dipenuhi
adalah identik, independen, dan
berdistribusi
normal dengan mean nol dan varians σ2
atau dinotasikan ε~IIDN(0,σ2).
Menurut
Montgomery (1992), asumsi kenormalan seringkali tidak terpenuhi karena
adanya
pengamatan outlier yang memberikan pengaruh (influence) besar
terhadap estimasi
parameter
model. Jika asumsi kenormalan terpenuhi maka metode ordinary least
square
(OLS) dapat menduga β dengan baik, namun jika tidak
terpenuhi estimasi OLS
tidak
dapat digunakan.
a. Uji Asumsi Identik
Asumsi
identik terpenuhi adalah ketika varians residual bersifat
homoskedastisitas
atau tidak membentuk pola tertentu. Pendeteksian heteroskedastisitas
residual
dapat secara visual yaitu membuat plot antara residual dan estimasi respon ( yˆ
).
Apabila
plot menunjukkan sebaran data yang tidak random atau membentuk tren atau
pola
tertentu, maka terjadi kasus heteroske-dastisitas residual. Cara kedua deteksi
heteroskedastisitas
adalah dengan uji Park yang dilakukan dengan cara melakukan
regresi
sebagai berikut :
Hipotesis
yang digunakan adalah :
dimana
j = 1, 2, ... , k i ≠ j dan k adalah variabel prediktor.
Pengambilan
keputusan adalah jika koefisien regresi (β) berpengaruh maka
diindikasikan
terjadi heteroskedastisitas.
b. Uji Independen
(Saling Bebas)
Uji
independen atau uji autokorelasi residual untuk mengetahui apakah ada korelasi
antar
residual. Pengujian melalui dilakukan melalui plot autocorrelation function
(ACF).
Apabila tidak ada lag yang keluar dari garis batas, maka dapat disimpulkan
tidak
ada
korelasi antar residual. Dapat juga dilakukan melalui uji Durbin-Watson, dengan
hipotesis
sebagai berikut :
H0 : ρ= 0
H1 : ρ≠ 0
Statistik
uji:
Daerah
keputusan terbagi dalam beberapa bagian yaitu jika dhitung ≤ dL,α/2 atau dL,α/2
≤
(4-dhitung)≤
dL,α/2 maka H0 ditolak (Drapper&Smith, 1996).
c. Uji Distribusi
Normal
Pengujian
asumsi residual Normal (0,σ2) dapat dilakukan melalui uji Kolmogorov
Smirnov.
Hipotesis yang digunakan adalah
H0 : F0(x)=F(x) (Residual
berdistribusi Normal (0,σ2))
H1 : F0(x)≠F(x) (Residual tidak
berdistribusi Normal(0,σ2))
Statistik
uji :
F0(x)
adalah fungsi distribusi kumulatif teoritis
sedangkan SN(x)=i/n merupakan
fungsi
peluang kumulatif pengamatan dari suatu sampel random dengan i adalah
pengamatan
dan n adalah jumlah pengamatan. Pengambilan keputusan adalah H0
ditolak
jika D >q(1-α) dimana q adalah nilai berdasarkan tabel
Kolmo-gorov Smirnov.
Selain
itu juga dapat melalui P-value, dimana H0 ditolak jika P-value kurang
dari α.
Beberapa
solusi yang dapat dilakukan apabila asumsi tidak terpenuhi :
No
|
Masalah
|
Solusi
|
1
|
Tidak
berdistribusi normal
|
Tranformasi
variabel
Regresi
bootstrap
Regresi
robust
|
2
|
Tidak
identik
|
Transformasi
variabel
Weighted
Least Squares
Regresi
robust
|
3
|
Tidak
independen
|
Regresi
beda, Regresi ratio
memasukkan
trend,
regresi
spasial
|
4
|
Multicollinearity
|
stepwise
Regresi
PCA
Ridge
regression
|
Koefisien
Determinasi
Koefisien Determinasi ( R2 ) menunjukkan
bagian dari varian total yang dapat
diterangkan
oleh model. Atau dapat dikatakan variabilitas total yang dapat diterangkan
garis
regresi di sekitar rata-ratanya adalah R2 . Sedangkan sisanya (100- R2 )%
diterangkan
oleh variabel lain yang belum masuk dalam model.
Nilai
R2 dinyatakan sebagai berikut :
BAB
III
ANALISIS KORELASI
3.1
Pengenalan
Analisis
korelasi merupakan salah satu teknik statistik yang digunakan untuk
menganalisis hubungan antara dua variabel atau lebih yang bersifat kuantitatif.
Sepanjang sejarah umat manusia,
orang melakukan penelitian mengenai ada dan tidaknya hubungan antara dua hal,
fenomena, kejadian atau lainnya. Usaha-usaha untuk mengukur hubungan ini
dikenal sebagai mengukur asosiasi antara dua fenomena atau kejadian yang
menimbulkan rasa ingin tahu para peneliti.
Korelasi
merupakan teknik analisis yang termasuk
dalam salah satu teknik pengukuran asosiasi / hubungan (measures of association). Pengukuran asosiasi merupakan istilah umum yang mengacu pada
sekelompok teknik dalam statistik bivariat yang digunakan untuk mengukur
kekuatan hubungan antara dua variabel. Diantara sekian banyak teknik-teknik
pengukuran asosiasi, terdapat dua teknik korelasi yang sangat populer sampai
sekarang, yaitu Korelasi Pearson Product Moment dan Korelasi Rank Spearman.
Selain kedua teknik tersebut, terdapat pula teknik-teknik korelasi lain,
seperti Kendal, Chi-Square, Phi Coefficient, Goodman-Kruskal, Somer, dan
Wilson.
Pengukuran
asosiasi mengenakan nilai numerik untuk mengetahui tingkatan asosiasi atau
kekuatan hubungan antara variabel. Dua variabel dikatakan berasosiasi jika
perilaku variabel yang satu mempengaruhi variabel yang lain. Jika tidak terjadi
pengaruh, maka kedua variabel tersebut disebut independen.
Korelasi
bermanfaat untuk mengukur kekuatan hubungan antara dua variabel (kadang lebih
dari dua variabel) dengan skala-skala tertentu, misalnya Pearson data harus
berskala interval atau rasio; Spearman dan Kendal menggunakan skala ordinal;
Chi Square menggunakan data nominal. Kuat lemah hubungan diukur diantara jarak
(range) 0 sampai dengan 1. Korelasi mempunyai kemungkinan pengujian hipotesis
dua arah (two tailed). Korelasi
searah jika nilai koefesien korelasi diketemukan positif;
sebaliknya
jika nilai koefesien korelasi negatif, korelasi
disebut tidak searah. Yang dimaksud dengan koefesien korelasi ialah
suatu pengukuran statistik kovariasi atau asosiasi antara dua variabel. Jika
koefesien korelasi diketemukan tidak sama dengan nol (0), maka terdapat
ketergantungan antara dua variabel tersebut. Jika koefesien korelasi diketemukan +1. maka
hubungan tersebut disebut sebagai korelasi sempurna atau hubungan linear
sempurna dengan kemiringan (slope) positif.
Jika
koefesien korelasi diketemukan -1. maka hubungan tersebut disebut
sebagai korelasi sempurna atau hubungan linear sempurna dengan kemiringan
(slope) negatif.
Dalam korelasi sempurna tidak
diperlukan lagi pengujian hipotesis, karena kedua variabel mempunyai hubungan
linear yang sempurna. Artinya variabel X mempengaruhi variabel Y secara
sempurna. Jika korelasi sama dengan nol (0), maka tidak terdapat hubungan
antara kedua variabel tersebut.
Dalam korelasi sebenarnya tidak
dikenal istilah variabel bebas dan variabel tergantung. Biasanya dalam penghitungan
digunakan simbol X untuk variabel pertama dan Y untuk variabel kedua. Dalam
contoh hubungan antara variabel remunerasi dengan kepuasan kerja, maka variabel
remunerasi merupakan variabel X dan kepuasan kerja merupakan variabel Y.
3.2 Kegunaan
Pengukuran
asosiasi berguna untuk mengukur kekuatan (strength)
hubungan antar dua variabel atau lebih. Contoh: mengukur hubungan antara
variabel:
Motivasi
kerja dengan produktivitas
Kualitas
layanan dengan kepuasan pelanggan
Tingkat
inflasi dengan IHSG
Pengukuran
ini hubungan antara dua variabel untuk masing-masing kasus akan menghasilkan
keputusan, diantaranya:
Hubungan
kedua variabel tidak ada
Hubungan
kedua variabel lemah
Hubungan
kedua variabel cukup kuat
Hubungan
kedua variabel kuat
Hubungan
kedua variabel sangat kuat
Penentuan tersebut didasarkan pada
kriteria yang menyebutkan jika hubungan mendekati 1, maka hubungan semakin
kuat; sebaliknya jika hubungan mendekati 0, maka hubungan semakin lemah.
3.3 Arah hubungan
korelasi :
Korelasi berdasarkan arah hubungannya dapat
dibedakan menjadi 3, yaitu :
a.
Korelasi Positif
Arah hubungan positif berarti “Apabila nilai
variabel ditingkatkan , maka akan
meningkatkan nilai variabel yang lain.
Sedangkan Apabila nilai variabel diturunkan , maka akan menurunkan nilai
variabel yang lain.”
b. Korelasi Negatif
Arah hubungan negatif berarti “Apabila nilai
variabel ditingkatkan , maka akan
menurunkan nilai variabel yang lain.Sedangkan
Apabila nilai variabel diturunkan , maka akan meningkatkan nilai variabel yang
lain.
c. Korelasi Nihil
Arah hubungan nihil sama saja dengan Korelasi sama dengan 0
mempunyai arti tidak ada hubungan antara dua variabel.
3.4 Kuat
hubungan
·
Kuat hubungan dinyatakan dalam bentuk angka,
antara 0 – 1
·
Angka 0 menujukkan hubungan yang tidak ada
·
Angka 1 menunjukkan hubungan yang sempurna
semakin
kecil koefisien korelasi, maka akan semakin besar kesalahan untuk membuat
prediksi.
Koefesien korelasi akan selalu sebesar :
- 1 ≤ r ≤ + 1
-1 0 +1
3.5 Teknik Korelasi
Pedoman memilih teknik korelasi berdasarkan
jenis data yang digunakan :
JENIS DATA
|
TEKNIK KORELASI
|
Nominal
|
Koefisien
Kontingensi
|
Ordinal
|
Spearman
Rank
Kendal Tau
|
Interval dan Ratio
|
Pearson
Product Moment
Korelasi
Ganda
Korelasi
Parsial
|
A. KOEFISIEN
KONTINGENSI
Teknik Korelasi koefisien Kontigensi (Contingency Coefficient Corellation)
adalah salah satu teknik Analisis Korelasional Bivariat, yang dua buah variabel
dikorelasikan adalah berbentuk katagori atau merupakan gejala ordinal.
Misalnya:
tingkat pendidikan: tinggi, menengah, rendah. pemahaman terhadap ajaran agama
islam: baik, cukup. kurang dan sebagainya.Tekhnik
analisis ini dilambangkan dengan huruf C atau KK (Singkatan dari koefisien
kotegensi).
Rumus
yang digunakan :
B.
KORELASI PRODUCT MOMENT
Digunakan untuk menentukan besarnya
koefisien korelasi
jika data yang digunakan berskala interval atau rasio.
Rumus yang digunakan:
C. KORELASI RANK SPERMAN
Digunakan untuk menentukan
besarnya koefesien korelasi jika data yang digunakan berskala Ordinal.
Rumus yang digunakan:
D. TEKNIK ANALISIS KORELASI PHI
Teknik Korelasi Phi adalah salah-satu teknik analisis
korelasional yang dipergunakan apabila data yang dikorelasikan adalah data yang
benar-benar dikotomik (terpisah atau dipisahkan secara tajam). Dengan istilah
lain variabel yang dikorelasikan itu adalah variabel diskrit murni.
Rumus yang digunakan :
E. TEKNIK
ANALISIS KORELASI POINT BISERIAL
Tekhnik korelasi point
biserial adalah salah satu tekhnik analisis korelasional bivariat yang biasa
digunakan untuk mencari korelasi antara dua variabel : variabel I berbentuk variabel kontinum (misalnya: skor hasil
tes), sedangkan variabel II berbentuk variabel
diskrit murni (misalnya betul atau
salahnya calon dalam menjawab soal
tes).
Rumus yang digunakan :
rpbi
= koefisien korelasi
Xp
= rerata data interval kategori 1
Xq
= rerata data interval kategori 0
s
= standar deviasi seluruh data interval
p
= proporsi kasus kategori 1
q
= proporsi kasus kategori 0
F. KORELASI DATA KUALITATIF
Digunakan untuk menentukan
besarnya koefesien korelasi jika data yang digunakan berjenis kualitatif.
Rumus yang digunakan:
Tranformasi dari nilai Chi-Square
ke
koefesien korelasi:
BAB IV
Uji Chi-Kuadrat dan Uji kecocokan
4.1 Pendahuluan
Chi-kuadrat digunakan untuk
mengadakan pendekatan dari beberapa vaktor atau mngevaluasi frekuensi yang
diselidiki atau frekuensi hasil observasi dengan frekuensi yang diharapkan dari
sampel apakah terdapat hubungan atau perbedaan yang signifikan atau tidak.
Dalam statistik, distribusi chi square termasuk dalam
statistik nonparametrik. Distribusi nonparametrik adalah distribusi dimana
besaran-besaran populasi tidak diketahui. Distribusi ini sangat bermanfaat
dalam melakukan analisis statistik jika kita tidak memiliki informasi tentang
populasi atau jika asumsi-asumsi yang dipersyaratkan untuk penggunaan statistik
parametrik tidak terpenuhi.
Beberapa hal yang perlu diketahui berkenaan dengan
distribusi chi square adalah :
- Distribusi
chi-square memiliki satu parameter yaitu derajat bebas (db).
- Nilai-nilai
chi square di mulai dari 0 disebelah kiri, sampai nilai-nilai positif tak
terhingga di sebelah kanan.
- Probabilitas
nilai chi square di mulai dari sisi sebelah kanan.
- Luas
daerah di bawah kurva normal adalah 1.
a) Uji Kecocokan = Uji
Kebaikan Suai = Goodness of Fit
b) Uji Kebebasan
c) Uji Beberapa Proporsi
(Prinsip pengerjaan (b) dan (c) sama saja)
Nilai chi square adalah nilai kuadrat karena itu nilai
chi square selalu positif. Bentuk distribusi chi square tergantung dari derajat
bebas (Db)/degree of freedom. Pengertian pada uji chi square sama dengan
pengujian hipotesis yang lain, yaitu luas daerah penolakan Ho atau taraf nyata
pengujian
Metode Chi-kuadrat menggunakan data nominal, data
tersebut diperoleh dari hasil menghitung. Sedangkan besarnya nilai chi-kuadrat
bukan merupakan ukuran derajat hubungan atau perbedaan.
Macam-macam bentuk analisa Chi-kuadrat :
- Penaksiran
standar deviasi
- Pengujian
hipotesis standar deviasi
- Pengujian
hipotesis perbedaan beberapa proporsi atau chi-square dari data
multinominal
- Uji
hipotesis tentang ketergantungan suatu variabel terhadap variabel lain/uji
Chi-square dari tabel kontingensi/tabel dwikasta/tabel silang
- Uji
hipotesis kesesuaian bentuk kurva distribusi frekuensi terhadap distribusi
peluang teoritisnya atau uji Chi-square tentang goodness of fit
4.2 Ketentuan Pemakaian Chi-Kuadrat (X2)
Agar pengujian hipotesis dengan chi-kuadrat dapat
digunakan dengan baik, maka hendaknyamemperhatikan ketentuan-ketentuan sebagai
berikut :
- Jumlah
sampel harus cukup besar untuk meyakinkan kita bahwa terdapat kesamaan
antara distribusi teoretis dengan distribusi sampling chi-kuadrat.
- Pengamatan
harus bersifat independen (unpaired). Ini berarti bahwa jawaban satu
subjek tidak berpengaruh terhadap jawaban subjek lain atau satu subjek
hanya satu kali digunakan dalam analisis.
- Pengujian
chi-kuadrat hanya dapat digunakan pada data deskrit (data frekuensi atau
data kategori) atau data kontinu yang telah dikelompokan menjadi kategori.
- Jumlah
frekuensi yang diharapkan harus sama dengan jumlah frekuensi yang diamati.
- Pada
derajat kebebasan sama dengan 1 (table 2 x 2) tidak boleh ada nilai
ekspektasi yang sangat kecil. Secara umum, bila nilai yang diharapkan
terletak dalam satu sel terlalu kecil (< 5) sebaiknya chi-kuadrat tidak
digunakan karena dapat menimbulkan taksiran yang berlebih (over estimate)
sehingga banyak hipotesis yang ditolak kecuali dengan koreksi dari Yates.
Bila tidak cukup besar, maka adanya satu nilai
ekspektasi yang lebih kecil dari 5 tidak akan banyak mempengaruhi hasil yang
diinginkan.
Pada pengujian chi-kuadrat dengan banyak ketegori,
bila terdapat lebih dari satu nilai ekspektasi kurang dari 5 maka, nilai-nilai
ekspektasi tersebut dapat digabungkan dengan konsekuensi jumlah kategori akan
berkurang dan informasi yang diperoleh juga berkurang.
4.3 Bentuk Distribusi Chi Kuadrat (χ²)
Nilai χ² adalah nilai kuadrat karena itu nilai χ² selalu
positif.
Bentuk distribusi χ² tergantung dari derajat bebas(db)/degree of
freedom.
Contoh : Berapa nilai χ² untuk db = 5 dengan α = 0.010? (15.0863)
Berapa nilai χ² untuk db = 17 dengan α = 0.005? (35.7185)
Pengertian α pada Uji χ² sama dengan pengujian hipotesis yang
lain, yaitu luas daerah penolakan H0 atau taraf nyata pengujian
4.4 Pengunaan Uji χ²
Uji χ² dapat digunakan untuk :
a. Uji Kecocokan = Uji
kebaikan-suai = Goodness of fit test
b. Uji Kebebasan
c. Uji beberapa proporsi
Prinsip pengerjaan (b) dan (c) sama saja
A. Uji
Kecocokan (Goodness of Fit)
Uji kecocokan adalah suatu uji
untuk menentukan apakah suatu populasi atau variabel acak X mempunyai
distribusi teoritik tertentu. Uji ini didasarkan pada seberapa baik kesesuaian
/ kecocokan antara frekuensi yang teramati dalam data sampel dengan frekuensi
harapan yang didasarkan pada distribusi yang dihipotesiskan.
Langkah-langkah dalam pengujian ini
adalah :
1. Susun hipotesis
Distribusi X ialah
Distribusi X bukan
2. Pilih tingkat signifikasi
3.
Tentukan frekuensi pengamatan
4. Hitung frekuensi harapan (
frekuensi yang diharapkan jika benar )
5. Gunakan statistik penguji :
k : banyaknya kategori/sel, 1,2 ... k
o : frekuensi observasi
untuk kategori ke-i i
e : frekuensi ekspektasi
untuk kategori ke-i i
kaitkan dengan
frekuensi ekspektasi dengan nilai/perbandingan dalam H0
Derajat Bebas (db) = k - 1
B. Uji Kebebasan dan Uji Beberapa Proporsi
Uji kebebasan antara 2 variabel memiliki prinsip pengerjaan yang
sama dengan pengujian beberapa proporsi.
A. Uji Kebebasan :
H0 : variabel-variabel
saling bebas
H1 : variabel-variabel
tidak saling bebas
B Uji Beberapa Proporsi :
H0 : setiap proporsi
bernilai sama
H1 : ada proporsi yang
bernilai tidak sama
Data dalam pengujian ketergantungan dan beberapa proporsi
disajikan dalam bentuk Tabel Kontingensi.
Bentuk umum Tabel Kontingensi → berukuran r baris x k kolom
derajat bebas = (r-1)(k-1)
r : banyak baris
k : banyak kolom
BAB V
STATISTIK NON PARAMETRIK
5.1
Pengertian
Berdasarkan parameternya statistik
dibagi menjadi dua yakni statistik Parametrik dan Non Parametrik, keduanya
berbeda satu dengan yang lain dan memiliki kelebihan dan kekurangan antara satu
dengan yang lainnya. Statistik Non
Parametrik adalah bagian statistik yang parameter dari populasinya tidak
mengikuti suatu distribusi tertentu atau memilki distribusi yang bebas
persyaratan dan variannya tidak perlu homogen.
Statistik nonparametrik memiliki keungulan dan
kekurangan, adapun keuntungan dari penggunaan prosedur-prosedur dari Statistik
Non Parametrik adalah sebagai berikut.
- Pernyataan
kemungkinan yang diperoleh dari sebagian besar tes statistik non
parametrik adalah kemungkinan yang eksak. Dimana tes nonparametrik
menggangap bahwa distribusi yang mendasarinya dalah kontinyu sama dengan
anggapan yang dibuat tes-tes parametrik.
- Terdapat
tes-tes Statistik Non Parametrik untuk mengarap sampel-sampel yang terdiri
dari observasi-observasi dari beberapa populasi yang berlainan, selain itu
statistik non parametrik dapat digunakan pada sampel yang sifat
distribusinya tidak diketahui secara pasti.
- Tes-
tes Statistik Non Parametrik dapat menggarap data yang berupa rangking dan
data yang skor-skornya sepintas memilkik kekuatan rangking. Selain itu
juga dapat menggarap data berupa klasifikasi semata yang diukur dalam
skala nominal.
- Tes-tes
Statistik Non Parametrik lebih muda dipelajari dibandingkan dengan
Parametrik, dan juga memiliki kemungkinan untuk digunakan secara salah
juga kecil karena memerlukan asumsi dalam jumlah minimum.
Sedangkan kekurangan dari pengunaan prosedur-prosedur
model Statistik Non Parametrik adalah :
- Penggunaan
Statistik Non Parametrik akan menjadi penghamburan data jika data memenuhi
syarat model statistik parametrik,
- Belum
ada satu pun dalam metode Statistik Non Parametrik untuk mengukur
interaksi-interaksi dalam model analisis varian,
- Penggunanaan
Statistik Non Parametrik memerlukan banyak tenaga serta menjemukan.
Kelemahan diperbaiki dengan menambah ukuran
sampel
Beberapa Uji Non Parametrik yang akan dipelajari :
·
- Uji tanda berpasangan
·
- Uji Peringkat 2 Sampel
Mann-Whitney
·
- Uji Peringkat 2 Sampel Wilcoxon
·
- Uji Korelasi Peringkat Spearman
·
- Uji Konkordansi Kendall
·
- Uji Run(s)
A. Uji Tanda Berpasangan
Uji dilakukan pada 2 sampel terpisah (independen)
• tanda (+) → data pada sampel 1 >
pasangannya sampel 2
• tanda (–) → data pada sampel 1 <
pasangannya sampel 2
• tanda Nol (0) → data pada sampel 1 =
pasangannya sampel 2
Tanda Nol tidak
digunakan dalam perhitungan
Notasi yang digunakan :
n = banyak tanda (+) dan tanda (–) dalam sampel
Standar Error = Galat
Baku =
Rata-Rata Sampel
Statistik
Uji :
SUKSES
tergantung dari apa yang ditanyakan (ingin diuji) dalam soal.
Jika yang ingin diuji sampel 1 > sampel 2 maka SUKSES adalah banyak
tanda (+)
Jika yang ingin diuji sampel 1 < sampel 2 maka SUKSES adalah banyak
tanda (–)
Nilai
disesuaikan dengan nilai pengujian
yang diinginkan dalam soal p0
atau jika ingin diuji proporsi
sampel 1 = proporsi sampel 2 maka
= 0.50
Penetapan Penetapan
dan
Terdapat 3 alternatif
dan
a)
: p =
dan
: p <
Uji 1 arah dengan daerah penolakan
: z < −zα
(b)
: p =
dan
: p >
Uji 1 arah dengan daerah penolakan
: z > zα
(c)
: p =
dan
: p ≠
Uji 2 arah dengan daerah penolakan
: z <
dan z >
Contoh
soal :
Berikut adalah nilai
preferensi konsumen terhadap 2 Merk Sabun Mandi. Dengan taraf nyata 1%, ujilah
apakah proporsi preferensi konsumen pada kedua merk bernilai sama?
No. Responden
|
LUXE
|
GIVE
|
Tanda
|
1.
|
4
|
2
|
+
|
2.
|
2
|
3
|
–
|
3.
|
3
|
3
|
0
|
4.
|
2
|
3
|
–
|
5.
|
3
|
2
|
+
|
6.
|
1
|
2
|
–
|
7.
|
2
|
3
|
–
|
8.
|
3
|
4
|
–
|
9.
|
3
|
2
|
+
|
10.
|
2
|
1
|
+
|
11.
|
4
|
1
|
+
|
12.
|
1
|
1
|
0
|
13.
|
4
|
2
|
+
|
14.
|
3
|
2
|
+
|
15.
|
4
|
3
|
+
|
Banyak tanda (+) = 8 Banyak
tanda (–) = 5 n = 8 + 5 = 13
Jika
kita asumsikan LUXE lebih disukai dibanding GIVE maka SUKSES dalam sampel
adalah
= proporsi banyak tanda (+) dalam
sampel
Karena
ingin diuji proporsi yang suka LUXE = GIVE maka = = 0.50 p0q0
Langkah Pengujian:
1.
: p = 0.50
: p ≠ 0.50
2. Statistik Uji : z
3. Uji: 2 Arah
4. Taraf Nyata
Pengujian = α = 1% →
= 0.5% = 0.005
5. Nilai statistik Uji :
= 0,87
6.
Kesimpulan:
z
hitung = 0.87 ada di daerah penerimaan
diterima
Proporsi
konsumen yang menyukai LUXE masih sama dengan yang menyukai GIVE.
B. Uji Peringkat 2 Sampel Mann-Whitney
Uji ini merupakan alternatif uji beda 2 rata-rata Parametrik dengan
menggunakan t (Sampel-sampel berukuran kecil).
Langkah pertama pengujian ini adalah pengurutan nilai mulai dari yang
terkecil hinggaterbesar. Pengurutan dilakukan tanpa pemisahan kedua sampel.
Selanjutnya lakukan penetapan Rank (Peringkat) dengan aturan berikut:
Peringkat ke -1 diberikan pada nilai terkecil di urutan pertama
Peringkat tertinggi diberikan pada nilai terbesar
Jika tidak ada nilai yang sama maka urutan = peringkat
Jika
ada nilai yang sama, maka ranking dihitung dengan rumus :
Notasi
yang digunakan :
R1= Jumlah peringkat dalam sampel ke 1
R2= Jumlah peringkat dalam sampel ke 2
n1= ukuran sampel ke 1
n2=ukuran sampel ke 2
Ukuran kedua sampel tidak harus sama
Standar Error (Galat
Baku)
Statistik Uji
C.
Uji Peringkat 2 Sampel
Wilcoxon
Prinsip pengerjaannnya
sama dengan Uji Peringkat 2 Sampel Mann-Whitney, hanya fokus kini dialihka
Notasi yang digunakan sampel dengan ukuran terkecil.
Notasi yang digunakan :
Nilai Ekspektasi
Standar Error =
Statistik Uji
D. Uji Konkordansi Kendall
Pengujian sampel
berpasangan ganda (multiple-paired samples).
Orang yang memberi
peringkat lebih dari 2.
Statistik Uji yang
digunakan :
Notasi yang digunakan
n = banyak pasangan data, n ≥ 8
R = jumlah peringkat
k = banyak orang yang memberi peringkat (k >2)
Statistik Uji
E. Uji Run(s)
Uji Run(s) digunakan
untuk menguji keacakan dalam suatu sampel.
Run
adalah satu atau lebih lambang-lambang yang identik yang didahului atau diikuti
oleh suatu lambang yang berbeda atau tidak ada lambang sama sekali.
Statistik Uji yang digunakan = z
Notasi yang digunakan :
Standar Deviasi Run(s)
Statistik Uji
KRITIK DAN SARAN
Kurangnya referensi
pembahasan materi
Terbatasnya pengetahuan
dalam pembahasan materi
Informasi mengenai
materi tidak tersedia dengan lengkap
Pembahasan yang tidak
sempurna
DAFTAR PUSTAKA
Betrand Russel. (1989). Ilmuan Matematika.
Bandung: Jica UPIAlbert Paul Malvino, Ph.D. (1990).statistik.Bandung: Universitas Pendidikan Indonesia.
0 komentar:
Posting Komentar