MAKALAH PELAJARAN
STATISTIKA
D
I
S
U
S
U
N
OLEH
INTAN NOVITA ROLANDYA
NPM : 115 100 051
INSTITUSI / PRODI : STMIK / SI
Perguruan Tinggi Mitra Lampung
Jln. Zainal Abidin Pagar Alam No.7
Gedongmeneng
Bandar Lampung
Telp. ( 0721 ) 701418
Fax. ( 0721 ) 788960
KATA PENGANTAR

Puji dan syukur saya panjatkan atas kehadirat Allah SWT, karena berkat rahmat dan hidayah-Nya lah saya dapat menyelesaikan Makalah ini tepat pada waktunya.
Adapun tujuan disusun nya makalah ini adalah dalam rangka memenuhi persyaratan mata kuliah “ Statistika “
Saya menyadari sepenuhnya bahwa dalam pembuatan makalah ini masih memiliki kekurangan , baik dalam penyajian maupun dalam pembahasan. Karena itu saya mengharapkan kritik dan saran yang bersifat membangun guna perbaikan dan menghindari adanya kesalahan dalam pembuatan makalah pada masa yang akan datang.
Dalam menyelesaikan Makalah ini saya banyak mendapatkan kesulitan dan hambatan. Namun berkat dorongan dan bimbingan dari bebagai pihak maka makalah ini dapat saya selesaikan dengan baik.







Bandar Lampung, 27 Desember 2011
Penulis,


Intan Novita Rolandya
BAB  I
ANALISIS OF VARIAN ( ANOVA )
1.1    PENGERTIAN
Analisis varian (ANOVA) adalah suatu metode untuk menguraikan keragaman total data menjadi komponen-komponen yang mengukur berbagai sumber keragaman.
ANOVA digunakan apabila terdapat lebih dari dua variabel. Dalam literatur Indonesia metode ini dikenal dengan berbagai nama lain, seperti analisis ragam, sidik ragam, dan analisis variansi. Ia merupakan pengembangan dari masalah Behrens-Fisher, sehingga uji-F juga dipakai dalam pengambilan keputusan. Analisis varians pertama kali diperkenalkan oleh Sir Ronald Fisher, bapak statistika modern. Dalam praktek, analisis varians dapat merupakan uji hipotesis (lebih sering dipakai) maupun pendugaan (estimation, khususnya di bidang genetika terapan).
Secara umum, analisis varians menguji dua varians (atau ragam) berdasarkan hipotesis nol bahwa kedua varians itu sama. Varians pertama adalah varians antar contoh (among samples) dan varians kedua adalah varians di dalam masing-masing contoh (within samples). Dengan ide semacam ini, analisis varians dengan dua contoh akan memberikan hasil yang sama dengan uji-t untuk dua rerata (mean).
Analisis varians relatif mudah dimodifikasi dan dapat dikembangkan untuk berbagai bentuk percobaan yang lebih rumit. Selain itu, analisis ini juga masih memiliki keterkaitan dengan analisis regresi. Akibatnya, penggunaannya sangat luas di berbagai bidang, mulai dari eksperimen laboratorium hingga eksperimen periklanan, psikologi, dan kemasyarakatan

Ada tiga kelas konseptual model seperti:
• Model efek tetap berasumsi bahwa data berasal dari populasi normal yang mungkin berbeda hanya dalam kemampuan mereka. (Model 1)
• Model efek acak berasumsi bahwa data yang menggambarkan hierarki populasi yang berbeda yang perbedaan dibatasi oleh hirarki. (Model 2)
• Model efek campuran menggambarkan situasi di mana baik tetap dan efek acak hadir. (Model 3)

Sesuai dengan kebutuhannya Anova dibedakan menjadi 2 yaitu Anova satu arah dan Anova dua arah. Anova satu arah hanya memperhitungkan 1 faktor yang menimbulkan variasi, sedangkan Anova dua arah memperhitungkan dua faktor yang menimbulkan variasi.

Pada dasarnya pola sampel dapat dikelompokan menjadi dua kelompok, yaitu:
1. Seluruh sampel, baik yang berada pada kelompok pertama sampai dengan yang ada di kelompok lain, berasal dari populasiyang sama. Untuk kondisi ini hipotesis nol terbatas pada tidak ada efek dari treatment (perlakuan)
2. Sampel yang ada di kelompok satu berasal dari populasi yang bebeda dengan populasi sampel dengan populasi sampel yang ada di kelompok lainnya.

Mengingat Anova berkaitan dengan pengujian hipotesis multipel (ganda). Pada saat melakukan pengujian hipotesis (perbedaan dua rata-rata) dengan menggunakan t tes selalu menanggung kesalahan tipe 1 sebesar alpha. Untuk ANOVA kesalahan tipe 1 disebut dengan experiment wise alpha level yang besarnya:
1-(1-α)N
N Merupakan banyaknya tes jika menggunakan t tes (dilakukan satu per satu)

Misalnya: Untuk pengujian perbedaan rata-rata dari 5 kelompok sampel. Jika dimbil alpha sebesar 0,005 maka dengan penggunaan t tes besarnya resiko kesalahan tipe 1 untuk sekali pengujian adalah 0,05 dan untuk 10 kali pengujian berarti menanggung kesalahan tipe 1 sebesar 0,5. Apabila kita menggunakan ANOVA kesalahan tipe 1 yang harus ditanggung adalah :
1-(1-0,05)10 = 0,40
Mengapa N berjumlah 10 untuk 5 kelompok sampel? Untuk menjawab pertanyaan tersebut marilah kita telusuri satu per satu pengujian yang dilakukan dengan t tes.
μ1 = μ2
μ1 = μ3
μ1 = μ4
μ1 = μ5
μ2 = μ3
μ2 = μ4
μ2 = μ5
μ3 = μ4
 Melalui perbandingan sederhana adalah teknik analisis statistik yang dapat memberi jawaban atas ada tidaknya perbedaan skor pada masing-masing kelompok (khususnya untuk kelompok yang banyak), dengan suatu risiko kesalahan yang sekecil mungkin. Anova mempunyai kemampuan membedakan antar banyak kelompok dengan risiko kesalahan yang kecil, juga dapat memberi informasi tentang ada tidaknya interaksi antar variabel bebas sehubungan dengan variabel terikat.
  Pada dasarnya ANOVA dapat dibagi menjadi 2 kelompok besar, yaitu:
1. Beberapa kelompok yang dihadapi merupakan pembagian dari satu independen varibel (variabel bebas)
2. Beberapa kelompok yang dihadapi merupakan pembagian dari beberapa independen varibel (variabel bebas)
Asumsi Dasar dalam ANOVA :
1. Kenormalan
Setiap harga dalam sampel berasal dari distribusi normal, sehingga distribusi skor sampel dalam kelompok pun hendaknya normal. Kenormalan dapat diatasi dengan memperbanyak sampel dalam kelompok, karena semakin banyak n maka distribusi akan mendekati normal. Apabila sampel tiap kelompok kecil dan tidak dapat pula diatasi dengan jaln melakukan transformasi.
2. Kesamaan Variansi
Masing-masing kelompok hendaknya berasal dari populasi yang mempunyai variansi yang sama. Untuk sampel yang sama pada setiap kelompok, kesamaan variansi dapat diabaikan. Tetapi, jika banyaknya sampel pada masing-masimg kelompok tidak sama, maka kesamaan variansi populasi memang sangat diperlukan.
3. Penamatan Bebas
Sampel hendaknya diambil secara acak (random), sehingga setiap pengamatan merupakan informasi yang bebas.
1.2 TUJUAN ANALISIS VARIAN
-Untuk menempatkan variabel-variabel bebas penting di dalam suatu studi.
-Untuk menentukkan bagaimana mereka berinteraksi dalam mempengaruhi jawaban.


1.3  TIPE ANALISIS VARIAN
Analisis Varian memiliki dua tipe yaitu :
A. Analisis Varian 1 Arah
Analisis varian 1 arah yaitu suatu metode untuk menguraikan keragaman total data menjadi komponen-komponen yang mengukur berbagai sumber keragaman dengan menggunakan One-Way ANOVA dengan satu perlakuan.
Contoh Tipe ANOVA 1 arah
Sampel dibagi menjadi beberapa kategori dan ulangan :
kolom = kategori
baris = ulangan/replika

 






Terdapat 4 Metode diet, dan 14 orang digunakan sebagai sampel


Metode-1
Metode-2
Metode-3
Metode-3
Member #1
Ali
Badu
Cici
Lina
Member #2
Edo

Fifi
Intan
Iwan
Member #3

Ina
July
Lia
Anton
Member #4
-
Mimi
-
Lina

Metode-1 diulang 3 kali,         Metode-2 diulang 4 kali,
Metode-3 diulang 3 kali,          Metode-4 diulang 4 kali.
Catatan : Dalam banyak kasus untuk mempermudah perhitungan, ulangan untuk setiap kategori dibuat sama banyak




B. Analisis Varian 2 Arah
Analisis varian 2 arah yaitu suatu metode untuk menguraikan keragaman total data menjadi komponen-komponen yang mengukur berbagai sumber keragaman dengan menggunakan One-Way ANOVA dengan dua perlakuan.
Untuk hipotesis nol pada analisis varian dua arah interaksi antarvariabel perlakuannya sebagai berikut.
• Pengujian hipotesis nol bahwa nilai tengah baris µi adalah sama:
Ho : αi = 0
H1 : minimal satu αi tidak sama dengan nol
• Pengujian hipotesis nol bahwa nilai tengah kolom µj adalah sama :
Ho : βj = 0
H1 : minimal satu βj tidak sama dengan nol
• Pengujian hipotesis nol bahwa nilai tengah interaksi antara baris dan kolom adalah sama.
Ho : (αβ)ij = 0
Hi : minimal satu (αβ)ij tidak sama dengan nol.
Soal Analisis Data
Dari hasil penelitian yang dilakukan terhadap mahasiswa/i Biologi semester 3 kelas c angkatan 2008 pada nilai mata kuliah PAI 1, PAI 2, dan PPKN. Penelitian ini ingin mengetahui apakah dari ke tiga mata kuliah tersebut akan menghasilkan nilai rata-rata yang sama? Dengan data yang diperoleh sebagai berikut :
Sampel PAI 1 PAI 2 PPKN
1. 4.00 4.00 3.00
2. 4.00 4.00 4.00
3. 4.00 4.00 4.00
4. 3.00 3.00 3.00
5. 3.00 4.00 3.00
6. 4.00 4.00 4.00
7. 4.00 4.00 4.00
8. 4.00 4.00 3.00
9. 4.00 4.00 4.00
10. 4.00 4.00 4.00
11. 4.00 4.00 4.00
12. 4.00 4.00 4.00
13. 3.00 3.00 4.00
14. 4.00 4.00 3.00
15. 4.00 4.00 4.00
16. 4.00 4.00 4.00
17. 3.00 3.00 4.00
18. 4.00 4.00 4.00
19. 3.00 3.00 4.00
20. 3.00 3.00 3.00
21. 4.00 4.00 3.00
22. 3.00 3.00 4.00
23. 4.00 3.00 4.00
24. 3.00 4.00 3.00
25. 3.00 4.00 4.00
26. 4.00 4.00 4.00
27. 4.00 4.00 4.00
28. 3.00 3.00 3.00
29. 4.00 3.00 3.00
30. 4.00 4.00 4.00
Keterangan :
Di karenakan data yang diperoleh berupa huruf, maka nilai sebenarnya diubah kedalam angka menjadi 4.00 untuk Nilai A, dan 3.00 untuk nilai B
Dari data tersebut dilakukan uji perbandingan, dengan menggunakan Prosedur One-Way Anova dengan tipe satu arah . Dengan langkah-langkah sebagai berikut :
• Aktifkan menu analize
• Pilih compare means
• Klik One-Way Anova sehingga akan muncul kotak dialog One-Way Anova.
• Masukka variabel-variabel yang anda perlukan kedalam kotak Dependent List dan Factor.
• Sehingga diperoleh output SPSS sebagai berikut.
ANOVA
Nilai
Sum of Squares df Mean Square F Sig.
Between Groups .022 2 .011 .050 .951
Within Groups 19.267 87 .221
Total 19.289 89
ANALISIS OUTPUT
Hipotesis:
Ho : µpai1 = µpai2 = µppkn
(Tidak ada perbedaan daya tahan rata-rata dari ke 3 mata kuliah tersebut)
H1 : µpai1 ≠ µpai2 ≠ µppkn
(Minimal ada 1 pasangan dengan nilai rata-rata yang berbeda)
Dalam pengujian kali ini digunakan tingkat signifikansi 0,05 (α = 0.05) atau dengan kata lain tingkat kepercayaan sebesar 0,95 (95%).
Penarikan kesimpulan :
F hitung > F table → tolak Ho
F hitung < F table → terima Ho
Nilai statistik F table adalah (2;87;0;05) = 3,11 (dari table distribusi F)
Terlihat dari table ANOVA bahwa nilai F hitung = 0.50, yang mana nilai ini lebih kecil dari nilai F table sehingga dapat disimpulkan bahwa kita tidak dapat menolak Ho, yang artinya tidak ada perbedaan nilai mata kuliah dari ke tiga mata kuliah tersebut.
Berdasarkan hasil analisis diatas, apakah perlu pengujian dengan Post Hoc???
Jawab :
Diatas sudah dijelaskan bila Ho diterima uji perbandingan mean dalam Post Hoc tidak berguna lagi, hal ini bisa kita lihat bahwa tingkat signifikansi semuanya diatas 0,05.














BAB  II
ANALISIS REGRESI

2.1  pendahuluan
analisis regresi berkenaan dengan studi ketergantungan dari suatu variabel yang disebut tak bebas (dependent variable) pada satu atau lebih variabel, yaitu variabel yang menerangkan dengan tujuan untuk memperkirakan atau pun meramalkan nilai-nilai dari variabel tak bebas (independent variable). Dalam ilmu statistik nonparametrik tidak menguji populasi ( semua objek penelitian yang merupakan nilai yang sebenarnya ) tetapi menguji distribusi. Dan statistik nonparametrik tidak menuntut terpenuhi banyak asumsi, misalnya data yang dianalisis tidak harus berdistribusi normal. Oleh karena itu statistik nonparametrik sering disebut sebagai distribusi bebas (free distribution). Statistik nonparametrik juga banyak digunakan untuk menganalisa data nominal dan ordinal,karena itu statistik nonparametrik relatif masih kurang banyak diketahui daripada statistik parametrik. (Hardle,1994).
Ada beberapa metode pendekatan regresi nonparametrik diantaranya theil,spline, kernel, dan lain – lain.
Dalam beberapa masalah terdapat dua atau lebih variabel yang hubungannya tidak dapat dipisahkan, dan hal tersebut biasanya diselidiki sifat hubungannya.
Berdasarkan bentuk kelinearan data, model regresi dapat diklasifikasikan
menjadi dua macam yaitu linear dan non-linear. Jika pola data linear maka digunakan
pemodelan linear. Begitu juga sebaliknya apabila pola data tidak linear maka digunakan
pemodelan non linear.
Untuk mengetahui bentuk linear atau nonlinear dapat dilakukan dengan membuat
scatterplot seperti berikut :
Gambar. Plot Pola Linear

Gambar.. Plot Pola Nonlinear.

2.2 Pengertian Analisis regresi
Regresi berasal dari kata “regress” artinya bergerak menuju sifat-sifat populasi (induknya). Kata regressi berasal dari studi empirik yang mana ditemukan bahwa tinggi badan rata anak yang dilahirkan ternyata cenderung “regress” atau mengikuti tinggi badan orang tuanya. Tinggi badan anak yang mengikuti disebut variabel dependen = variabel yang diteliti = variabel yang dijelaskan = “regressand”. Tinggi badan orang tua disebut “regressor” = variabel yang menjelaskan variabel independen. (Setiaji, 2005)

Istilah regresi pertama kali diperkenalkan oleh Sir Francis Galton (1822-1911). Menurut Galton, Analisis regresi adalah sebuah teknik statistika untuk membuat model dan menyelidiki hubungan antara dua variabel atau lebih.


Pada dasarnya tahapan penyusunan model analisis regresi adalah sebagai berikut:
  1. Menentukan yang mana variabel bebas dan variabel terikatnya
  2. Menentukan metode pembuatan model regresi, dalam SPSS ada beberapa pilihan, yaitu: Enter, Stepwise, Forward dan Backward (perbedaanya akan dibahas pada bagian lain). Default SPSS adalah metode Enter. Jika kita memilih metode Stepwise, maka uji signifikansi justru mendahului uji asumsi seperti normalitas dan sebagainya, oleh karena itu dalam latihan kita akan menggunakan default SPSS yaitu metode Enter.
  3. Melihat ada tidaknya data yang outlier (ekstrem)
  4. Menguji asumsi-asumsi pada regresi berganda, seperti normalitas, Linieritas, Heteroskedastisitas dan lain-lainnya.
  5. Menguji signifikansi model (uji-t, uji-F dan sebagainya)
  6. Intepretasi model Regresi Berganda

2.3 Tujuan Analisis Regresi
·         untuk membuat sebuah model yang menggambarkan hasil sebagai sebuah fungsi temperatur tertentu
·         untuk tujuan optimalisasi atau tujuan proses kontrol.
·         untukmempelajari pola dan mengukur hubungan statistika antara dua atau lebih peubah (variabel).
·         untuk meramalkan atau memperkirakan nilai dari suatu variabel lain yang belum diketahui.

2.4 Pemodelan Regresi
Analisis regresi merupakan analisis untuk mendapatkan hubungan dan model
matematis antara variabel respon (y) dan satu atau lebih variabel prediktor (x).
Hubungan antara respon dan prediktor yang mempengaruhinya dalam pemodelan linear
dapat dituliskan dalam bentuk persamaan regresi sebagai berikut (Drapper&Smith,1996):



Taksiran persamaan tersebut adalah

i = 1,2 …..n dan j = 1,2,….k, dengan n adalah banyaknya pengamatan dan (k+1) adalah
banyaknya parameter.
Keterangan :
y : Variabel respon
yˆ : Taksiran variabel respon
x : Variabel prediktor
β : Parameter regresi
b : Taksiran parameter regresi
ε : Residual, dengan asumsi ε~IIDN(0,σ2)
Persamaan regresi dapat dinotasikan dalam bentuk matrik :

dengan :

                  

 
Pendugaan atau estimasi parameter β dapat dilakukan melalui metode Ordinary
Least square (OLS) yang bertujuan untuk meminimumkan Sum Square Error (SSE),
yaitu untuk menaksir β maka :

Sementara itu, beberapa bentuk persamaan regresi non linear disajikan pada
Tebel 1. Penaksiran parameter pada regresi non linear dapat dilakukan dengan
melakukan transformasi sehingga bentuk non linear berubah menjadi linear. Metode
penaksiran parameter tersebut juga dilakukan dengan metode kuadrat terkecil seperti
pada regresi linear.
Tabel1. Bentuk persamaan non linear dan transformasinya

Bentuk Non Linear
Transformasi
Bentuk linear
Ln Y                        X
In
Ln Y                     ln(X)
In
Ln (1-Y)               ln(X)
In
In          ln(X)
In

Dalam pemodelan nonlinear, cara mengestimasinya dapat dilakukan dengan
estimasi model linear, dimana dilakukan transfomasi ke dalam bentuk linear terlebih
dahulu.
2.5 Pengujian Parameter
Pengujian parameter dalam model regresi bertujuan untuk mengetahui apakah
parameter tersebut telah menunjukkan hubungan yang nyata antara variabel prediktor
dan variabel respon. Terdapat dua tahap pengujian yaitu uji serentak dan uji parsial
(individu).




a.      Uji Serentak
Uji serentak merupakan pengujian secara bersama semua parameter dalam
model regresi. Hipotesis yang digunakan adalah :
 
 


Statistik uji yang digunakan :

Ket :    MSR : Mean Square Regression
MSE : Mean Square Error

Pengambilan keputusan adalah apabila Fhitung > Fα (k, n-k-1) dengan k adalah
parameter maka H0 ditolak pada tingkat signifikansi α, artinya paling sedikit ada satu βj
yang tidak sama dengan nol atau jika P-value < α.
b. Uji Parsial
Uji parsial merupakan pengujian secara individu parameter dalam model regresi
yang bertujuan untuk mengetahui parameter model regresi telah signifikan atau tidak.
Hipotesis yang digunakan :
H0 : βj = 0
H1 : βj 0, j = 0, 1, 2, ..., k
Statistik uji yang digunakan untuk metode OLS adalah

dengan  adalah nilai dugaan simpangan baku bagi  Pengambilan keputusannya yaitu apabila   atau P value < α maka ditolak pada tingkat signifikansi α, artinya ada pengaruh xi terhadap model.

2.1.4 Pengujian Asumsi Residual
Asumsi residual yang harus dipenuhi adalah identik, independen, dan
berdistribusi normal dengan mean nol dan varians σ2 atau dinotasikan ε~IIDN(0,σ2).
Menurut Montgomery (1992), asumsi kenormalan seringkali tidak terpenuhi karena
adanya pengamatan outlier yang memberikan pengaruh (influence) besar terhadap estimasi
parameter model. Jika asumsi kenormalan terpenuhi maka metode ordinary least
square (OLS) dapat menduga β dengan baik, namun jika tidak terpenuhi estimasi OLS
tidak dapat digunakan.
a. Uji Asumsi Identik
Asumsi identik terpenuhi adalah ketika varians residual bersifat
homoskedastisitas atau tidak membentuk pola tertentu. Pendeteksian heteroskedastisitas
residual dapat secara visual yaitu membuat plot antara residual dan estimasi respon ( yˆ ).
Apabila plot menunjukkan sebaran data yang tidak random atau membentuk tren atau
pola tertentu, maka terjadi kasus heteroske-dastisitas residual. Cara kedua deteksi
heteroskedastisitas adalah dengan uji Park yang dilakukan dengan cara melakukan
regresi sebagai berikut :

Hipotesis yang digunakan adalah :
 
 
dimana j = 1, 2, ... , k i ≠ j dan k adalah variabel prediktor.
Pengambilan keputusan adalah jika koefisien regresi (β) berpengaruh maka
diindikasikan terjadi heteroskedastisitas.







b. Uji Independen (Saling Bebas)
Uji independen atau uji autokorelasi residual untuk mengetahui apakah ada korelasi
antar residual. Pengujian melalui dilakukan melalui plot autocorrelation function
(ACF). Apabila tidak ada lag yang keluar dari garis batas, maka dapat disimpulkan tidak
ada korelasi antar residual. Dapat juga dilakukan melalui uji Durbin-Watson, dengan
hipotesis sebagai berikut :
H0 : ρ= 0
H1 : ρ≠ 0
Statistik uji:

Daerah keputusan terbagi dalam beberapa bagian yaitu jika dhitung ≤ dL,α/2 atau dL,α/2 ≤
(4-dhitung)≤ dL,α/2 maka H0 ditolak (Drapper&Smith, 1996).

c. Uji Distribusi Normal
Pengujian asumsi residual Normal (0,σ2) dapat dilakukan melalui uji Kolmogorov
Smirnov. Hipotesis yang digunakan adalah
H0 : F0(x)=F(x) (Residual berdistribusi Normal (0,σ2))
H1 : F0(x)≠F(x) (Residual tidak berdistribusi Normal(0,σ2))
Statistik uji :

F0(x) adalah fungsi distribusi kumulatif teoritis sedangkan SN(x)=i/n merupakan
fungsi peluang kumulatif pengamatan dari suatu sampel random dengan i adalah
pengamatan dan n adalah jumlah pengamatan. Pengambilan keputusan adalah H0
ditolak jika D >q(1-α) dimana q adalah nilai berdasarkan tabel Kolmo-gorov Smirnov.
Selain itu juga dapat melalui P-value, dimana H0 ditolak jika P-value kurang dari α.





Beberapa solusi yang dapat dilakukan apabila asumsi tidak terpenuhi :
No
Masalah
Solusi
1
Tidak berdistribusi normal
Tranformasi variabel
Regresi bootstrap
Regresi robust
2
Tidak identik
Transformasi variabel
Weighted Least Squares
Regresi robust
3
Tidak independen
Regresi beda, Regresi ratio
memasukkan trend,
regresi spasial
4
Multicollinearity
stepwise
Regresi PCA
Ridge regression

Koefisien Determinasi
Koefisien Determinasi ( R2 ) menunjukkan bagian dari varian total yang dapat
diterangkan oleh model. Atau dapat dikatakan variabilitas total yang dapat diterangkan
garis regresi di sekitar rata-ratanya adalah R2 . Sedangkan sisanya (100- R2 )%
diterangkan oleh variabel lain yang belum masuk dalam model.
Nilai R2 dinyatakan sebagai berikut :










BAB  III
ANALISIS KORELASI

3.1  Pengenalan
Analisis korelasi merupakan salah satu teknik statistik yang digunakan untuk menganalisis hubungan antara dua variabel atau lebih yang bersifat kuantitatif.
Sepanjang sejarah umat manusia, orang melakukan penelitian mengenai ada dan tidaknya hubungan antara dua hal, fenomena, kejadian atau lainnya. Usaha-usaha untuk mengukur hubungan ini dikenal sebagai mengukur asosiasi antara dua fenomena atau kejadian yang menimbulkan rasa ingin tahu para peneliti.
Korelasi merupakan teknik analisis yang  termasuk dalam salah satu teknik pengukuran asosiasi / hubungan (measures of association). Pengukuran asosiasi   merupakan istilah umum yang mengacu pada sekelompok teknik dalam statistik bivariat yang digunakan untuk mengukur kekuatan hubungan antara dua variabel. Diantara sekian banyak teknik-teknik pengukuran asosiasi, terdapat dua teknik korelasi yang sangat populer sampai sekarang, yaitu Korelasi Pearson Product Moment dan Korelasi Rank Spearman. Selain kedua teknik tersebut, terdapat pula teknik-teknik korelasi lain, seperti Kendal, Chi-Square, Phi Coefficient, Goodman-Kruskal, Somer, dan Wilson.
Pengukuran asosiasi mengenakan nilai numerik untuk mengetahui tingkatan asosiasi atau kekuatan hubungan antara variabel. Dua variabel dikatakan berasosiasi jika perilaku variabel yang satu mempengaruhi variabel yang lain. Jika tidak terjadi pengaruh, maka kedua variabel tersebut disebut independen.
Korelasi bermanfaat untuk mengukur kekuatan hubungan antara dua variabel (kadang lebih dari dua variabel) dengan skala-skala tertentu, misalnya Pearson data harus berskala interval atau rasio; Spearman dan Kendal menggunakan skala ordinal; Chi Square menggunakan data nominal. Kuat lemah hubungan diukur diantara jarak (range) 0 sampai dengan 1. Korelasi mempunyai kemungkinan pengujian hipotesis dua arah (two tailed). Korelasi searah jika nilai koefesien korelasi diketemukan positif;
sebaliknya jika nilai koefesien korelasi negatif, korelasi  disebut tidak searah. Yang dimaksud dengan koefesien korelasi ialah suatu pengukuran statistik kovariasi atau asosiasi antara dua variabel. Jika koefesien korelasi diketemukan tidak sama dengan nol (0), maka terdapat ketergantungan antara dua variabel tersebut. Jika  koefesien korelasi diketemukan +1. maka hubungan tersebut disebut sebagai korelasi sempurna atau hubungan linear sempurna dengan kemiringan (slope) positif.
Jika  koefesien korelasi diketemukan -1. maka hubungan tersebut disebut sebagai korelasi sempurna atau hubungan linear sempurna dengan kemiringan (slope) negatif.
Dalam korelasi sempurna tidak diperlukan lagi pengujian hipotesis, karena kedua variabel mempunyai hubungan linear yang sempurna. Artinya variabel X mempengaruhi variabel Y secara sempurna. Jika korelasi sama dengan nol (0), maka tidak terdapat hubungan antara kedua variabel tersebut.                          
Dalam korelasi sebenarnya tidak dikenal istilah variabel bebas dan variabel tergantung. Biasanya dalam penghitungan digunakan simbol X untuk variabel pertama dan Y untuk variabel kedua. Dalam contoh hubungan antara variabel remunerasi dengan kepuasan kerja, maka variabel remunerasi merupakan variabel X dan kepuasan kerja merupakan variabel Y.
3.2  Kegunaan
Pengukuran asosiasi berguna untuk mengukur kekuatan (strength) hubungan antar dua variabel atau lebih. Contoh: mengukur hubungan antara variabel:
        Motivasi kerja dengan produktivitas
        Kualitas layanan dengan kepuasan pelanggan
        Tingkat inflasi dengan IHSG



Pengukuran ini hubungan antara dua variabel untuk masing-masing kasus akan menghasilkan keputusan, diantaranya:
        Hubungan kedua variabel tidak ada
        Hubungan kedua variabel lemah
        Hubungan kedua variabel cukup kuat
        Hubungan kedua variabel kuat
        Hubungan kedua variabel sangat kuat
Penentuan tersebut didasarkan pada kriteria yang menyebutkan jika hubungan mendekati 1, maka hubungan semakin kuat; sebaliknya jika hubungan mendekati 0, maka hubungan semakin lemah.  
3.3 Arah hubungan korelasi :

Korelasi berdasarkan arah hubungannya dapat dibedakan menjadi 3, yaitu :

a.      Korelasi Positif
Arah hubungan positif berarti “Apabila nilai variabel ditingkatkan , maka akan
meningkatkan nilai variabel yang lain. Sedangkan Apabila nilai variabel diturunkan , maka akan menurunkan nilai variabel yang lain.”

b.      Korelasi Negatif
Arah hubungan negatif berarti “Apabila nilai variabel ditingkatkan , maka akan
menurunkan nilai variabel yang lain.Sedangkan Apabila nilai variabel diturunkan , maka akan meningkatkan nilai variabel yang lain.

c.       Korelasi Nihil
Arah hubungan nihil sama saja dengan Korelasi sama dengan 0 mempunyai arti tidak ada hubungan antara dua variabel.


3.4  Kuat hubungan
·          Kuat hubungan dinyatakan dalam bentuk angka, antara 0 – 1
·          Angka 0 menujukkan hubungan yang tidak ada
·          Angka 1 menunjukkan hubungan yang sempurna

semakin kecil koefisien korelasi, maka akan semakin besar kesalahan untuk membuat prediksi.
Koefesien korelasi akan selalu sebesar :
- 1 ≤ r ≤ + 1

                                                                                                                                                                                                                                                                                                                                                                                                                                               
-1                                                  0                                                  +1

3.5 Teknik Korelasi
 Pedoman memilih teknik korelasi berdasarkan jenis data yang digunakan :
JENIS DATA
TEKNIK KORELASI
Nominal
Koefisien Kontingensi
Ordinal
Spearman Rank
Kendal Tau
Interval dan Ratio
Pearson Product Moment
Korelasi Ganda
Korelasi Parsial

A.   KOEFISIEN KONTINGENSI
Teknik Korelasi koefisien Kontigensi (Contingency Coefficient Corellation) adalah salah satu teknik Analisis Korelasional Bivariat, yang dua buah variabel dikorelasikan adalah berbentuk katagori atau merupakan gejala ordinal.
Misalnya: tingkat pendidikan: tinggi, menengah, rendah. pemahaman terhadap ajaran agama islam: baik, cukup. kurang dan sebagainya.Tekhnik analisis ini dilambangkan dengan huruf C atau KK (Singkatan dari koefisien kotegensi).



Rumus yang digunakan :
 

    db

B.   KORELASI PRODUCT MOMENT
 Digunakan untuk menentukan besarnya koefisien korelasi jika data yang digunakan berskala interval atau rasio.
 Rumus yang digunakan:

C.   KORELASI RANK SPERMAN
Digunakan untuk menentukan besarnya koefesien korelasi jika data yang digunakan berskala Ordinal.
Rumus yang digunakan:

D.   TEKNIK ANALISIS KORELASI PHI
Teknik Korelasi Phi adalah salah-satu teknik analisis korelasional yang dipergunakan apabila data yang dikorelasikan adalah data yang benar-benar dikotomik (terpisah atau dipisahkan secara tajam). Dengan istilah lain variabel yang dikorelasikan itu adalah variabel diskrit murni.
Rumus yang digunakan :


E.   TEKNIK ANALISIS KORELASI POINT BISERIAL
Tekhnik korelasi point biserial adalah salah satu tekhnik analisis korelasional bivariat yang biasa digunakan untuk mencari korelasi antara dua variabel : variabel I berbentuk variabel kontinum (misalnya: skor hasil tes), sedangkan variabel II berbentuk variabel diskrit murni (misalnya betul atau salahnya calon dalam menjawab soal tes).
Rumus yang digunakan :
rpbi = koefisien korelasi
Xp = rerata data interval kategori 1
Xq = rerata data interval kategori 0
s = standar deviasi seluruh data interval
p = proporsi kasus kategori 1
q = proporsi kasus kategori 0

F.    KORELASI DATA KUALITATIF
Digunakan untuk menentukan besarnya koefesien korelasi jika data yang digunakan berjenis kualitatif.
Rumus yang digunakan:

Tranformasi dari nilai Chi-Square ke koefesien korelasi:





BAB IV
Uji Chi-Kuadrat dan Uji kecocokan
4.1 Pendahuluan
Chi-kuadrat digunakan untuk mengadakan pendekatan dari beberapa vaktor atau mngevaluasi frekuensi yang diselidiki atau frekuensi hasil observasi dengan frekuensi yang diharapkan dari sampel apakah terdapat hubungan atau perbedaan yang signifikan atau tidak.
Dalam statistik, distribusi chi square termasuk dalam statistik nonparametrik. Distribusi nonparametrik adalah distribusi dimana besaran-besaran populasi tidak diketahui. Distribusi ini sangat bermanfaat dalam melakukan analisis statistik jika kita tidak memiliki informasi tentang populasi atau jika asumsi-asumsi yang dipersyaratkan untuk penggunaan statistik parametrik tidak terpenuhi.
Beberapa hal yang perlu diketahui berkenaan dengan distribusi chi square adalah :
  • Distribusi  chi-square memiliki satu parameter yaitu derajat  bebas (db).
  • Nilai-nilai chi square di mulai dari 0 disebelah kiri, sampai nilai-nilai positif tak terhingga di sebelah kanan.
  • Probabilitas nilai chi square di mulai dari sisi sebelah kanan.
  • Luas daerah di bawah kurva normal adalah 1.
a)      Uji Kecocokan = Uji Kebaikan Suai = Goodness of Fit
b)      Uji Kebebasan
c)      Uji Beberapa Proporsi (Prinsip pengerjaan (b) dan (c) sama saja)
Nilai chi square adalah nilai kuadrat karena itu nilai chi square selalu positif. Bentuk distribusi chi square tergantung dari derajat bebas (Db)/degree of freedom. Pengertian pada uji chi square sama dengan pengujian hipotesis yang lain, yaitu luas daerah penolakan Ho atau taraf nyata pengujian
Metode Chi-kuadrat menggunakan data nominal, data tersebut diperoleh dari hasil menghitung. Sedangkan besarnya nilai chi-kuadrat bukan merupakan ukuran derajat hubungan atau perbedaan.
Macam-macam bentuk analisa Chi-kuadrat :
  • Penaksiran standar deviasi
  • Pengujian hipotesis standar deviasi
  • Pengujian hipotesis perbedaan beberapa proporsi atau chi-square dari data multinominal
  • Uji hipotesis tentang ketergantungan suatu variabel terhadap variabel lain/uji Chi-square dari tabel kontingensi/tabel dwikasta/tabel silang
  • Uji hipotesis kesesuaian bentuk kurva distribusi frekuensi terhadap distribusi peluang teoritisnya atau uji Chi-square tentang goodness of fit
4.2 Ketentuan Pemakaian Chi-Kuadrat (X2)
Agar pengujian hipotesis dengan chi-kuadrat dapat digunakan dengan baik, maka hendaknyamemperhatikan ketentuan-ketentuan sebagai berikut :
  1. Jumlah sampel harus cukup besar untuk meyakinkan kita bahwa terdapat kesamaan antara distribusi teoretis dengan distribusi sampling chi-kuadrat.
  2. Pengamatan harus bersifat independen (unpaired). Ini berarti bahwa jawaban satu subjek tidak berpengaruh terhadap jawaban subjek lain atau satu subjek hanya satu kali digunakan dalam analisis.
  3. Pengujian chi-kuadrat hanya dapat digunakan pada data deskrit (data frekuensi atau data kategori) atau data kontinu yang telah dikelompokan menjadi kategori.
  4. Jumlah frekuensi yang diharapkan harus sama dengan jumlah frekuensi yang diamati.
  5. Pada derajat kebebasan sama dengan 1 (table 2 x 2) tidak boleh ada nilai ekspektasi yang sangat kecil. Secara umum, bila nilai yang diharapkan terletak dalam satu sel terlalu kecil (< 5) sebaiknya chi-kuadrat tidak digunakan karena dapat menimbulkan taksiran yang berlebih (over estimate) sehingga banyak hipotesis yang ditolak kecuali dengan koreksi dari Yates.
Bila tidak cukup besar, maka adanya satu nilai ekspektasi yang lebih kecil dari 5 tidak akan banyak mempengaruhi hasil yang diinginkan.
Pada pengujian chi-kuadrat dengan banyak ketegori, bila terdapat lebih dari satu nilai ekspektasi kurang dari 5 maka, nilai-nilai ekspektasi tersebut dapat digabungkan dengan konsekuensi jumlah kategori akan berkurang dan informasi yang diperoleh juga berkurang.
4.3 Bentuk Distribusi Chi Kuadrat (χ²)
Nilai χ² adalah nilai kuadrat karena itu nilai χ² selalu positif.
Bentuk distribusi χ² tergantung dari derajat bebas(db)/degree of freedom.
Contoh : Berapa nilai χ² untuk db = 5 dengan α = 0.010? (15.0863)
Berapa nilai χ² untuk db = 17 dengan α = 0.005? (35.7185)
Pengertian α pada Uji χ² sama dengan pengujian hipotesis yang lain, yaitu luas daerah penolakan H0 atau taraf nyata pengujian

4.4 Pengunaan Uji χ²
Uji χ² dapat digunakan untuk :
a. Uji Kecocokan = Uji kebaikan-suai = Goodness of fit test
b. Uji Kebebasan
c. Uji beberapa proporsi
Prinsip pengerjaan (b) dan (c) sama saja

A.   Uji Kecocokan (Goodness of Fit)
Uji kecocokan adalah suatu uji untuk menentukan apakah suatu populasi atau variabel acak X mempunyai distribusi teoritik tertentu. Uji ini didasarkan pada seberapa baik kesesuaian / kecocokan antara frekuensi yang teramati dalam data sampel dengan frekuensi harapan yang didasarkan pada distribusi yang dihipotesiskan.
Langkah-langkah dalam pengujian ini adalah :
1. Susun hipotesis
 Distribusi X ialah
Distribusi X bukan
2. Pilih tingkat signifikasi
3. Tentukan frekuensi pengamatan
4. Hitung frekuensi harapan ( frekuensi yang diharapkan jika benar )
5. Gunakan statistik penguji :


k : banyaknya kategori/sel, 1,2 ... k
o : frekuensi observasi untuk kategori ke-i i
e : frekuensi ekspektasi untuk kategori ke-i i
kaitkan dengan frekuensi ekspektasi dengan nilai/perbandingan dalam H0
Derajat Bebas (db) = k - 1

B.   Uji Kebebasan dan Uji Beberapa Proporsi
Uji kebebasan antara 2 variabel memiliki prinsip pengerjaan yang sama dengan pengujian beberapa proporsi.
A. Uji Kebebasan :
H0 : variabel-variabel saling bebas
H1 : variabel-variabel tidak saling bebas
B Uji Beberapa Proporsi :
H0 : setiap proporsi bernilai sama
H1 : ada proporsi yang bernilai tidak sama
            Data dalam pengujian ketergantungan dan beberapa proporsi disajikan dalam bentuk Tabel Kontingensi.
Bentuk umum Tabel Kontingensi → berukuran r baris x k kolom
derajat bebas = (r-1)(k-1)
r : banyak baris
k : banyak kolom
: frekuensi observasi baris ke-i, kolom ke-j 
 : frekuensi ekspektasi baris ke-i, kolom ke-j




BAB V
STATISTIK NON PARAMETRIK
5.1 Pengertian
Berdasarkan parameternya statistik dibagi menjadi dua yakni statistik Parametrik dan Non Parametrik, keduanya berbeda satu dengan yang lain dan memiliki kelebihan dan kekurangan antara satu dengan yang lainnya. Statistik Non Parametrik adalah bagian statistik yang parameter dari populasinya tidak mengikuti suatu distribusi tertentu atau memilki distribusi yang bebas persyaratan dan variannya tidak perlu homogen.
Statistik nonparametrik memiliki keungulan dan kekurangan, adapun keuntungan dari penggunaan prosedur-prosedur dari Statistik Non Parametrik adalah sebagai berikut.
  • Pernyataan kemungkinan yang diperoleh dari sebagian besar tes statistik non parametrik  adalah kemungkinan yang eksak. Dimana tes nonparametrik menggangap bahwa distribusi yang mendasarinya dalah kontinyu sama dengan anggapan yang dibuat tes-tes parametrik.
  • Terdapat tes-tes Statistik Non Parametrik untuk mengarap sampel-sampel yang terdiri dari observasi-observasi dari beberapa populasi yang berlainan, selain itu statistik non parametrik dapat digunakan pada sampel yang sifat distribusinya tidak diketahui secara pasti.
  • Tes- tes Statistik Non Parametrik dapat menggarap data yang berupa rangking dan data yang skor-skornya sepintas memilkik kekuatan rangking. Selain itu juga dapat menggarap data berupa klasifikasi semata yang diukur dalam skala nominal.
  • Tes-tes Statistik Non Parametrik lebih muda dipelajari dibandingkan dengan Parametrik, dan juga memiliki kemungkinan untuk digunakan secara salah juga kecil karena memerlukan asumsi dalam jumlah minimum.



Sedangkan kekurangan dari pengunaan prosedur-prosedur model Statistik Non Parametrik adalah :
  • Penggunaan Statistik Non Parametrik akan menjadi penghamburan data jika data memenuhi syarat model statistik parametrik,
  • Belum  ada satu pun dalam metode Statistik Non Parametrik untuk mengukur interaksi-interaksi dalam model analisis varian,
  • Penggunanaan Statistik Non Parametrik memerlukan banyak tenaga serta menjemukan.
 Kelemahan diperbaiki dengan menambah ukuran sampel
Beberapa Uji Non Parametrik yang akan dipelajari :
·         - Uji tanda berpasangan
·         - Uji Peringkat 2 Sampel Mann-Whitney
·         - Uji Peringkat 2 Sampel Wilcoxon
·         - Uji Korelasi Peringkat Spearman
·         - Uji Konkordansi Kendall
·         - Uji Run(s)

A.    Uji Tanda Berpasangan
Uji dilakukan pada 2 sampel terpisah (independen)
• tanda (+) → data pada sampel 1 > pasangannya sampel 2
• tanda (–) → data pada sampel 1 < pasangannya sampel 2
• tanda Nol (0) → data pada sampel 1 = pasangannya sampel 2
Tanda Nol tidak digunakan dalam perhitungan

 Notasi yang digunakan :
n = banyak tanda (+) dan tanda (–) dalam sampel
= proporsi SUKSES dalam sampel
= proporsi SUKSES dalam
 Standar Error = Galat Baku =
 Rata-Rata Sampel
Statistik Uji :
                     
SUKSES tergantung dari apa yang ditanyakan (ingin diuji) dalam soal.
Jika yang ingin diuji sampel 1 > sampel 2 maka SUKSES adalah banyak tanda (+)
Jika yang ingin diuji sampel 1 < sampel 2 maka SUKSES adalah banyak tanda (–)
Nilai disesuaikan dengan nilai pengujian  yang diinginkan dalam soal p0
atau jika ingin diuji proporsi sampel 1 = proporsi sampel 2 maka = 0.50
Penetapan Penetapan  dan Terdapat 3 alternatif dan
a) : p = dan : p <  
Uji 1 arah dengan daerah penolakan : z < −zα
(b) : p = dan : p >   
Uji 1 arah dengan daerah penolakan : z > zα
(c) : p =  dan : p ≠
Uji 2 arah dengan daerah penolakan : z <  dan z >
Contoh soal :
Berikut adalah nilai preferensi konsumen terhadap 2 Merk Sabun Mandi. Dengan taraf nyata 1%, ujilah apakah proporsi preferensi konsumen pada kedua merk bernilai sama?
No. Responden
LUXE
GIVE
Tanda

1.

4
2
+

2.

2
3

3.

3
3
0

4.

2
3

5.

3
2
+

6.

1
2

7.

2
3

8.


3
4

9.
3
2
+

10.

2
1
+

11.

4
1
+

12.

1
1
0

13.

4
2
+

14.

3
2
+

15.

4
3
+
Banyak tanda (+) = 8              Banyak tanda (–) = 5              n = 8 + 5 = 13
Jika kita asumsikan LUXE lebih disukai dibanding GIVE maka SUKSES dalam sampel adalah = proporsi banyak tanda (+) dalam sampel
 = banyak positifn==813062.
 = 1 –p = 1 - 0.62 = 0.38
Karena ingin diuji proporsi yang suka LUXE = GIVE maka = = 0.50 p0q0
Langkah Pengujian:
1. : p = 0.50 : p ≠ 0.50
2. Statistik Uji : z
3. Uji: 2 Arah
4. Taraf Nyata Pengujian = α = 1% →  = 0.5% = 0.005
5. Nilai statistik Uji :
                           = 0,87

6.      Kesimpulan:
z hitung = 0.87 ada di daerah penerimaan   diterima
Proporsi konsumen yang menyukai LUXE masih sama dengan yang menyukai GIVE.

B.   Uji Peringkat 2 Sampel Mann-Whitney
Uji ini merupakan alternatif uji beda 2 rata-rata Parametrik dengan menggunakan t (Sampel-sampel berukuran kecil).
Langkah pertama pengujian ini adalah pengurutan nilai mulai dari yang terkecil hinggaterbesar. Pengurutan dilakukan tanpa pemisahan kedua sampel.
Selanjutnya lakukan penetapan Rank (Peringkat) dengan aturan berikut:
Peringkat ke -1 diberikan pada nilai terkecil di urutan pertama
Peringkat tertinggi diberikan pada nilai terbesar


Jika tidak ada nilai yang sama maka urutan = peringkat
Jika ada nilai yang sama, maka ranking dihitung dengan rumus :
Notasi yang digunakan :
R1= Jumlah peringkat dalam sampel ke 1
R2= Jumlah peringkat dalam sampel ke 2
n1= ukuran sampel ke 1
n2=ukuran sampel ke 2                Ukuran kedua sampel tidak harus sama

Standar Error (Galat Baku)
Statistik Uji
C.   Uji Peringkat 2 Sampel Wilcoxon

Prinsip pengerjaannnya sama dengan Uji Peringkat 2 Sampel Mann-Whitney, hanya fokus kini dialihka Notasi yang digunakan sampel dengan ukuran terkecil.
Notasi yang digunakan :
 ke 1 selalu lebih kecil dari sample ke-2

Nilai Ekspektasi
Standar Error  =
Statistik Uji
D.   Uji Konkordansi Kendall
Pengujian sampel berpasangan ganda (multiple-paired samples).
Orang yang memberi peringkat lebih dari 2.
Statistik Uji yang digunakan :
(chi kuadrat) dengan derajat bebas (db) = n-1
Notasi yang digunakan
n = banyak pasangan data, n ≥ 8
R = jumlah peringkat
k = banyak orang yang memberi peringkat (k >2)

Statistik Uji

E.   Uji Run(s)
Uji Run(s) digunakan untuk menguji keacakan dalam suatu sampel.
Run adalah satu atau lebih lambang-lambang yang identik yang didahului atau diikuti oleh suatu lambang yang berbeda atau tidak ada lambang sama sekali.
Statistik Uji yang digunakan = z
Notasi yang digunakan :
= banyak lambang 2 dalam sample

 
Standar Deviasi Run(s)
Statistik Uji













KRITIK DAN SARAN

*      Kurangnya referensi pembahasan materi
*      Terbatasnya pengetahuan dalam pembahasan materi
*      Informasi mengenai materi tidak tersedia dengan lengkap
*      Pembahasan yang tidak sempurna















DAFTAR PUSTAKA
Betrand Russel. (1989). Ilmuan Matematika. Bandung: Jica UPI
Albert Paul Malvino, Ph.D. (1990).statistik.Bandung: Universitas Pendidikan Indonesia.



  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

0 komentar:

Posting Komentar