Uji Linearitas dengan Tabel ANOVA SPSS

Persamaan regresi dipergunakan untuk melihat bentuk pengaruh antar 1 atau beberapa variabel. Bentuk dari pengaruh tersebut dapat dilihat secara linier, logaritmik atau box tergantung dari data yang dimiliki dan asumsi yang diambil oleh peneliti. Asumsi linearitas sendiri adalah asumsi yang menyatakan bahwa hubungan antar variabel yang hendak dianalisis itu mengikuti garis lurus sehingga jika persamaan regresi yang diperoleh dibuat grafiknya, akan terlihat grafik yang berbentuk garis linier. Tabel Anova SPSS dapat membantu kita dalam memutuskan regresi tipe apa yang sebaiknya dipergunakan. Walaupun regresi linier memang yang paling banyak acuan litelaturnya dan cenderung lebih mudah, belum tentu data yang dimiliki dapat dijelaskan dengan baik oleh persamaan regresi linier.

Dengan menggunakan tabel ANOVA pada SPSS, akan dilihat nilai Sig. linearity & Sig. deviation from linearity dari setiap variabel bebas dengan variabel terikat dibandingan dengan tingkat signifikansi (α).  Nilai Sig. linearity menunjukkan sejauh mana variabel bebas berbanding tepat di garis lurus. Apabila nilai Sig. linearity lebih kecil dari tingkat signifikansi (α), maka regresi linier dapat dipergunakan untuk menjelaskan pengaruh antara variabel-variabel yang ada.

Sedangkan nilai Sig. deviation from linearity menunjukkan selinier apa data yang dipergunakan.  Apabila nilai Sig. deviation from linearity lebih besar dari tingkat signifikansi (α), maka regresi linier dapat dipergunakan untuk menjelaskan pengaruh antara variabel-variabel yang ada.

Baiklah, untuk lebih jelasnya, berikut contoh langkah-langkah untuk melakukan uji linearitas dengan buantuan software SPSS:

1. Masukkan data variabel bebas dan variabel terikat pada SPSS data editor. Pada contoh kali ini, jumlah datanya ada 10, terdapat 1 variabel bebas (X1) dan terdapat 1 variabel terikat (Y).

Linearitas1

2. Pilih menu Analyze, kemudian Compare Means, lalu Means…

Linearitas2

3. Masukkan semua variabel bebas ke kolom Independent List dan variabel terikat ke kolom Dependent List, kemudian klik Options…

Linearitas3

4. Checklist pilihan Test for linearity lalu klik Continue, kemudian klik OK.

Linearitas5

5. Akan muncul beberapa tabel pada keluaran. Perhatikan tabel ANOVA berikut:

Linearitas6

Bila α yang ditentukan adalah 5%, maka berdasarkan keluaran di atas, dapat disimpulkan bahwa data yang dipergunakan dapat dijelaskan oleh regresi linier dengan cukup baik karena nilai Sig. linearity data tersebut adalah sebesar 0,017 (lebih kecil dari 0,05) dan nilai Sig. deviation from linearity data tersebut adalah sebesar 0,315 (lebih besar dari 0,05). Selamat mencoba :).

Daftar Referensi

Prihadi Utomo, Yuni. (2007). Eksplorasi Data dan Analisis Regresi dengan SPSS. Surakarta: Muhammadiyah University Pess.

Widhiarso, Wahyu.(2010). Catatan Pada Uji Linearitas Hubungan. Fakultas Psikologi UGM.

Uji Otokorelasi dengan SPSS

Ketika hasi estimasi statistik (hasil regresi) telah didapatkan, tidak dengan sendirinya hasil ini bisa digunakan sebagai dasar pengambilan keputusan. Hasil regrasi harus diuji untuk memastikan terpenuhinya asumsi klasik. Uji otokorelasi merupakan salah satu uji asumsi klasik yang biasa dilakukan.

Otokorelasi terjadi apabila nilai variabel masa lalu memiliki pengaruh terhadap nilai variabel masa kini. Otokorelasi akan menyebabkan estimasi nilai ut yang terlalu rendah, dan karenanya menghasilkan estimasi yang terlalu tinggi untuk nilai koefisien korelasi. Bahkan ketika estimasi nilai variasi ut tidak terlalu rendah, maka estimasi nilai variasi dari koefisien regresi mungkin akan terlalu rendah, dan karenanya uji t dan uji F menjadi tidak valid lagi atau menghasilkan konklusi yang menyesatkan. Banyak orang menggunakan uji Durbin Watson untuk melakukan uji otokorelasi, namun adakalanya uji Durbin Watson memberikan hasil yang menyatakan bahwa data yang diuji tidak dapat dipastikan apakah lolos dari masalah otokorelasi atau tidak. Sebagai alternatif, kita dapat menggunakan uji run test, uji ini dipergunakan untuk melihat apakah data residual bersifat acak atau tidak. Bila tidak acak, berarti terjadi masalah autokorelasi. Residual regresi diolah dengan uji run test, kemudian dibandingkan dengan tingkat signifikasi (α) yang dipergunakan. Apabila nilai hasil uji run test lebih besar daripada tingkat signifikasi (α), maka tidak terdapat masalah otokorelasi pada data yang diuji.

Uji run test dapat dilakukan dengan lebih cepat bila kita dibantu oleh SPSS, terutama bila datanya ratusan atau bahkan ribuan. Secara sederhana, berikut contoh penggunaan SPSS dalam pengujian otokorelasi:

1. Masukkan data ke dalam SPSS Data Editor. Pada contoh ini terdapat 10 data, 1 variabel terikat (Y) dan 5 variabel bebas (X1, X2, X3, X4, X6).

Contoh Normalitas Residu 1

2. Regresikan data tersebut dengan memilih menu Analyze, kemudian Regression, lalu Linear…

Contoh Normalitas Residu 2

3. Masukkan semua variabel bebas ke kolom Independent(s) dan variabel terikat ke kolom Dependent, kemudian klik Save….

Contoh Normalitas Residu 3

4. Checklist Unstandardized pada kolom Residuals, lalu klik Continue, kemudian pilih Ok sehingga keluar output regresi pada SPSS Statistics Viewer.

Contoh Normalitas Residu 4

5. Kembali periksa layar SPSS Data Editor, akan muncul kolom baru di bagian kanan dengan judul  RES_1, itu merupakan residual regresi. Pilih menu Analyze, kemudian Nonparametric Test, lalu Legacy Dialogs, kemudian klik Runs…

Otokorelasi 1

6. Pindahkan RES_1 ke kolom sebelah kanan lalu klik Ok.

Otokorelasi 2

7. Perhatikan keluaran uji run test di bawah ini, nilai yang dibandingkan adalah Asymp. Sig. (2-tailed) yaitu 0,737.

Otokorelasi 3

Bila α yang ditentukan adalah 5%, maka hasil run test lebih besar daripada 0,05. Dengan demikian, data yang dipergunakan cukup random sehingga tidak terdapat masalah otokorelasi pada data yang diuji. Gampang khannn :mrgreen:.

Daftar Referensi

Prihadi Utomo, Yuni. (2007). Eksplorasi Data dan Analisis Regresi dengan SPSS. Surakarta: Muhammadiyah University Pess.

Murhadi, Werner. Pengujian Asumsi Regresi. (2011). Diakses: 30 Mei 2013. http://wernermurhadi.wordpress.com/2011/07/18/asumsi-klasik/

Uji Heterokedastisitas dengan SPSS

Ketika hasi estimasi statistik (hasil regresi) telah didapatkan, tidak dengan sendirinya hasil ini bisa digunakan sebagai dasar pengambilan keputusan. Hasil regrasi harus diuji untuk memastikan terpenuhinya asumsi klasik. Uji heterokedastisitas merupakan salah satu uji asumsi klasik yang biasa dilakukan.

Heteroskedastisitas terjadi apabila variasi residual regresi (ut) tidak konstan atau berubah-ubah secara sistematik seiring dengan berubahnya nilai variabel independen. Konsekuensi dari keberadaan heteroskedastisitas adalah analisis regresi akan menghasilkan estimator yang bias untuk nilai variasi udan dengan demikian variasi dari koefisien regresi. Akibatnya uji t, uji F dan estimasi nilai variabel dependen menjadi tidak valid. Uji yang dipergunakan adalah uji Spearman dimana dilakukan perhitungan dari korelasi rank spearman antara variabel absolut ut dengan variabel-variabel bebas. Kemudian nilai dari semua rank spearman tersebut dibandingkan dengan nilai signifikasi yang ditentukan. Masalah heterokedastisitas tidak terjadi bila nilai rank spearman antara variabel absolut residual regresi dengan variabel-variabel bebas lebih besar dari nilai signifikasi (α).

Untuk lebih jelasnya, mari kita lihat contoh di bawah ini:

1. Masukkan data ke dalam SPSS Data Editor. Pada contoh ini terdapat 10 data, 1 variabel terikat (Y) dan 5 variabel bebas (X1, X2, X3, X4, X6).

Contoh Normalitas Residu 1

2. Regresikan data tersebut dengan memilih menu Analyze, kemudian Regression, lalu Linear…

Contoh Normalitas Residu 2

3. Masukkan semua variabel bebas ke kolom Independent(s) dan variabel terikat ke kolom Dependent, kemudian klik Save….

Contoh Normalitas Residu 3

4. Checklist Unstandardized pada kolom Residuals, lalu klik Continue, kemudian pilih Ok sehingga keluar output regresi pada SPSS Statistics Viewer.

Contoh Normalitas Residu 4

5. Kembali periksa layar SPSS Data Editor, akan muncul kolom baru di bagian kanan dengan judul  RES_1, itu merupakan residual regresi.Karena yang dibandingkan dengan metode Spearman adalah nilai absolut dari residual regresi, maka kita cari dulu berapa nilai absolut dari RES_1 dengan memilih menu Transform, lalu klik Compute Variable…

Heterokedastisitas 1

6. Ketik abs(RES_1) pada kolom Numeric Expression, kemudian ketiklah sebuah nama yang mudah diingat pada kolom Target Variable, kali ini saya contohkan namanya Absres. Kemudian klik Ok dan akan muncul 1 kolom lagi di sebelah kanan kolom RES_1 pada SPSS Data Editor dengan nama kolom sesuai nama yang kita masukkan pada  kolom Target Variable tadi.

Heterokedastisitas 2

7. Untuk mencari korelasi rank spearman, pilih menu Analyze, lalu Correlate, kemudian klik Bivariate…

Heterokedastisitas 3

6. Pindahkan semua variabel bebas dan Absres (nilai absolut residu regresi) ke sebelah kanan kemudian checklist Spearman pada kolom Correlation Coefficients, kemudian klik Ok.

Heterokedastisitas 4

7. Perhatikan kolom Correlations pada keluaran SPSS Statistics Viewer.

Heterokedastisitas 5

Berdasarkan tabel di atas, dapat diperoleh hasil bahwa korelasi rank spearman antara X1 dengan Ut adalah 0,266, korelasi rank spearman antara X2 dengan Ut adalah 0,244, korelasi rank spearman antara X3 dengan Ut adalah 0,318 dan seterusnya dapat diamati dengan cara yang sama untuk korelasi rank spearman antara Udengan variabel-variabel bebas lainnya. Misalkan nilai signifikasi (α) yang digunakan adalah 5%, maka masalah heterokesatisitas dapat dikatakan tidak terjadi karena semua nilai korelasi rank spearman lebih besar dari 0,05.

Agak panjang caranya, tapi semua menjadi lebih cepat dikerjakan dengan bantuan SPSS, tetap cemunguuudth! 🙂

Daftar Referensi

Elcom. (2010). Seri Belajar Kilat SPSS 18. Yogyakarta: Penerbit Andi.

Prihadi Utomo, Yuni. (2007). Eksplorasi Data dan Analisis Regresi dengan SPSS. Surakarta: Muhammadiyah University Pess.

Uji Normalitas Residu dengan SPSS

Ketika hasi estimasi statistik (hasil regresi) telah didapatkan, tidak dengan sendirinya hasil ini bisa digunakan sebagai dasar pengambilan keputusan. Hasil regrasi harus diuji untuk memastikan terpenuhinya asumsi klasik. Uji normalitas residu merupakan salah satu uji asumsi klasik yang biasa dilakukan.

Asumsi normalitas gangguan atau error (ut) penting sekali sebab uji eksistensi model (uji F) maupun uji validitas pengaruh variabel independen (uji t), dan estimasi nilai variabel dependen mensyaratkan hal ini. Apabila asumsi ini tidak terpenuhi, baik uji F maupun uji t, dan estimasi nilai variabel dependen menjadi tidak valid. ut diperoleh dari regresi variabel-variabel yang ada yaitu:

Yt=  a + bX1t + cX2t + dX3t+ eX4t+ fX5t+gX6t + hX7t + ut

Uji normalitas yang dipergunakan adalah uji Jarque Bera. Nilai statistik Jarque Bera (JB) untuk ut diperoleh dengan persamaan:

Normalitas Residu 1

Dimana:

S = Skewness (Kemiringan).

K = Kurtosis (Keruncingan).

N = Banyaknya Data.

Nilai JB yang diperoleh kemudian dibandingkan dengan nilai tabel Chi Kuadrat. Apabila  lebih besar dari JB maka distribusi residual persamaan regresi tidak normal.

Nilai Skewness & Kurtosis dapat diperoleh dengan bantuan software SPSS. Berikut contoh langkah-langkahnya:

Karena nilai Skewness & Kurtosis diperoleh dengan menggunakan SPSS, maka untuk menghitung nilai JB, Kurtosis tidak perlu dikurangi 3 sehingga:

Normalitas Residu 2

Nilai JB kemudian dibandingkan dengan nilai Chi Kuadrat dengan df = 2 dan tingkat signifikasi tertentu bergantung dari penelitian dan data yang dipergunakan. Distribusi residu dikatakan normal bila JB lebih kecil dari nilai Chi Kuadrat yang diperoleh dari tabel Chi Kuadrat berikut:

Normalitas Residu 5

Diperoleh bahwa nilai Chi Kuadrat dengan df = 2 dan tingkat signifikansi (α) = 5% adalah 5,99. Chi Kuadrat dengan df = 2 dan tingkat signifikansi (α) = 1% adalah 9,21. Chi Kuadrat dengan df = 2 dan tingkat signifikansi (α) = 0,1% adalah 13,82.

Tingkat signifikansi (α) sendiri menunjukkan peluang kesalahan yang ditetapkan dalam mengambil keputusan untuk menolak atau mendukung hipotesis nol, atau dapat diartikan juga sebagai tingkat kesalahan atau tingkat kekeliruan yang ditolelir, yang diakibatkan oleh kemungkinan adanya kesalahan dalam pengambilan sampel. Sementara itu tingkat kepercayaan pada dasarnya menunjukkan tingkat kepercayaan sejauhmana statistik sampel dapat mengestimasi dengan benar parameter populasi. Dalam statistika, tingkat kepercayaan nilainya berkisar antara 0 sampai 100%. Secara konvensional, para peneliti dalam ilmu-ilmu sosial sering menetapkan tingkat kepercayaan antara 95% – 99%. Dalam penelitian dunia kedokteran, tingkat kepercayaan paling tidak harus bernilai 99%.

Untuk lebih jelasnya, mari kita lihat contoh di bawah ini:

1. Masukkan data ke dalam SPSS Data Editor. Pada contoh ini terdapat 10 data, 1 variabel terikat (Y) dan 5 variabel bebas (X1, X2, X3, X4, X6).

Contoh Normalitas Residu 1

2. Regresikan data tersebut dengan memilih menu Analyze, kemudian Regression, lalu Linear…

Contoh Normalitas Residu 2

3. Masukkan semua variabel bebas ke kolom Independent(s) dan variabel terikat ke kolom Dependent, kemudian klik Save….

Contoh Normalitas Residu 3

4. Checklist Unstandardized pada kolom Residuals, lalu klik Continue, kemudian pilih Ok sehingga keluar output regresi pada SPSS Statistics Viewer.

Contoh Normalitas Residu 4

5. Kembali periksa layar SPSS Data Editor, akan muncul kolom baru di bagian kanan dengan judul  RES_1, itu merupakan resual regresi. Nilai itulah yang akan diuji normalitasnya. Lakukang pengujian dengan memilih Analyze, lalu Descriptive Statistics, kemudian klik Descriptives…

Contoh Normalitas Residu 5

6. Masukkan RES_1 ke kolom kanan lalu pilih Options…

Contoh Normalitas Residu 6

7. Checklist pilihan Kurtosis dan Skewness pada kolom Distribution, lalu klik Continue, kemudian klik Ok. Akan muncul kolom Descriptive Statistics pada SPSS Statistics Viewer. Nilai Skewnessnya adalah 0,727 dan Kurtosisnya adalah 0,486.

Contoh Normalitas Residu 8

8. Masukan ke dalam rumus JB berikut:

Contoh Normalitas Residu 9

Sehingga diperoleh nilai JB sebesar 0,987. Bila tingkat signifikasi yang dipilih adalah 5%, maka nilai Chi Kuadrat dengan df = 2 adalah sebesar 5,99. Nilai JB lebih kecil dari 5,99, maka tidak ada masalah normalitas residu pada data-data ini. Selamat mencoba 🙂

Daftar Referensi

Abdurahman, Maman, Muhidin, Sambas & Somantri, Ating. (2012). Dasar-Dasar Metode Statistika Untuk Penelitian. Bandung: CV. Pustaka Setia.

http://home.comcast.net/~sharov/PopEcol/tables/chisq.html

Prihadi Utomo, Yuni. (2007). Eksplorasi Data dan Analisis Regresi dengan SPSS. Surakarta: Muhammadiyah University Pess.

Analisis Regresi Linier Sederhana & Berganda

Analisis regresi dipergunakan untuk menggambarkan garis yang menunjukan arah hubungan antar variabel, serta dipergunakan untuk melakukan prediksi. Analisa ini dipergunakan untuk menelaah hubungan antara dua variabel atau lebih, terutama untuk menelusuri pola hubungan yang modelnya belum diketahui dengan sempurna. Regresi yang terdiri dari satu variabel bebas (predictor) dan satu variabel terikat (Response/Criterion) disebut regresi linier sederhana (bivariate regression), sedangkan regresi yang variabel bebasnya lebih dari satu disebut regresi berganda (Multiple regression/multivariate regression), yang dapat terdiri dari dua prediktor (regresi ganda) maupun lebih. Adapun bentuk persamaan umumnya adalah [1] :

Y= a + bX

Dimana:

Regresi 1

Tanda positif pada nilai b atau koefisien regresi menunjukkan bahwa antara variabel bebas dengan variabel terikat berjalan satu arah, di mana setiap penurunan atau peningkatan variabel bebas akan diikuti dengan peningkatan atau penurunan variabel terikatnya. Sementara tanda negatif pada nilai b menunjukkan bahwa antara variabel bebas dengan variabel terikat berjalan dua arah, di mana setiap peningkatan variabel bebas akan diikuti dengan penurunan variabel terikatnya, dan sebaliknya [1].

Ketika variable bebas lebih dari 2, nilai konstanta dan variable regresi setiap variabel bebas dapat diperoleh dengan menggunakan matriks determinan [2]. Contohnya adalah ketika terdapat 3 persamaan dengan 3 variabel yang tidak diketahui nilainya, yaitu a, b1, b2 & b3, persamaan tersebut dapat dinyatakan dalam persamaan matriks sebagai berikut:

Regresi 2

Maka Matriks A0, A1, A2 dan A3 adalah:

Regresi 3

Kemudian dapat dilakukan perhitungan untuk determinasi matriks A, A0, A1, A2 dan A3 sebagai berikut:

Det(A) = {N. ∑(X1.X1). ∑(X2.X2). ∑(X3.X3)}+{ ∑X1. ∑(X1.X2). ∑(X2.X3). ∑X3}+{∑X2. ∑(X1.X3). ∑X2. ∑(X3.X1)}+{ ∑X3. ∑X1. ∑(X2.X1). ∑(X3.X2)}-{ ∑X3. ∑(X1.X2). ∑(X2.X1). ∑X3}-{∑X2. ∑(X1.X1). ∑X2. ∑(X3.X3)}-{ ∑X1. ∑X1. ∑(X3.X3)}-{ N. ∑(X1.X3). ∑(X2.X2). ∑(X3.X1)}

Dengan cara yang sama seperti menghitung Det(A), dapat diperoleh pula Det(A0), Det(A1), Det(A2) & Det(A3).

Kemudian dapat diperoleh nilai a, b1, b2, b3 sebagai berikut:

Regresi 4

Contoh lainnya adalah misalkan ketika terdapat 1 variabel terikat (Y) dan 7 variabel bebas sebagai berikut:

Tabel Regresi Korelasi 1

Kemudian dilakukan perhitungan untuk X1.X1, X1.X2 dan sebagainya sehingga diperoleh hasil sebagai berikut:

Tabel Regresi Korelasi 4 Tabel Regresi Korelasi 5 Tabel Regresi Korelasi 6 Tabel Regresi Korelasi 2 Tabel Regresi Korelasi 3

=  a + bX1 + cX2 + dX3+ eX4+ fX5+gX6 + hX7

Dimana:

X1= Variabel bebas 1

X2= Variabel bebas 2

X3= Variabel bebas 3

X4= Variabel bebas 4

X5= Variabel bebas 5

X6= Variabel bebas 6

X7= Variabel bebas 7

Y = Variabel terikat

a = Konstanta

b, c, d, e, f, g,h = Koefisien regresi masing-masing variabel bebas

Regresi 5

Regresi 6

Det(A) = 4,84 x 1026

Det(A0) = 6,3 x 1036

Det(A1) = -1,59 x 1032

Det(A2) = 3,35 x 1032

Det(A3) = -4,92 x 1031

Det(A4) = -2,23 x 1031

Det(A5) = -6,24 x 1031

Det(A6) = -2,94 x 1032

Det(A7) = -1,29x 1032

Regresi 7

Maka persamaan regresi dari contoh ini adalah:

Y =  13012225228,72 – 328691,82X1 + 693120,34X2 – 101663,12X3 – 46165,27X4 –  128872,53X5   –   607387,29X6   –   265348,47X7

Besar nilai konstanta sebesar 13012225228,72 pada persamaan regresi di atas menunjukan bahwa pendapatan Y akan tetap sebesar 13012225228,72 tanpa adanya pengaruh dari variabel-variabel bebas. Bila variabel X1 meningkat sebesar 1 satuan, maka nilai Y akan berkurang sebesar 328691,82. Bila variabel X2 meningkat sebesar 1 satuan, maka nilai Y akan bertambah sebesar 693120,34. Bila variabel X3 meningkat sebesar 1 satuan, maka nilai Y akan berkurang sebesar 101663,12. Bila variabel X4 meningkat sebesar 1 satuan, maka nilai Y akan berkurang sebesar 46165,27. Bila variabel X5 meningkat sebesar 1 satuan, maka nilai Y akan berkurang sebesar 128872,53. Bila variabel X6 meningkat sebesar 1 satuan, maka nilai pendapatan kotor PT. XYZ akan berkurang sebesar 607387,29. Bila variabel X7 meningkat sebesar 1 satuan, maka nilai Y akan berkurang sebesar 265348,47.

Perlu diingat bahwa analisis regresi tidak menunjukkan sebuah hubungan atau pengaruh sebab akibat, persamaan hasil dari analisis harus dianalisa kembali apakah sudah sesuai dengan pembuktian teori atau logika yang ada. Apabila terdapat ketidakcocokan, perlu dilakukan analisa lebih lanjut atau transformasi persamaan atau reduksi variabel.

Daftar Referensi

[1]  Abdurahman, Maman, Muhidin, Sambas & Somantri, Ating. (2012). Dasar-Dasar Metode Statistika Untuk Penelitian. Bandung: CV. Pustaka Setia.

[2]    J. Supratno. (2000). Statistik: Teori dan Aplikasi. Jakarta: Erlangga.