Uji Linearitas dengan Tabel ANOVA SPSS

Persamaan regresi dipergunakan untuk melihat bentuk pengaruh antar 1 atau beberapa variabel. Bentuk dari pengaruh tersebut dapat dilihat secara linier, logaritmik atau box tergantung dari data yang dimiliki dan asumsi yang diambil oleh peneliti. Asumsi linearitas sendiri adalah asumsi yang menyatakan bahwa hubungan antar variabel yang hendak dianalisis itu mengikuti garis lurus sehingga jika persamaan regresi yang diperoleh dibuat grafiknya, akan terlihat grafik yang berbentuk garis linier. Tabel Anova SPSS dapat membantu kita dalam memutuskan regresi tipe apa yang sebaiknya dipergunakan. Walaupun regresi linier memang yang paling banyak acuan litelaturnya dan cenderung lebih mudah, belum tentu data yang dimiliki dapat dijelaskan dengan baik oleh persamaan regresi linier.

Dengan menggunakan tabel ANOVA pada SPSS, akan dilihat nilai Sig. linearity & Sig. deviation from linearity dari setiap variabel bebas dengan variabel terikat dibandingan dengan tingkat signifikansi (α).  Nilai Sig. linearity menunjukkan sejauh mana variabel bebas berbanding tepat di garis lurus. Apabila nilai Sig. linearity lebih kecil dari tingkat signifikansi (α), maka regresi linier dapat dipergunakan untuk menjelaskan pengaruh antara variabel-variabel yang ada.

Sedangkan nilai Sig. deviation from linearity menunjukkan selinier apa data yang dipergunakan.  Apabila nilai Sig. deviation from linearity lebih besar dari tingkat signifikansi (α), maka regresi linier dapat dipergunakan untuk menjelaskan pengaruh antara variabel-variabel yang ada.

Baiklah, untuk lebih jelasnya, berikut contoh langkah-langkah untuk melakukan uji linearitas dengan buantuan software SPSS:

1. Masukkan data variabel bebas dan variabel terikat pada SPSS data editor. Pada contoh kali ini, jumlah datanya ada 10, terdapat 1 variabel bebas (X1) dan terdapat 1 variabel terikat (Y).

Linearitas1

2. Pilih menu Analyze, kemudian Compare Means, lalu Means…

Linearitas2

3. Masukkan semua variabel bebas ke kolom Independent List dan variabel terikat ke kolom Dependent List, kemudian klik Options…

Linearitas3

4. Checklist pilihan Test for linearity lalu klik Continue, kemudian klik OK.

Linearitas5

5. Akan muncul beberapa tabel pada keluaran. Perhatikan tabel ANOVA berikut:

Linearitas6

Bila α yang ditentukan adalah 5%, maka berdasarkan keluaran di atas, dapat disimpulkan bahwa data yang dipergunakan dapat dijelaskan oleh regresi linier dengan cukup baik karena nilai Sig. linearity data tersebut adalah sebesar 0,017 (lebih kecil dari 0,05) dan nilai Sig. deviation from linearity data tersebut adalah sebesar 0,315 (lebih besar dari 0,05). Selamat mencoba :).

Daftar Referensi

Prihadi Utomo, Yuni. (2007). Eksplorasi Data dan Analisis Regresi dengan SPSS. Surakarta: Muhammadiyah University Pess.

Widhiarso, Wahyu.(2010). Catatan Pada Uji Linearitas Hubungan. Fakultas Psikologi UGM.

Uji Otokorelasi dengan SPSS

Ketika hasi estimasi statistik (hasil regresi) telah didapatkan, tidak dengan sendirinya hasil ini bisa digunakan sebagai dasar pengambilan keputusan. Hasil regrasi harus diuji untuk memastikan terpenuhinya asumsi klasik. Uji otokorelasi merupakan salah satu uji asumsi klasik yang biasa dilakukan.

Otokorelasi terjadi apabila nilai variabel masa lalu memiliki pengaruh terhadap nilai variabel masa kini. Otokorelasi akan menyebabkan estimasi nilai ut yang terlalu rendah, dan karenanya menghasilkan estimasi yang terlalu tinggi untuk nilai koefisien korelasi. Bahkan ketika estimasi nilai variasi ut tidak terlalu rendah, maka estimasi nilai variasi dari koefisien regresi mungkin akan terlalu rendah, dan karenanya uji t dan uji F menjadi tidak valid lagi atau menghasilkan konklusi yang menyesatkan. Banyak orang menggunakan uji Durbin Watson untuk melakukan uji otokorelasi, namun adakalanya uji Durbin Watson memberikan hasil yang menyatakan bahwa data yang diuji tidak dapat dipastikan apakah lolos dari masalah otokorelasi atau tidak. Sebagai alternatif, kita dapat menggunakan uji run test, uji ini dipergunakan untuk melihat apakah data residual bersifat acak atau tidak. Bila tidak acak, berarti terjadi masalah autokorelasi. Residual regresi diolah dengan uji run test, kemudian dibandingkan dengan tingkat signifikasi (α) yang dipergunakan. Apabila nilai hasil uji run test lebih besar daripada tingkat signifikasi (α), maka tidak terdapat masalah otokorelasi pada data yang diuji.

Uji run test dapat dilakukan dengan lebih cepat bila kita dibantu oleh SPSS, terutama bila datanya ratusan atau bahkan ribuan. Secara sederhana, berikut contoh penggunaan SPSS dalam pengujian otokorelasi:

1. Masukkan data ke dalam SPSS Data Editor. Pada contoh ini terdapat 10 data, 1 variabel terikat (Y) dan 5 variabel bebas (X1, X2, X3, X4, X6).

Contoh Normalitas Residu 1

2. Regresikan data tersebut dengan memilih menu Analyze, kemudian Regression, lalu Linear…

Contoh Normalitas Residu 2

3. Masukkan semua variabel bebas ke kolom Independent(s) dan variabel terikat ke kolom Dependent, kemudian klik Save….

Contoh Normalitas Residu 3

4. Checklist Unstandardized pada kolom Residuals, lalu klik Continue, kemudian pilih Ok sehingga keluar output regresi pada SPSS Statistics Viewer.

Contoh Normalitas Residu 4

5. Kembali periksa layar SPSS Data Editor, akan muncul kolom baru di bagian kanan dengan judul  RES_1, itu merupakan residual regresi. Pilih menu Analyze, kemudian Nonparametric Test, lalu Legacy Dialogs, kemudian klik Runs…

Otokorelasi 1

6. Pindahkan RES_1 ke kolom sebelah kanan lalu klik Ok.

Otokorelasi 2

7. Perhatikan keluaran uji run test di bawah ini, nilai yang dibandingkan adalah Asymp. Sig. (2-tailed) yaitu 0,737.

Otokorelasi 3

Bila α yang ditentukan adalah 5%, maka hasil run test lebih besar daripada 0,05. Dengan demikian, data yang dipergunakan cukup random sehingga tidak terdapat masalah otokorelasi pada data yang diuji. Gampang khannn :mrgreen:.

Daftar Referensi

Prihadi Utomo, Yuni. (2007). Eksplorasi Data dan Analisis Regresi dengan SPSS. Surakarta: Muhammadiyah University Pess.

Murhadi, Werner. Pengujian Asumsi Regresi. (2011). Diakses: 30 Mei 2013. http://wernermurhadi.wordpress.com/2011/07/18/asumsi-klasik/

Uji Heterokedastisitas dengan SPSS

Ketika hasi estimasi statistik (hasil regresi) telah didapatkan, tidak dengan sendirinya hasil ini bisa digunakan sebagai dasar pengambilan keputusan. Hasil regrasi harus diuji untuk memastikan terpenuhinya asumsi klasik. Uji heterokedastisitas merupakan salah satu uji asumsi klasik yang biasa dilakukan.

Heteroskedastisitas terjadi apabila variasi residual regresi (ut) tidak konstan atau berubah-ubah secara sistematik seiring dengan berubahnya nilai variabel independen. Konsekuensi dari keberadaan heteroskedastisitas adalah analisis regresi akan menghasilkan estimator yang bias untuk nilai variasi udan dengan demikian variasi dari koefisien regresi. Akibatnya uji t, uji F dan estimasi nilai variabel dependen menjadi tidak valid. Uji yang dipergunakan adalah uji Spearman dimana dilakukan perhitungan dari korelasi rank spearman antara variabel absolut ut dengan variabel-variabel bebas. Kemudian nilai dari semua rank spearman tersebut dibandingkan dengan nilai signifikasi yang ditentukan. Masalah heterokedastisitas tidak terjadi bila nilai rank spearman antara variabel absolut residual regresi dengan variabel-variabel bebas lebih besar dari nilai signifikasi (α).

Untuk lebih jelasnya, mari kita lihat contoh di bawah ini:

1. Masukkan data ke dalam SPSS Data Editor. Pada contoh ini terdapat 10 data, 1 variabel terikat (Y) dan 5 variabel bebas (X1, X2, X3, X4, X6).

Contoh Normalitas Residu 1

2. Regresikan data tersebut dengan memilih menu Analyze, kemudian Regression, lalu Linear…

Contoh Normalitas Residu 2

3. Masukkan semua variabel bebas ke kolom Independent(s) dan variabel terikat ke kolom Dependent, kemudian klik Save….

Contoh Normalitas Residu 3

4. Checklist Unstandardized pada kolom Residuals, lalu klik Continue, kemudian pilih Ok sehingga keluar output regresi pada SPSS Statistics Viewer.

Contoh Normalitas Residu 4

5. Kembali periksa layar SPSS Data Editor, akan muncul kolom baru di bagian kanan dengan judul  RES_1, itu merupakan residual regresi.Karena yang dibandingkan dengan metode Spearman adalah nilai absolut dari residual regresi, maka kita cari dulu berapa nilai absolut dari RES_1 dengan memilih menu Transform, lalu klik Compute Variable…

Heterokedastisitas 1

6. Ketik abs(RES_1) pada kolom Numeric Expression, kemudian ketiklah sebuah nama yang mudah diingat pada kolom Target Variable, kali ini saya contohkan namanya Absres. Kemudian klik Ok dan akan muncul 1 kolom lagi di sebelah kanan kolom RES_1 pada SPSS Data Editor dengan nama kolom sesuai nama yang kita masukkan pada  kolom Target Variable tadi.

Heterokedastisitas 2

7. Untuk mencari korelasi rank spearman, pilih menu Analyze, lalu Correlate, kemudian klik Bivariate…

Heterokedastisitas 3

6. Pindahkan semua variabel bebas dan Absres (nilai absolut residu regresi) ke sebelah kanan kemudian checklist Spearman pada kolom Correlation Coefficients, kemudian klik Ok.

Heterokedastisitas 4

7. Perhatikan kolom Correlations pada keluaran SPSS Statistics Viewer.

Heterokedastisitas 5

Berdasarkan tabel di atas, dapat diperoleh hasil bahwa korelasi rank spearman antara X1 dengan Ut adalah 0,266, korelasi rank spearman antara X2 dengan Ut adalah 0,244, korelasi rank spearman antara X3 dengan Ut adalah 0,318 dan seterusnya dapat diamati dengan cara yang sama untuk korelasi rank spearman antara Udengan variabel-variabel bebas lainnya. Misalkan nilai signifikasi (α) yang digunakan adalah 5%, maka masalah heterokesatisitas dapat dikatakan tidak terjadi karena semua nilai korelasi rank spearman lebih besar dari 0,05.

Agak panjang caranya, tapi semua menjadi lebih cepat dikerjakan dengan bantuan SPSS, tetap cemunguuudth! 🙂

Daftar Referensi

Elcom. (2010). Seri Belajar Kilat SPSS 18. Yogyakarta: Penerbit Andi.

Prihadi Utomo, Yuni. (2007). Eksplorasi Data dan Analisis Regresi dengan SPSS. Surakarta: Muhammadiyah University Pess.

Uji Normalitas Residu dengan SPSS

Ketika hasi estimasi statistik (hasil regresi) telah didapatkan, tidak dengan sendirinya hasil ini bisa digunakan sebagai dasar pengambilan keputusan. Hasil regrasi harus diuji untuk memastikan terpenuhinya asumsi klasik. Uji normalitas residu merupakan salah satu uji asumsi klasik yang biasa dilakukan.

Asumsi normalitas gangguan atau error (ut) penting sekali sebab uji eksistensi model (uji F) maupun uji validitas pengaruh variabel independen (uji t), dan estimasi nilai variabel dependen mensyaratkan hal ini. Apabila asumsi ini tidak terpenuhi, baik uji F maupun uji t, dan estimasi nilai variabel dependen menjadi tidak valid. ut diperoleh dari regresi variabel-variabel yang ada yaitu:

Yt=  a + bX1t + cX2t + dX3t+ eX4t+ fX5t+gX6t + hX7t + ut

Uji normalitas yang dipergunakan adalah uji Jarque Bera. Nilai statistik Jarque Bera (JB) untuk ut diperoleh dengan persamaan:

Normalitas Residu 1

Dimana:

S = Skewness (Kemiringan).

K = Kurtosis (Keruncingan).

N = Banyaknya Data.

Nilai JB yang diperoleh kemudian dibandingkan dengan nilai tabel Chi Kuadrat. Apabila  lebih besar dari JB maka distribusi residual persamaan regresi tidak normal.

Nilai Skewness & Kurtosis dapat diperoleh dengan bantuan software SPSS. Berikut contoh langkah-langkahnya:

Karena nilai Skewness & Kurtosis diperoleh dengan menggunakan SPSS, maka untuk menghitung nilai JB, Kurtosis tidak perlu dikurangi 3 sehingga:

Normalitas Residu 2

Nilai JB kemudian dibandingkan dengan nilai Chi Kuadrat dengan df = 2 dan tingkat signifikasi tertentu bergantung dari penelitian dan data yang dipergunakan. Distribusi residu dikatakan normal bila JB lebih kecil dari nilai Chi Kuadrat yang diperoleh dari tabel Chi Kuadrat berikut:

Normalitas Residu 5

Diperoleh bahwa nilai Chi Kuadrat dengan df = 2 dan tingkat signifikansi (α) = 5% adalah 5,99. Chi Kuadrat dengan df = 2 dan tingkat signifikansi (α) = 1% adalah 9,21. Chi Kuadrat dengan df = 2 dan tingkat signifikansi (α) = 0,1% adalah 13,82.

Tingkat signifikansi (α) sendiri menunjukkan peluang kesalahan yang ditetapkan dalam mengambil keputusan untuk menolak atau mendukung hipotesis nol, atau dapat diartikan juga sebagai tingkat kesalahan atau tingkat kekeliruan yang ditolelir, yang diakibatkan oleh kemungkinan adanya kesalahan dalam pengambilan sampel. Sementara itu tingkat kepercayaan pada dasarnya menunjukkan tingkat kepercayaan sejauhmana statistik sampel dapat mengestimasi dengan benar parameter populasi. Dalam statistika, tingkat kepercayaan nilainya berkisar antara 0 sampai 100%. Secara konvensional, para peneliti dalam ilmu-ilmu sosial sering menetapkan tingkat kepercayaan antara 95% – 99%. Dalam penelitian dunia kedokteran, tingkat kepercayaan paling tidak harus bernilai 99%.

Untuk lebih jelasnya, mari kita lihat contoh di bawah ini:

1. Masukkan data ke dalam SPSS Data Editor. Pada contoh ini terdapat 10 data, 1 variabel terikat (Y) dan 5 variabel bebas (X1, X2, X3, X4, X6).

Contoh Normalitas Residu 1

2. Regresikan data tersebut dengan memilih menu Analyze, kemudian Regression, lalu Linear…

Contoh Normalitas Residu 2

3. Masukkan semua variabel bebas ke kolom Independent(s) dan variabel terikat ke kolom Dependent, kemudian klik Save….

Contoh Normalitas Residu 3

4. Checklist Unstandardized pada kolom Residuals, lalu klik Continue, kemudian pilih Ok sehingga keluar output regresi pada SPSS Statistics Viewer.

Contoh Normalitas Residu 4

5. Kembali periksa layar SPSS Data Editor, akan muncul kolom baru di bagian kanan dengan judul  RES_1, itu merupakan resual regresi. Nilai itulah yang akan diuji normalitasnya. Lakukang pengujian dengan memilih Analyze, lalu Descriptive Statistics, kemudian klik Descriptives…

Contoh Normalitas Residu 5

6. Masukkan RES_1 ke kolom kanan lalu pilih Options…

Contoh Normalitas Residu 6

7. Checklist pilihan Kurtosis dan Skewness pada kolom Distribution, lalu klik Continue, kemudian klik Ok. Akan muncul kolom Descriptive Statistics pada SPSS Statistics Viewer. Nilai Skewnessnya adalah 0,727 dan Kurtosisnya adalah 0,486.

Contoh Normalitas Residu 8

8. Masukan ke dalam rumus JB berikut:

Contoh Normalitas Residu 9

Sehingga diperoleh nilai JB sebesar 0,987. Bila tingkat signifikasi yang dipilih adalah 5%, maka nilai Chi Kuadrat dengan df = 2 adalah sebesar 5,99. Nilai JB lebih kecil dari 5,99, maka tidak ada masalah normalitas residu pada data-data ini. Selamat mencoba 🙂

Daftar Referensi

Abdurahman, Maman, Muhidin, Sambas & Somantri, Ating. (2012). Dasar-Dasar Metode Statistika Untuk Penelitian. Bandung: CV. Pustaka Setia.

http://home.comcast.net/~sharov/PopEcol/tables/chisq.html

Prihadi Utomo, Yuni. (2007). Eksplorasi Data dan Analisis Regresi dengan SPSS. Surakarta: Muhammadiyah University Pess.

Uji Multikolinearitas dengan SPSS

Ketika hasi estimasi statistik (hasil regresi) telah didapatkan, tidak dengan sendirinya hasil ini bisa digunakan sebagai dasar pengambilan keputusan. Hasil regrasi harus diuji untuk memastikan terpenuhinya asumsi klasik. Uji multikolinearitas merupakan salah satu uji asumsi klasik yang biasa dilakukan.

Masalah multikolinearitas muncul jika terdapat hubungan yang sempurna atau pasti di antara satu atau lebih variabel independen dalam model. Dalam kasus terdapat multikolinearitas yang serius, koefisien regresi tidak lagi menunjukkan pengaruh murni dari variabel independen dalam model. Dengan demikian, bila tujuan dari penelitian adalah mengukur arah dan besarnya pengaruh variabel independen secara akurat, masalah multikoliniearitas penting untuk diperhitungkan. Pilihan metode pengujian yang dapat dipergunakan antara lain adalah uji VIF (Variance Inflation Factor), uji Park dan uji CI (Condition Index). Kali ini saya akan membahas uji VIF dengan bantuan SPSS. Apabila nilai VIF di bawah 10, maka tidak terdapat masalah multikolinearitas.

Uji multikolinearitas dapat dilakukan dengan bantuan software SPSS.  Langkah-langkahnya antara lain adalah sebagai berikut:

1. Masukkan data variabel bebas dan variabel terikat pada SPSS data editor. Pada contoh kali ini, jumlah datanya ada 15, terdapat 4 variabel bebas (X1, X2, X3, X4) dan terdapat 1 variabel terikat (Y).

Regresi SPSS 1

2. Pilih menu Analyze, kemudian Regression, lalu Linear…

Regresi SPSS 2

3. Masukkan semua variabel bebas ke kolom Independent(s) dan variabel terikat ke kolom Dependent, kemudian klik Statistics….

Regresi SPSS 3

4. Checklist pilihan Collinearity diagnostics lalu klik Continue, kemudian klik OK.

Multikolinearitas 1

5. Akan muncul beberapa tabel pada keluaran. Perhatikan tabel Coefficients berikut:

Multikolinearitas 2

Nilai VIF X1 adalah 9,709, VIF X2 adalah 1,95, VIF X3 adalah 4,574 dan VIF X4 adalah 2,654. Semuanya lebih kecil dari 10 sehingga tidak ada masalah multikolinearitas. Nahh, gampang khan :mrgreen:.

Daftar Referensi

Elcom. (2010). Seri Belajar Kilat SPSS 18. Yogyakarta: Penerbit Andi.

Prihadi Utomo, Yuni. (2007). Eksplorasi Data dan Analisis Regresi dengan SPSS. Surakarta: Muhammadiyah University Pess.