Uji Linearitas dengan Tabel ANOVA SPSS

Persamaan regresi dipergunakan untuk melihat bentuk pengaruh antar 1 atau beberapa variabel. Bentuk dari pengaruh tersebut dapat dilihat secara linier, logaritmik atau box tergantung dari data yang dimiliki dan asumsi yang diambil oleh peneliti. Asumsi linearitas sendiri adalah asumsi yang menyatakan bahwa hubungan antar variabel yang hendak dianalisis itu mengikuti garis lurus sehingga jika persamaan regresi yang diperoleh dibuat grafiknya, akan terlihat grafik yang berbentuk garis linier. Tabel Anova SPSS dapat membantu kita dalam memutuskan regresi tipe apa yang sebaiknya dipergunakan. Walaupun regresi linier memang yang paling banyak acuan litelaturnya dan cenderung lebih mudah, belum tentu data yang dimiliki dapat dijelaskan dengan baik oleh persamaan regresi linier.

Dengan menggunakan tabel ANOVA pada SPSS, akan dilihat nilai Sig. linearity & Sig. deviation from linearity dari setiap variabel bebas dengan variabel terikat dibandingan dengan tingkat signifikansi (α).  Nilai Sig. linearity menunjukkan sejauh mana variabel bebas berbanding tepat di garis lurus. Apabila nilai Sig. linearity lebih kecil dari tingkat signifikansi (α), maka regresi linier dapat dipergunakan untuk menjelaskan pengaruh antara variabel-variabel yang ada.

Sedangkan nilai Sig. deviation from linearity menunjukkan selinier apa data yang dipergunakan.  Apabila nilai Sig. deviation from linearity lebih besar dari tingkat signifikansi (α), maka regresi linier dapat dipergunakan untuk menjelaskan pengaruh antara variabel-variabel yang ada.

Baiklah, untuk lebih jelasnya, berikut contoh langkah-langkah untuk melakukan uji linearitas dengan buantuan software SPSS:

1. Masukkan data variabel bebas dan variabel terikat pada SPSS data editor. Pada contoh kali ini, jumlah datanya ada 10, terdapat 1 variabel bebas (X1) dan terdapat 1 variabel terikat (Y).

Linearitas1

2. Pilih menu Analyze, kemudian Compare Means, lalu Means…

Linearitas2

3. Masukkan semua variabel bebas ke kolom Independent List dan variabel terikat ke kolom Dependent List, kemudian klik Options…

Linearitas3

4. Checklist pilihan Test for linearity lalu klik Continue, kemudian klik OK.

Linearitas5

5. Akan muncul beberapa tabel pada keluaran. Perhatikan tabel ANOVA berikut:

Linearitas6

Bila α yang ditentukan adalah 5%, maka berdasarkan keluaran di atas, dapat disimpulkan bahwa data yang dipergunakan dapat dijelaskan oleh regresi linier dengan cukup baik karena nilai Sig. linearity data tersebut adalah sebesar 0,017 (lebih kecil dari 0,05) dan nilai Sig. deviation from linearity data tersebut adalah sebesar 0,315 (lebih besar dari 0,05). Selamat mencoba :).

Daftar Referensi

Prihadi Utomo, Yuni. (2007). Eksplorasi Data dan Analisis Regresi dengan SPSS. Surakarta: Muhammadiyah University Pess.

Widhiarso, Wahyu.(2010). Catatan Pada Uji Linearitas Hubungan. Fakultas Psikologi UGM.

Uji Otokorelasi dengan SPSS

Ketika hasi estimasi statistik (hasil regresi) telah didapatkan, tidak dengan sendirinya hasil ini bisa digunakan sebagai dasar pengambilan keputusan. Hasil regrasi harus diuji untuk memastikan terpenuhinya asumsi klasik. Uji otokorelasi merupakan salah satu uji asumsi klasik yang biasa dilakukan.

Otokorelasi terjadi apabila nilai variabel masa lalu memiliki pengaruh terhadap nilai variabel masa kini. Otokorelasi akan menyebabkan estimasi nilai ut yang terlalu rendah, dan karenanya menghasilkan estimasi yang terlalu tinggi untuk nilai koefisien korelasi. Bahkan ketika estimasi nilai variasi ut tidak terlalu rendah, maka estimasi nilai variasi dari koefisien regresi mungkin akan terlalu rendah, dan karenanya uji t dan uji F menjadi tidak valid lagi atau menghasilkan konklusi yang menyesatkan. Banyak orang menggunakan uji Durbin Watson untuk melakukan uji otokorelasi, namun adakalanya uji Durbin Watson memberikan hasil yang menyatakan bahwa data yang diuji tidak dapat dipastikan apakah lolos dari masalah otokorelasi atau tidak. Sebagai alternatif, kita dapat menggunakan uji run test, uji ini dipergunakan untuk melihat apakah data residual bersifat acak atau tidak. Bila tidak acak, berarti terjadi masalah autokorelasi. Residual regresi diolah dengan uji run test, kemudian dibandingkan dengan tingkat signifikasi (α) yang dipergunakan. Apabila nilai hasil uji run test lebih besar daripada tingkat signifikasi (α), maka tidak terdapat masalah otokorelasi pada data yang diuji.

Uji run test dapat dilakukan dengan lebih cepat bila kita dibantu oleh SPSS, terutama bila datanya ratusan atau bahkan ribuan. Secara sederhana, berikut contoh penggunaan SPSS dalam pengujian otokorelasi:

1. Masukkan data ke dalam SPSS Data Editor. Pada contoh ini terdapat 10 data, 1 variabel terikat (Y) dan 5 variabel bebas (X1, X2, X3, X4, X6).

Contoh Normalitas Residu 1

2. Regresikan data tersebut dengan memilih menu Analyze, kemudian Regression, lalu Linear…

Contoh Normalitas Residu 2

3. Masukkan semua variabel bebas ke kolom Independent(s) dan variabel terikat ke kolom Dependent, kemudian klik Save….

Contoh Normalitas Residu 3

4. Checklist Unstandardized pada kolom Residuals, lalu klik Continue, kemudian pilih Ok sehingga keluar output regresi pada SPSS Statistics Viewer.

Contoh Normalitas Residu 4

5. Kembali periksa layar SPSS Data Editor, akan muncul kolom baru di bagian kanan dengan judul  RES_1, itu merupakan residual regresi. Pilih menu Analyze, kemudian Nonparametric Test, lalu Legacy Dialogs, kemudian klik Runs…

Otokorelasi 1

6. Pindahkan RES_1 ke kolom sebelah kanan lalu klik Ok.

Otokorelasi 2

7. Perhatikan keluaran uji run test di bawah ini, nilai yang dibandingkan adalah Asymp. Sig. (2-tailed) yaitu 0,737.

Otokorelasi 3

Bila α yang ditentukan adalah 5%, maka hasil run test lebih besar daripada 0,05. Dengan demikian, data yang dipergunakan cukup random sehingga tidak terdapat masalah otokorelasi pada data yang diuji. Gampang khannn :mrgreen:.

Daftar Referensi

Prihadi Utomo, Yuni. (2007). Eksplorasi Data dan Analisis Regresi dengan SPSS. Surakarta: Muhammadiyah University Pess.

Murhadi, Werner. Pengujian Asumsi Regresi. (2011). Diakses: 30 Mei 2013. http://wernermurhadi.wordpress.com/2011/07/18/asumsi-klasik/

Uji Heterokedastisitas dengan SPSS

Ketika hasi estimasi statistik (hasil regresi) telah didapatkan, tidak dengan sendirinya hasil ini bisa digunakan sebagai dasar pengambilan keputusan. Hasil regrasi harus diuji untuk memastikan terpenuhinya asumsi klasik. Uji heterokedastisitas merupakan salah satu uji asumsi klasik yang biasa dilakukan.

Heteroskedastisitas terjadi apabila variasi residual regresi (ut) tidak konstan atau berubah-ubah secara sistematik seiring dengan berubahnya nilai variabel independen. Konsekuensi dari keberadaan heteroskedastisitas adalah analisis regresi akan menghasilkan estimator yang bias untuk nilai variasi udan dengan demikian variasi dari koefisien regresi. Akibatnya uji t, uji F dan estimasi nilai variabel dependen menjadi tidak valid. Uji yang dipergunakan adalah uji Spearman dimana dilakukan perhitungan dari korelasi rank spearman antara variabel absolut ut dengan variabel-variabel bebas. Kemudian nilai dari semua rank spearman tersebut dibandingkan dengan nilai signifikasi yang ditentukan. Masalah heterokedastisitas tidak terjadi bila nilai rank spearman antara variabel absolut residual regresi dengan variabel-variabel bebas lebih besar dari nilai signifikasi (α).

Untuk lebih jelasnya, mari kita lihat contoh di bawah ini:

1. Masukkan data ke dalam SPSS Data Editor. Pada contoh ini terdapat 10 data, 1 variabel terikat (Y) dan 5 variabel bebas (X1, X2, X3, X4, X6).

Contoh Normalitas Residu 1

2. Regresikan data tersebut dengan memilih menu Analyze, kemudian Regression, lalu Linear…

Contoh Normalitas Residu 2

3. Masukkan semua variabel bebas ke kolom Independent(s) dan variabel terikat ke kolom Dependent, kemudian klik Save….

Contoh Normalitas Residu 3

4. Checklist Unstandardized pada kolom Residuals, lalu klik Continue, kemudian pilih Ok sehingga keluar output regresi pada SPSS Statistics Viewer.

Contoh Normalitas Residu 4

5. Kembali periksa layar SPSS Data Editor, akan muncul kolom baru di bagian kanan dengan judul  RES_1, itu merupakan residual regresi.Karena yang dibandingkan dengan metode Spearman adalah nilai absolut dari residual regresi, maka kita cari dulu berapa nilai absolut dari RES_1 dengan memilih menu Transform, lalu klik Compute Variable…

Heterokedastisitas 1

6. Ketik abs(RES_1) pada kolom Numeric Expression, kemudian ketiklah sebuah nama yang mudah diingat pada kolom Target Variable, kali ini saya contohkan namanya Absres. Kemudian klik Ok dan akan muncul 1 kolom lagi di sebelah kanan kolom RES_1 pada SPSS Data Editor dengan nama kolom sesuai nama yang kita masukkan pada  kolom Target Variable tadi.

Heterokedastisitas 2

7. Untuk mencari korelasi rank spearman, pilih menu Analyze, lalu Correlate, kemudian klik Bivariate…

Heterokedastisitas 3

6. Pindahkan semua variabel bebas dan Absres (nilai absolut residu regresi) ke sebelah kanan kemudian checklist Spearman pada kolom Correlation Coefficients, kemudian klik Ok.

Heterokedastisitas 4

7. Perhatikan kolom Correlations pada keluaran SPSS Statistics Viewer.

Heterokedastisitas 5

Berdasarkan tabel di atas, dapat diperoleh hasil bahwa korelasi rank spearman antara X1 dengan Ut adalah 0,266, korelasi rank spearman antara X2 dengan Ut adalah 0,244, korelasi rank spearman antara X3 dengan Ut adalah 0,318 dan seterusnya dapat diamati dengan cara yang sama untuk korelasi rank spearman antara Udengan variabel-variabel bebas lainnya. Misalkan nilai signifikasi (α) yang digunakan adalah 5%, maka masalah heterokesatisitas dapat dikatakan tidak terjadi karena semua nilai korelasi rank spearman lebih besar dari 0,05.

Agak panjang caranya, tapi semua menjadi lebih cepat dikerjakan dengan bantuan SPSS, tetap cemunguuudth! 🙂

Daftar Referensi

Elcom. (2010). Seri Belajar Kilat SPSS 18. Yogyakarta: Penerbit Andi.

Prihadi Utomo, Yuni. (2007). Eksplorasi Data dan Analisis Regresi dengan SPSS. Surakarta: Muhammadiyah University Pess.

Uji Normalitas Residu dengan SPSS

Ketika hasi estimasi statistik (hasil regresi) telah didapatkan, tidak dengan sendirinya hasil ini bisa digunakan sebagai dasar pengambilan keputusan. Hasil regrasi harus diuji untuk memastikan terpenuhinya asumsi klasik. Uji normalitas residu merupakan salah satu uji asumsi klasik yang biasa dilakukan.

Asumsi normalitas gangguan atau error (ut) penting sekali sebab uji eksistensi model (uji F) maupun uji validitas pengaruh variabel independen (uji t), dan estimasi nilai variabel dependen mensyaratkan hal ini. Apabila asumsi ini tidak terpenuhi, baik uji F maupun uji t, dan estimasi nilai variabel dependen menjadi tidak valid. ut diperoleh dari regresi variabel-variabel yang ada yaitu:

Yt=  a + bX1t + cX2t + dX3t+ eX4t+ fX5t+gX6t + hX7t + ut

Uji normalitas yang dipergunakan adalah uji Jarque Bera. Nilai statistik Jarque Bera (JB) untuk ut diperoleh dengan persamaan:

Normalitas Residu 1

Dimana:

S = Skewness (Kemiringan).

K = Kurtosis (Keruncingan).

N = Banyaknya Data.

Nilai JB yang diperoleh kemudian dibandingkan dengan nilai tabel Chi Kuadrat. Apabila  lebih besar dari JB maka distribusi residual persamaan regresi tidak normal.

Nilai Skewness & Kurtosis dapat diperoleh dengan bantuan software SPSS. Berikut contoh langkah-langkahnya:

Karena nilai Skewness & Kurtosis diperoleh dengan menggunakan SPSS, maka untuk menghitung nilai JB, Kurtosis tidak perlu dikurangi 3 sehingga:

Normalitas Residu 2

Nilai JB kemudian dibandingkan dengan nilai Chi Kuadrat dengan df = 2 dan tingkat signifikasi tertentu bergantung dari penelitian dan data yang dipergunakan. Distribusi residu dikatakan normal bila JB lebih kecil dari nilai Chi Kuadrat yang diperoleh dari tabel Chi Kuadrat berikut:

Normalitas Residu 5

Diperoleh bahwa nilai Chi Kuadrat dengan df = 2 dan tingkat signifikansi (α) = 5% adalah 5,99. Chi Kuadrat dengan df = 2 dan tingkat signifikansi (α) = 1% adalah 9,21. Chi Kuadrat dengan df = 2 dan tingkat signifikansi (α) = 0,1% adalah 13,82.

Tingkat signifikansi (α) sendiri menunjukkan peluang kesalahan yang ditetapkan dalam mengambil keputusan untuk menolak atau mendukung hipotesis nol, atau dapat diartikan juga sebagai tingkat kesalahan atau tingkat kekeliruan yang ditolelir, yang diakibatkan oleh kemungkinan adanya kesalahan dalam pengambilan sampel. Sementara itu tingkat kepercayaan pada dasarnya menunjukkan tingkat kepercayaan sejauhmana statistik sampel dapat mengestimasi dengan benar parameter populasi. Dalam statistika, tingkat kepercayaan nilainya berkisar antara 0 sampai 100%. Secara konvensional, para peneliti dalam ilmu-ilmu sosial sering menetapkan tingkat kepercayaan antara 95% – 99%. Dalam penelitian dunia kedokteran, tingkat kepercayaan paling tidak harus bernilai 99%.

Untuk lebih jelasnya, mari kita lihat contoh di bawah ini:

1. Masukkan data ke dalam SPSS Data Editor. Pada contoh ini terdapat 10 data, 1 variabel terikat (Y) dan 5 variabel bebas (X1, X2, X3, X4, X6).

Contoh Normalitas Residu 1

2. Regresikan data tersebut dengan memilih menu Analyze, kemudian Regression, lalu Linear…

Contoh Normalitas Residu 2

3. Masukkan semua variabel bebas ke kolom Independent(s) dan variabel terikat ke kolom Dependent, kemudian klik Save….

Contoh Normalitas Residu 3

4. Checklist Unstandardized pada kolom Residuals, lalu klik Continue, kemudian pilih Ok sehingga keluar output regresi pada SPSS Statistics Viewer.

Contoh Normalitas Residu 4

5. Kembali periksa layar SPSS Data Editor, akan muncul kolom baru di bagian kanan dengan judul  RES_1, itu merupakan resual regresi. Nilai itulah yang akan diuji normalitasnya. Lakukang pengujian dengan memilih Analyze, lalu Descriptive Statistics, kemudian klik Descriptives…

Contoh Normalitas Residu 5

6. Masukkan RES_1 ke kolom kanan lalu pilih Options…

Contoh Normalitas Residu 6

7. Checklist pilihan Kurtosis dan Skewness pada kolom Distribution, lalu klik Continue, kemudian klik Ok. Akan muncul kolom Descriptive Statistics pada SPSS Statistics Viewer. Nilai Skewnessnya adalah 0,727 dan Kurtosisnya adalah 0,486.

Contoh Normalitas Residu 8

8. Masukan ke dalam rumus JB berikut:

Contoh Normalitas Residu 9

Sehingga diperoleh nilai JB sebesar 0,987. Bila tingkat signifikasi yang dipilih adalah 5%, maka nilai Chi Kuadrat dengan df = 2 adalah sebesar 5,99. Nilai JB lebih kecil dari 5,99, maka tidak ada masalah normalitas residu pada data-data ini. Selamat mencoba 🙂

Daftar Referensi

Abdurahman, Maman, Muhidin, Sambas & Somantri, Ating. (2012). Dasar-Dasar Metode Statistika Untuk Penelitian. Bandung: CV. Pustaka Setia.

http://home.comcast.net/~sharov/PopEcol/tables/chisq.html

Prihadi Utomo, Yuni. (2007). Eksplorasi Data dan Analisis Regresi dengan SPSS. Surakarta: Muhammadiyah University Pess.

Uji Multikolinearitas dengan SPSS

Ketika hasi estimasi statistik (hasil regresi) telah didapatkan, tidak dengan sendirinya hasil ini bisa digunakan sebagai dasar pengambilan keputusan. Hasil regrasi harus diuji untuk memastikan terpenuhinya asumsi klasik. Uji multikolinearitas merupakan salah satu uji asumsi klasik yang biasa dilakukan.

Masalah multikolinearitas muncul jika terdapat hubungan yang sempurna atau pasti di antara satu atau lebih variabel independen dalam model. Dalam kasus terdapat multikolinearitas yang serius, koefisien regresi tidak lagi menunjukkan pengaruh murni dari variabel independen dalam model. Dengan demikian, bila tujuan dari penelitian adalah mengukur arah dan besarnya pengaruh variabel independen secara akurat, masalah multikoliniearitas penting untuk diperhitungkan. Pilihan metode pengujian yang dapat dipergunakan antara lain adalah uji VIF (Variance Inflation Factor), uji Park dan uji CI (Condition Index). Kali ini saya akan membahas uji VIF dengan bantuan SPSS. Apabila nilai VIF di bawah 10, maka tidak terdapat masalah multikolinearitas.

Uji multikolinearitas dapat dilakukan dengan bantuan software SPSS.  Langkah-langkahnya antara lain adalah sebagai berikut:

1. Masukkan data variabel bebas dan variabel terikat pada SPSS data editor. Pada contoh kali ini, jumlah datanya ada 15, terdapat 4 variabel bebas (X1, X2, X3, X4) dan terdapat 1 variabel terikat (Y).

Regresi SPSS 1

2. Pilih menu Analyze, kemudian Regression, lalu Linear…

Regresi SPSS 2

3. Masukkan semua variabel bebas ke kolom Independent(s) dan variabel terikat ke kolom Dependent, kemudian klik Statistics….

Regresi SPSS 3

4. Checklist pilihan Collinearity diagnostics lalu klik Continue, kemudian klik OK.

Multikolinearitas 1

5. Akan muncul beberapa tabel pada keluaran. Perhatikan tabel Coefficients berikut:

Multikolinearitas 2

Nilai VIF X1 adalah 9,709, VIF X2 adalah 1,95, VIF X3 adalah 4,574 dan VIF X4 adalah 2,654. Semuanya lebih kecil dari 10 sehingga tidak ada masalah multikolinearitas. Nahh, gampang khan :mrgreen:.

Daftar Referensi

Elcom. (2010). Seri Belajar Kilat SPSS 18. Yogyakarta: Penerbit Andi.

Prihadi Utomo, Yuni. (2007). Eksplorasi Data dan Analisis Regresi dengan SPSS. Surakarta: Muhammadiyah University Pess.

Analisis Korelasi dengan SPSS

Tidak hanya analisis regresi, analisis korelasi juga dapat dilakukan dengan bantuan SPSS. Berbeda dengan analisis regresi, analisis korelasi dimaksudkan untuk mengetahui seberapa kuatkah hubungan antara satu atau beberapa variabel dengan suatu variabel lain. Hal tersebut dilaksanakan dengan mencari koefisien korelasi antar variabel. Ada yang disebut koefisien korelasi simultan, ada yang disebut koefisien korelasi parsial. Koefisien korelasi simultan menunjukkan kekuatan hubungan antara semua variabel bebas dan variabel terikat yang ada, sedangkan koefisien korelasi parsial menunjukkan hubungan antara suatu variabel dengan suatu variabel lain ketika variabel lain yang tidak dicari koefisien korelasi parsialnya dianggap konstan.

Langkah-langkahnya untuk mencari koefisien parsial dengan menggunakan persamaan Pearson pada SPSS adalah sebagai berikut:

1. Masukkan data variabel bebas dan variabel terikat pada SPSS data editor. Pada contoh kali ini, jumlah datanya ada 12, terdapat 4 variabel bebas (X1,X2,X3,X4) dan terdapat 1 variabel terikat (Y).

Korelasi SPSS 1

2. Pilih Menu Analyze, kemudian Correlate, lalu Bivariate…

Korelasi SPSS 2

3. Masukkan semua variabel ke kolom Variables, checklist pilihan Pearson, kemudian klik OK.

Korelasi SPSS 3

4. Akan muncul keluaran dalam bentuk tabel Correlations berikut

Korelasi SPSS 4

Dari tabel di atas dapat diperoleh informasi bahwa:

  • Koefisien korelasi parsial antara Y dan X1 adalah 0,028. Hubungan antara X1 dengan Y ketika variabel bebas lainnya konstan adalah sangat lemah.
  • Koefisien korelasi parsial antara Y dan X2 adalah 0,06. Hubungan antara X2 dengan Y ketika variabel bebas lainnya konstan adalah sangat lemah.
  • Koefisien korelasi parsial antara Y dan X3 adalah 0,065. Hubungan antara X3 dengan Y ketika variabel bebas lainnya konstan adalah sangat lemah.
  • Koefisien korelasi parsial antara X2 dan X4 adalah 0,132. Hubungan antara X2 dengan X4 ketika variabel bebas lainnya konstan adalah sangat lemah.
  • Cara membaca informasi dan telaah yang sama, berlaku pula pada hubungan antara variabel-variabel lain yang ada pada tabel.

Sementara itu koefisien korelasi simultan dengan SPSS dapat diperoleh ketika mencari persamaan regresi-nya, hanya saja yang diperhatikan bukanlah kolom Coefficients pada keluaran, tapi kolom Model Summary. Kita ambil contoh sama seperti ketika saya menulis tentang “Analisis Regresi Linier dengan SPSS” kemarin sebagai berikut:

1. Masukkan data variabel bebas dan variabel terikat pada SPSS data editor. Pada contoh kali ini, jumlah datanya ada 15, terdapat 4 variabel bebas (X1, X2, X3, X4) dan terdapat 1 variabel terikat (Y).

Regresi SPSS 1

2. Pilih Menu Analyze, kemudian Regression, lalu Linear…

Regresi SPSS 2

3. Masukkan semua variabel bebas ke kolom Independent(s) dan variabel terikat ke kolom Dependent, kemudian klik OK.

Regresi SPSS 3

4. Akan muncul beberapa tabel pada keluaran. Perhatikan tabel Model Summary berikut

Regresi SPSS 5

Dari kolom keluaran SPSS di atas, dapat diperoleh informasi bahwa koefisien korelasi simultan adalah 0,973. Nilai ini menunjukkan bahwa hubungan antara semua variabel bebas denga variabel terikat adalah sangat kuat. Selain itu dapat diperoleh pula informasi berapa koefisien determinasi adalah sebesar (0,947)2 x 100% = 94,7%. Nilai ini menunjukkan bahwa kontribusi semua variabel bebas terhadap variabel terikat secara simultan adalah sebesar 94,7%. Sementara itu 5,3% sisanya merupakan kontribusi dari faktor-faktor lain selain faktor yang diwakili oleh variabel bebas pada contoh ini.

Perlu diingat bahwa SPSS dan analisis korelasi hanyalah merupakan alat bantu dalam menemukan sebab akibat. Nilai-nilai yang terdapat dapat kolom keluaran SPSS perlu dianalisa lebih lanjut sesuai teori dan logika yang melatarbelakangi dilakukannya analisis korelasi.

 Daftar Referensi

Abdurahman, Maman, Muhidin, Sambas & Somantri, Ating. (2012). Dasar-Dasar Metode Statistika Untuk Penelitian. Bandung: CV. Pustaka Setia.

Prihadi Utomo, Yuni. (2007). Eksplorasi Data dan Analisis Regresi dengan SPSS. Surakarta: Muhammadiyah University Pess.

Siregar, Syofian. (2013). Statistik Parametrik untuk Penelitian Kualitatif. Jakarta: Bumi Aksara.

Analisis Regresi Linier dengan SPSS

Saat ini terdapat berbagai software yang dapat membantu perhitungan statistik, SPSS adalah salah satunya. Kali ini saya akan membahas bagaimana mencari persamaan regresi linier dengan bantuan SPSS. Persamaan regresi linier dipergunakan untuk melihat seperti apa besar dan bentuk pengaruh satu atau beberapa variabel bebas terhadap suatu variabel terikat dalam bentuk persamaan linier.

SPSS yang saya pergunakan adalah SPSS versi 21. Sebenarnya setiap versi pasti ada kelebihan dan kekurangannya tapi penggunaannya kurang lebih sama, tidak jauh berbeda. Berikut langkah-langkah yang dapat dilakukan:

1. Masukkan data variabel bebas dan variabel terikat pada SPSS data editor. Pada contoh kali ini, jumlah datanya ada 15, terdapat 4 variabel bebas (X1, X2, X3, X4) dan terdapat 1 variabel terikat (Y).

Regresi SPSS 1

2. Pilih Menu Analyze, kemudian Regression, lalu Linear…

Regresi SPSS 2

3. Masukkan semua variabel bebas ke kolom Independent(s) dan variabel terikat ke kolom Dependent, kemudian klik OK.

Regresi SPSS 3

4. Akan muncul keluaran dalam bentuk beberapa tabel. Perhatikan tabel Coefficients, nilai pada kolom B merupakan koefisien konstanta (a) dan koefisen-koefisien regresi masing-masing variabel bebas.

Regresi SPSS 4

Dengan melihat tabel output SPSS di atas, dapat diperoleh persamaan regresi sebagai berikut: Y =  13012035921 – 485540,039X1 – 20032,786X2 + 5202,78X3 – 112022,389X4

Besar nilai konstanta sebesar 13012035921 pada persamaan regresi di atas menunjukan bahwa pendapatan Y akan tetap sebesar 13012035921 tanpa adanya pengaruh dari variabel-variabel bebas. Bila variabel X1 meningkat sebesar 1 satuan, maka nilai Y akan berkurang sebesar 485540,039. Bila variabel X2 meningkat sebesar 1 satuan, maka nilai Y akan berkurang sebesar 20032,786. Bila variabel X3 meningkat sebesar 1 satuan, maka nilai Y akan bertambah sebesar 5202,78. Bila variabel X4 meningkat sebesar 1 satuan, maka nilai Y akan berkurang sebesar 112022,389.

Nah, gampang khan, ini jauh lebih cepat dibandingkan menghitung manual menggunakan matriks determinan. Selamat mencoba :D.

 Daftar Referensi

Abdurahman, Maman, Muhidin, Sambas & Somantri, Ating. (2012). Dasar-Dasar Metode Statistika Untuk Penelitian. Bandung: CV. Pustaka Setia.

Prihadi Utomo, Yuni. (2007). Eksplorasi Data dan Analisis Regresi dengan SPSS. Surakarta: Muhammadiyah University Pess.

Siregar, Syofian. (2013). Statistik Parametrik untuk Penelitian Kualitatif. Jakarta: Bumi Aksara.

Analisis Korelasi Lebih dari 2 Variabel Bebas

Korelasi pada dasarnya merupakan nilai yang menunjukan tentang adanya hubungan antara dua variabel atau lebih serta besarnya hubungan tersebut, ini berarti bahwa korelasi tidak menunjukan hubungan sebab akibat. Apabila dipahami sebagai suatu hubungan sebab akibat, hal itu bukan karena diketahuinya koefisien korelasi melainkan karena rujukan teori atau logika yang memaknai hasil perhitungan, oleh karena itu analisis korelasi mensyaratkan acuan teori yang mendukung adanya hubungan sebab akibat dalam variabel-variabel yang dianalisa hubungannya. Koefisien korelasi untuk 2 buah variabel X dan Y dengan jumlah data sebesar N, dapat dihitung dengan menggunakan rumus yang dikembangkan oleh Karl Pearson, yaitu [1]:

Korelasi 1

Untuk menghitung koefisien korelasi ganda dapat digunakan rumus berikut [1]:

Korelasi 2                                                     Dimana:

ryx1= Koefisien korelasi antara variabel x1 dengan variabel y

ryx2= Koefisien korelasi antara variabel x2 dengan variabel y

Sementara itu pada keadaan dimana terdapat lebih dari 2 variabel bebas, koefisien korelasi juga padat dicari nilainya dengan pola yang sama. Contohnya adalah untuk mencari koefisien korelasi ketika terdapat 7 variabel bebas dan 1 variabel terikat, dapat dipergunakan persamaan sebagai berikut:

Korelasi 3

Dimana:

Korelasi 4

Untuk kekuatan hubungannya, nilai koefisien korelasi berada di antara -1 sampai 1, sedangkan untuk arah dinyatakan dalam bentuk positif (+) dan negatif (-) [2].

Persamaan-persamaan di atas merupakan persamaan untuk memperoleh koefisien korelasi simultan atau bersama semua variabel bebas terhadap variabel terikat. Untuk mencari berapa koefisien korelasi salah satu variabel bebas terhadap variabel terikat ketika variabel bebas yang lain dianggap konstan, dipergunakan persamaan korelasi parsial sebagai berikut [2]:

Korelasi 5

Koefisien korelasi parsial dimaksudkan untuk mencari tahu seberapakuatkah, hubungan salah satu atau beberapa variabel bebas terhadap variabel terikat secara parsial, tidak simultan atau bersama-sama.

Koefisien korelasi menunjukan berapa besar varians total satu variabel berhubungan dengan varians variabel lain. Hal ini berarti bahwa tiap nilai r  perlu ditafsirkan posisinya dalam keterkaitan tersebut. Untuk memberikan tafsiran pada nilai koefisien korelasi, dapat digunakan referensi guilford empirical rules pada tabel 1.

Tabel 1. Penafsiran Koefisien Korelasi [1]

Besar ryx

Penafsiran

0,00 – < 0,20

Hubungan sangat lemah (diabaikan, dianggap tidak ada)

≥ 0,20 – < 0,40

Hubungan rendah atau lemah

≥ 0,40 – < 0,70

Hubungan sedang atau cukup

≥ 0,70 – < 0,90

Hubungan kuat

≥ 0,90 – ≤ 1,00

Hubungan sangat kuat

Setelah nilai koefisien korelasi diperoleh, nilai koefisien determinasi juga dapat diperoleh dengan persamaan berikut [2] :

KP = (Rx1,x2,y)2 x 100%

Nilai KP pada persamaan di atas menunjukan seberapa besar nilai variabel bebas x1 dan x2 mempengaruhi nilai variabel terikat y. Nilai (1 – KP) akan menunjukkan persentase besarnya pengaruh faktor-faktor lain di luar faktor yang ada pada variabel bebas, dalam mempengaruhi variabel terikat y.

Untuk lebih jelasnya, mari kita ambil contoh kasus ketika seorang peneliti memiliki data yang terdiri dari 7 variabel terikat dan 1 variabel bebas sebagai berikut:

Tabel Regresi Korelasi 1

Kemudian dilakukan perhitungan untuk X1.X1, X1.X2 dan sebagainya sehingga diperoleh hasil sebagai berikut:

Tabel Regresi Korelasi 4 Tabel Regresi Korelasi 5 Tabel Regresi Korelasi 6 Tabel Regresi Korelasi 2 Tabel Regresi Korelasi 3

Koefisien korelasi persial ketujuh variabel bebas dapat langsung dihitung dengan cara sebagai berikut:

Korelasi 6

Nilai rx1,y sebesar -0,901 menunjukkan bahwa hubungan X1 dengan Y ketika variabel bebas lainnya konstan, adalah sangat kuat. Nilai rx1,y sebesar 0,305 menunjukkan bahwa hubungan X2 dengan Y ketika variabel bebas lainnya konstan, adalah lemah. Nilai rx3,y sebesar -0,67 menunjukkan bahwa hubungan X3 dengan Y ketika variabel bebas lainnya konstan, adalah sedang atau cukup. Nilai rx4,y sebesar 0,133 menunjukkan bahwa hubungan X4 dengan Y ketika variabel bebas lainnya konstan, adalah sangat lemah. Nilai rx5,y sebesar -0,818 menunjukkan bahwa hubungan X5 dengan Y ketika variabel bebas lainnya konstan, adalah kuat. Nilai rx6,y sebesar -0,048 menunjukkan bahwa hubungan X6 dengan Y ketika variabel bebas lainnya konstan, adalah sangat lemah. Nilai rx7,y sebesar -0,66 menunjukkan bahwa hubungan X7 dengan Y ketika variabel bebas lainnya konstan, adalah sedang atau cukup.

Untuk mencari berapa koefisien korelasi simultannya, kita cari dahulu persamaan regresinya. Dengan menggunakan cara yang telah saya paparkan kemarin pada blog ini di posting-an yang berjudul “Analisi Regresi Linier Sederhana & Berganda”, dapat diperoleh bahwa persamaan regresi dari contoh kasus ini adalah:

Y=  13012225228,72 – 328691,82X1 + 693120,34X2 – 101663,12X3 – 46165,27X4 –  128872,53X5   –   607387,29X6   –   265348,47X7

Nah, kita dapat lihat bahwa nilai b1 adalah 328691,82, nilai b2 adalah 693120,34, nilai b3 adalah 101663,12 dan seterusnya. Dengan memasukkan nilai-nilai yang telah diperoleh ke dalam persamaan untuk mencari koefisien korelasi 7 variabel bebas, diperoleh:

Korelasi 7

Nilai Rsimultan sebesar 0,932 menunjukkan bahwa hubungan secara simultan antara variabel X1, X2, X3, X4, X5, X6 dan X7 terhadap Y adalah sangat kuat. Setelah nilai koefisien korelasi simultan diperoleh, nilai koefisien determinan (KP) juga dapat diperoleh. Dengan menggunakan persamaan yang telah dijelaskan dimuka, diperoleh koefisien determinasi (KP) sebesar 86,93%. Nilai ini menunjukkan kontribusi semua variabel bebas terhadap variabel terikat secara simultan adalah sebesar 86,93%. Sementara itu 13,07% sisanya merupakan kontribusi dari faktor-faktor lain selain faktor yang diwakili oleh variabel bebas.

 Daftar Referensi

[1]  Abdurahman, Maman, Muhidin, Sambas & Somantri, Ating. (2012). Dasar-Dasar Metode Statistika Untuk Penelitian. Bandung: CV. Pustaka Setia.

[2]  Siregar, Syofian. (2013). Statistik Parametrik untuk Penelitian Kualitatif. Jakarta: Bumi Aksara.

Analisis Regresi Linier Sederhana & Berganda

Analisis regresi dipergunakan untuk menggambarkan garis yang menunjukan arah hubungan antar variabel, serta dipergunakan untuk melakukan prediksi. Analisa ini dipergunakan untuk menelaah hubungan antara dua variabel atau lebih, terutama untuk menelusuri pola hubungan yang modelnya belum diketahui dengan sempurna. Regresi yang terdiri dari satu variabel bebas (predictor) dan satu variabel terikat (Response/Criterion) disebut regresi linier sederhana (bivariate regression), sedangkan regresi yang variabel bebasnya lebih dari satu disebut regresi berganda (Multiple regression/multivariate regression), yang dapat terdiri dari dua prediktor (regresi ganda) maupun lebih. Adapun bentuk persamaan umumnya adalah [1] :

Y= a + bX

Dimana:

Regresi 1

Tanda positif pada nilai b atau koefisien regresi menunjukkan bahwa antara variabel bebas dengan variabel terikat berjalan satu arah, di mana setiap penurunan atau peningkatan variabel bebas akan diikuti dengan peningkatan atau penurunan variabel terikatnya. Sementara tanda negatif pada nilai b menunjukkan bahwa antara variabel bebas dengan variabel terikat berjalan dua arah, di mana setiap peningkatan variabel bebas akan diikuti dengan penurunan variabel terikatnya, dan sebaliknya [1].

Ketika variable bebas lebih dari 2, nilai konstanta dan variable regresi setiap variabel bebas dapat diperoleh dengan menggunakan matriks determinan [2]. Contohnya adalah ketika terdapat 3 persamaan dengan 3 variabel yang tidak diketahui nilainya, yaitu a, b1, b2 & b3, persamaan tersebut dapat dinyatakan dalam persamaan matriks sebagai berikut:

Regresi 2

Maka Matriks A0, A1, A2 dan A3 adalah:

Regresi 3

Kemudian dapat dilakukan perhitungan untuk determinasi matriks A, A0, A1, A2 dan A3 sebagai berikut:

Det(A) = {N. ∑(X1.X1). ∑(X2.X2). ∑(X3.X3)}+{ ∑X1. ∑(X1.X2). ∑(X2.X3). ∑X3}+{∑X2. ∑(X1.X3). ∑X2. ∑(X3.X1)}+{ ∑X3. ∑X1. ∑(X2.X1). ∑(X3.X2)}-{ ∑X3. ∑(X1.X2). ∑(X2.X1). ∑X3}-{∑X2. ∑(X1.X1). ∑X2. ∑(X3.X3)}-{ ∑X1. ∑X1. ∑(X3.X3)}-{ N. ∑(X1.X3). ∑(X2.X2). ∑(X3.X1)}

Dengan cara yang sama seperti menghitung Det(A), dapat diperoleh pula Det(A0), Det(A1), Det(A2) & Det(A3).

Kemudian dapat diperoleh nilai a, b1, b2, b3 sebagai berikut:

Regresi 4

Contoh lainnya adalah misalkan ketika terdapat 1 variabel terikat (Y) dan 7 variabel bebas sebagai berikut:

Tabel Regresi Korelasi 1

Kemudian dilakukan perhitungan untuk X1.X1, X1.X2 dan sebagainya sehingga diperoleh hasil sebagai berikut:

Tabel Regresi Korelasi 4 Tabel Regresi Korelasi 5 Tabel Regresi Korelasi 6 Tabel Regresi Korelasi 2 Tabel Regresi Korelasi 3

=  a + bX1 + cX2 + dX3+ eX4+ fX5+gX6 + hX7

Dimana:

X1= Variabel bebas 1

X2= Variabel bebas 2

X3= Variabel bebas 3

X4= Variabel bebas 4

X5= Variabel bebas 5

X6= Variabel bebas 6

X7= Variabel bebas 7

Y = Variabel terikat

a = Konstanta

b, c, d, e, f, g,h = Koefisien regresi masing-masing variabel bebas

Regresi 5

Regresi 6

Det(A) = 4,84 x 1026

Det(A0) = 6,3 x 1036

Det(A1) = -1,59 x 1032

Det(A2) = 3,35 x 1032

Det(A3) = -4,92 x 1031

Det(A4) = -2,23 x 1031

Det(A5) = -6,24 x 1031

Det(A6) = -2,94 x 1032

Det(A7) = -1,29x 1032

Regresi 7

Maka persamaan regresi dari contoh ini adalah:

Y =  13012225228,72 – 328691,82X1 + 693120,34X2 – 101663,12X3 – 46165,27X4 –  128872,53X5   –   607387,29X6   –   265348,47X7

Besar nilai konstanta sebesar 13012225228,72 pada persamaan regresi di atas menunjukan bahwa pendapatan Y akan tetap sebesar 13012225228,72 tanpa adanya pengaruh dari variabel-variabel bebas. Bila variabel X1 meningkat sebesar 1 satuan, maka nilai Y akan berkurang sebesar 328691,82. Bila variabel X2 meningkat sebesar 1 satuan, maka nilai Y akan bertambah sebesar 693120,34. Bila variabel X3 meningkat sebesar 1 satuan, maka nilai Y akan berkurang sebesar 101663,12. Bila variabel X4 meningkat sebesar 1 satuan, maka nilai Y akan berkurang sebesar 46165,27. Bila variabel X5 meningkat sebesar 1 satuan, maka nilai Y akan berkurang sebesar 128872,53. Bila variabel X6 meningkat sebesar 1 satuan, maka nilai pendapatan kotor PT. XYZ akan berkurang sebesar 607387,29. Bila variabel X7 meningkat sebesar 1 satuan, maka nilai Y akan berkurang sebesar 265348,47.

Perlu diingat bahwa analisis regresi tidak menunjukkan sebuah hubungan atau pengaruh sebab akibat, persamaan hasil dari analisis harus dianalisa kembali apakah sudah sesuai dengan pembuktian teori atau logika yang ada. Apabila terdapat ketidakcocokan, perlu dilakukan analisa lebih lanjut atau transformasi persamaan atau reduksi variabel.

Daftar Referensi

[1]  Abdurahman, Maman, Muhidin, Sambas & Somantri, Ating. (2012). Dasar-Dasar Metode Statistika Untuk Penelitian. Bandung: CV. Pustaka Setia.

[2]    J. Supratno. (2000). Statistik: Teori dan Aplikasi. Jakarta: Erlangga.