REGRESI LINEAR DAN REGRESI LINEAR BERGANDA

Istilah Regresi merupakan suatu konsep statistik yang pertama kali digunakan Sir Francis Galton yang melakukan suatu kajian tentang tinggi anak-anak yang dilahirkan dari orang tua yang tinggi. Kajiannya menunjukkan bahwa tinggi anak-anak yang dilahirkan dari para orang tua yang tinggi memiliki kecenderungan bergera atau regress menuju ketinggian rata-rata populasi.

Gujarati (2009) mendefinisikan pengertian regresi secara modern sebagai suatu kajian yang merupakan ketergantungan satu atau lebih variabel terhadap variabel lainnya (variabel eksplanatori) dengan tujuan memperkirakan besarnya nilai rata-rata variabel yang tergantung dari variabel eksplanatorinya. Levin dan Rubin (1998) menggunakan regresi untuk menentukan sifat-sifat dan untuk memprediksi besarnya nilai kekuatan hubungan dari suatu variabel berdasarkan observasi terhadap variabel lainnya. Levin dan Rubin juga menggunakan istilah analisis korelasi untuk menyebut regresi, sedangkan besarnya nilai hubungan menggunakan koefisien korelasi. Gujarati (2009) mendefinisikan analisis korelasi sebagai analisis untuk mengukur kekuatan atau tingkatan hubungan linear dari dua variabel.

Perbedaan mendasar dari regresi dan korelasi adalah penentuan variabel bebas dan terikat. Dalam regresi, sudah jelas mana saja yang menjadi variabel terikat maupun bebasnya, akan tetapi suatu korelasi hanya menyatakan hubungan dua variabel tanpa membedakan mana variabel bebas dan mana variabel tergantung.

Konsep linearitas dalam regresi ditunjukkan dalam dua parameter. Dua macam linearitas dalam analisis regresi yaitu linearitas dalam variabel dan linearitas dalam parameter. Linearitas dalam variabel merupakan nilai rata-rata kondisional variabel tergantung yang merupakan fungsi linear dari variabel bebas. Linearitas dalam parameter yaitu fungsi linear parameter dan dapat tidak linear dalam variabel.

Model kelayakan regresi linear dalam SPSS didasarkan pada beberapa hal berikut:

  1. Angka signifikansi pada ANOVA < 0,05
  2. Adanya kelayakan variabel bebas yang diketahui dari angka Standard Error of Estimate < Standar Deviation
  3. Adanya signifikansi dari regresi yang dihitung dengan uji t dengan ketentuan t hitung > t tabel (nilai kritis). Dengan uji ini juga dapat dilihat dari nilai signifikansi (sig) dimana jika sig < 0,05 maka regresi signifikan, dan sebaliknya jika sig > 0,05 maka regresi tidak linear.
  4. Tidak boleh terjadi multikolinearitas. Multikolinearitas yaitu korelasi antar variabel bebas. Syarat ini berlaku dalam regresi linear berganda yaitu yang memiliki variabel bebas lebih dari satu. Adanya multikolinearitas yaitu jika koefisien korelasi antar variabel bebas > 0,7 atau < – 0,7.
  5. Tidak terjadi autokorelasi jika -2 ≤ DW ≤ 2.
  6. Adanya keselarasan model yang digambarkan dengan r², dimana jika angka tersebut semakin tinggi yaitu mendekati  angka 1 maka model regresi semakin baik. Nilai r² memiliki karakteristik yaitu: selalu positif dan nilai r² maksimal sebesar 1. Jika nilai r² mencapai 1 maka mencapai kesempurnaan, sebaliknya jika r² sama dengan 0 maka tidak ada hubungan antara variabel bebas dan terikat.
  7. Adanya hubungan linear antara variabel bebas dan variabel terikat.
  8. Data harus terdistribusi dengan normal.
  9. Data berskala rasio atau interval.
  10. Terdapat hubungan dependensi, artinya satu variabel merupakan variabel tergantung pada variabel lainnya.

Dalam regresi linear dibagi menjadi 2 yaitu Regresi Linear Sederhana dan Regresi Linear Berganda.

1. Regresi Linear Sederhana

Regresi ini merupakan hubungan antara satu variabel bebas (independen) dan satu variabel terikat (dependen). Persamaan regresi linear sederhana dirumuskan sebagai berikut:

Y = α + βX

Y : variabel yang diprediksi

α : konstanta

β : koefisien regresi

X : variabel bebas (independen)

Contoh perhitungan dapat dilihat dalam materi perhitungan regresi linear dan linear berganda dengan SPSS.

2. Regresi Linear Ganda

Regresi ini merupakan hubungan antara minimal dua variabel bebas dan satu variabel terikat. Persamaan regresi linear dapat dirumuskan sebagai berikut:

Persamaan regresi dua prediktor:  Y = α + β1X1 + β2X2

Persamaan regresi tiga prediktor:  Y = α + β1X1 + β2X2 + β3X3

Persamaan regresi tiga prediktor:  Y = α + β1X1 + β2X2 + …. + βnXn

Hal yang perlu diperhatikan adalah ketika menguji suatu hipotesis menggunakan regresi linear baik sederhana maupun berganda terdapat uji prasyarat untuk menguji apakah data yang telah diperoleh di lapangan layak untuk uji linear yaitu dengan Uji Asumsi Klasik dan Uji Asumsi Dasar.

Leave a Reply

Your email address will not be published. Required fields are marked *

Scroll to top
Open chat