E-Jurnal Matematika Vol. 3, No.1 Januari 2014, 8-16

ISSN: 2303-1751

PENERAPAN REGRESI AKAR LATEN DALAM MENANGANI MULTIKOLINEARITAS PADA MODEL REGRESI LINIER BERGANDA

Dwi Laras Riyantini1, Made Susilawati2, Kartika Sari3

Abstract

Multicollinearity is a problem that often occurs in multiple linear regression. The existence of multicollinearity in the independent variables resulted in a regression model obtained is far from accurate. Latent root regression is an alternative in dealing with the presence of multicollinearity in multiple linear regression. In the latent root regression, multicollinearity was overcome by reducing the original variables into new variables through principal component analysis techniques. In this regression the estimation of parameters is modified least squares method. In this study, the data used are eleven groups of simulated data with varying number of independent variables. Based on the VIF value and the value of correlation, latent root regression is capable of handling multicollinearity completely. On the other hand, a regression model that was obtained by latent root regression has R2dj- value of 0.99, which indicates that the independent variables can explain the diversity of the response variables accurately.

Keywords: Multiple Linear Regression, Multicollinearity, Latent Root Regression, Least Squares Method Modified

  • 1.    Pendahuluan

Analisis regresi adalah suatu alat statistik yang dapat digunakan untuk melihat hubungan sebab akibat. Dalam analisis regresi terdapat peubah bebas dan peubah tak bebas. Peubah bebas dapat diukur, sedangkan peubah tak bebas atau yang juga disebut dengan peubah respon dijelaskan oleh satu atau lebih peubah bebas. Pada analisis regresi linier, peubah responnya memiliki skala pengukuran minimal interval. Berdasarkan banyak peubah bebas yang digunakan, analisis regresi linier dibagi menjadi dua yaitu analisis regresi linear sederhana dan analisis regresi linear berganda. Analisis regresi linier yang hanya melibatkan satu peubah bebas disebut analisis regresi linier sederhana, sedangkan analisis regresi linier dengan peubah respon dipengaruhi oleh lebih dari satu peubah bebas disebut analisis regresi

linier berganda (Myers & Milton, 1991). Dalam analisis regresi linier berganda, permasalahan yang sering muncul adalah adanya multikolinieritas.

Multikolinearitas ditandai dengan adanya korelasi di antara peubah-peubah bebas. Adanya multikolinearitas pada peubah-peubah bebas mengakibatkan model regresi yang diperoleh jauh dari akurat, diantaranya pengujian hipotesis parameter berdasarkan metode kuadrat terkecil (ordinary least square) memberikan hasil yang tidak valid yaitu peubah-peubah bebas yang seharusnya berpengaruh signifikan terhadap peubah respon dinyatakan sebaliknya secara statistik, tanda koefisien regresi dugaan yang dihasilkan bertentangan dengan kondisi aktual, penduga koefisien regresi bersifat tidak stabil sehingga mengakibatkan sulitnya menduga nilai-nilai peubah respon yang tentunya akan

mengakibatkan tidak akuratnya peramalan (Gujarati, 1995).

Terdapat beberapa metode untuk mengatasi adanya multikolinearitas dalam regresi linier berganda, salah satunya adalah dengan menggunakan regresi komponen utama (principal component regression). Pada regresi komponen utama, peubah-peubah bebas yang saling berkorelasi diubah ke dalam bentuk peubah-peubah baru yang tidak saling berkorelasi tanpa kehilangan banyak informasi dari peubah asal dan disebut dengan komponen utama. Teknik meregresikan komponen utama dengan peubah respon melalui metode kuadrat terkecil disebut regresi komponen utama (Gujarati, 1995). Pemilihan komponen utama pada regresi komponen utama adalah dengan memilih komponen utama yang memiliki akar ciri lebih besar dari 1 (Draper & H. Smith, 1992). Akan tetapi, proses ini memungkinkan komponen utama yang berguna untuk prediksi terhadap peubah respon akan terabaikan, karena pembentukan komponen utama yang tidak melibatkan informasi dari peubah respon (Vigneau, E., Qannari, E.M., 2002).

Perluasan regresi komponen utama diajukan oleh J.T. Webster et. al, dalam “Latent root regression analysis”, Technometrics, 16, 1974. Webster dan rekan kerjanya menggandengkan matriks data yang berasal dari peubah respon yang telah dibakukan dan peubah bebas yang telah dibakukan. Perluasan ini dinamakan regresi akar laten (Draper & H. Smith, 1992). Perbedaan regresi akar laten dibandingkan regresi komponen utama adalah komponen utama yang terbentuk pada regresi akar laten diperoleh dengan menghitung hubungan antara peubah bebas dan peubah respon, sehingga komponen utama pada regresi akar laten lebih banyak mengandung informasi dibandingkan regresi komponen utama (Vigneau, E., Qannari, E.M., 2002).

  • 1.1    Analisis Regresi Linier

Analisis regresi adalah suatu metode dalam statistik yang memanfaatkan hubungan antara dua atau lebih peubah kuantitatif, sehingga peubah respon (dependent variable)

bisa diramalkan dari peubah bebas (independent variable) (Neter, 1997). Selain untuk melihat hubungan antara peubah bebas dengan peubah respon, analisis regresi juga bertujuan untuk melihat kontribusi relatif dari masing-masing peubah bebas terhadap peubah respon.

Pola atau bentuk hubungan pada analisis regresi dapat dinyatakan dalam bentuk persamaan regresi. Model regresi linier yang melibatkan lebih dari satu peubah bebas dengan satu peubah respon disebut model regresi linier berganda. Analisis regresi linier berganda sangat berguna di dalam situasi percobaan yang memungkinkan peneliti mengontrol peubah-peubah bebasnya.

  • 1.1.1    Model Ordo-Pertama

Misalkan terdapat n tripel data (yi1,¾),  (V2,X21,X22). ,(Vn,Xn1,Xn2~),

(Neter, 1997) maka model regresinya dapat dinyatakan sebagai:

Vi = βo + βιXn + β2Xi2 + ei     (1)

dengan:

Vi adalah respon dari amatan ke-i,

β01, dan β2 adalah koefisien regresi,

ei adalah suku galat ke-i,

i = 1,2,…n.

Jika Y =


' Vi V2

. Vn


ei e2

. en,


maka persamaan


  • ( 1) dengan i = 1,2,..., n dapat ditulis sebagai:

    Y β0 + β1%1 + β2^2 + ε


    (2)


Persamaan (2) dinamakan model ordo-pertama

x11l

X21

Xn1J

dan X2


' X12

X22


. Model ini bersifat linier dalam

Xn2\

parameter dan juga linier dalam peubah-peubah

bebasnya.

Apabila diasumsikan E{ei} — 0, maka fungsi respon bagi model (2) adalah (Neter, 1997):

E{Y} — βo + β1X1 + β2X2      (3)

Pada model regresi (3), parameter β0 adalah intersep Y pada bidang regresi tersebut. Nilai parameter β0 melambangkan rataan respon, apabila peubah bebas X1 dan X2 bernilai 0. Jika tidak demikian, β0 tidak memiliki makna di dalam model regresi tersebut. Parameter β1 menunjukkan perubahaan rataan respon untuk setiap kenaikan X1 satu satuan apabila X2 dipertahankan konstan. Begitu pula, parameter β2 menunjukkan perubahan rataan respon untuk setiap kenaikan X2 satu satuan, apabila X1 dipertahankan konstan. Parameter β1 dan β2 sering disebut koefisien regresi parsial.

Peubah bebas X1 dan X2 dikatakan memiliki pengaruh aditif atau tidak berinteraksi, apabila pengaruh X1 terhadap rataan respon tidak bergantung pada taraf X2, dan sebagai akibatnya pengaruh X2 terhadap respon juga tidak bergantung pada taraf X1 (Neter, 1997).

Sebagai

generalisasi dari

model ordo-

pertama dengan dua peubah bebas berikut ini

dibahas model ordo-pertama dengan lebih dari

dua peubah

bebas. Oleh karena itu, apabila

terdapat p -

- 1 peubah bebas      X1 =

' x111

x12

X1,p-1

X21

X22

X2,P-1      ,

21 ,X2 =

22.....Xp-1 =

, maka

. xn1.

. Xn2.|

. Xn,p-1.

modelnya [4] adalah:

Vi = β0 + β1xi1 + β2xi2 +----+ βp-1xi,p-1 +

ef                                              (4)

dengan :

p banyaknya parameter, β0, β1, ., βp-1 adalah parameter,

Xi1,Xi2,... ,Xi,p-1  adalah peubah bebas

yang diketahui nilainya,

ei adalah suku galat, i = 1,2, .,n,

n adalah banyak amatan.

Jika Y =

' V1 V

=

' e1

maka persamaan

. Vn.

. en,

Adapun fungsi respon (Neter, 1997) untuk model (5) adalah:

E{Y} = β0 + β1X1 + β2X2 + —+

βp-1Xp-1 (6)

  • 1.2 Koefisien Determinasi Ganda Terkoreksi

Dalam regresi linear berganda, proporsi keragaman data yang dapat diterangkan dalam model regresi dilihat dari koefisien determinasi ganda yang dilambangkan dengan R2dj. (Neter, 1997) Koefisien determinasi ganda terkoreksi didefinisikan sebagai berikut:

  • 2    _ 1 _ JKG∕(n-p)

adj JKT∕(n-1') '

Interval nilai R2dj adalah 0 ≤ R2dj ≤ 1. Jika nilai R2dj semakin mendekati 1, maka semakin besar nilai keragaman data peubah respon yang dapat dijelaskan oleh peubah bebas.

  • 1.3 Multikolinearitas

Istilah multikolinearitas pertama kali diperkenalkan oleh Ragnar Frisch pada tahun 1934, yang berarti adanya korelasi di antara peubah – peubah bebas dari model regresi.

Multikolinearitas dapat memberi dampak untuk model regresi, antara lain (Neter, 1997):

  • 1.    Multikolinearitas antara peubah-peubah bebas dalam model regresi linier mengakibatkan variansi penduga kuadrat terkecil menjadi besar sehingga menghasilkan galat baku yang lebih besar. Hal ini mengakibatkan selang kepercayaan untuk parameter model regresi menjadi lebih besar.

  • 2.    Satu atau lebih peubah bebas menjelaskan peubah respon benar-benar sama dengan yang dijelaskan oleh peubah bebas lain.

  • 3.    Pengujian hipotesis parameter berdasarkan metode kuadrat terkecil memberikan hasil yang tidak valid.

Pada analisis regresi, dikatakan terdapat multikolinearitas apabila terdapat beberapa kondisi sebagai berikut:

  • 1.    Nilai korelasi antar peubah bebas (r)

melebihi 0,5 (Gujarati, 1995) Misalkan

(Xi,y i),.,(Xn,yn), pasangan data yang

diperoleh dari dua peubah acak X =

' Xi'

*2

. Xn_


dan Y =

diperoleh berikut:

rxγ =

' yi y2

.yn


Nilai korelasi


melalui rumus [7]


tersebut

sebagai


∑‰(χι-χ)(yι-y)

1

[∑^ιi-χ)2∑^ι(yi-y)2]2


(8)


Dalam hal ini X dan Y dianggap setara, tidak dipersoalkan apakah X dan Y yang menjadi peubah bebas atau peubah respon. 2. Nilai VIF lebih dari 4 (O’Brien, 2007) Variance Inflation Factor (VIF) atau faktor      inflasi      ragam      dapat

menginterpretasikan akibat dari korelasi antar variabel bebas ke-i pada varians penduga koefisien regresi.     Adapun

perhitungan VIF sebagai berikut (Neter, 1997):

VIF(i) = ^        (9)

Nilai 1 — Rf menunjukkan nilai toleransi yang mewakili varians dari peubah bebas ke-i yang tidak dihubungkan dengan peubah bebas lain pada model, sehingga nilai toleransi berbanding terbalik dengan nilai VIF. Nilai Rf menunjukkan nilai korelasi antar peubah, kenaikan korelasi antar peubah akan mengakibatkan kenaikan nilai VIF yang menunjukkan terjadinya multikolinearitas. Jika R2 = 0 atau VIF = 1, mengindikasikan bahwa peubah bebas ke-i orthogonal dengan peubah bebas lainnya.

  • 1.4    Regresi Komponen Utama

Regresi komponen utama merupakan salah satu metode yang dapat digunakan untuk menangani multikolinearitas. Tahap pertama pada regresi komponen utama adalah menghitung komponen utama yang merupakan

kombinasi linier dari peubah bebas. Langkah selanjutnya, beberapa komponen utama yang terbentuk diregresikan dengan peubah respon melalui analisis regresi (Myers & Milton, 1991). Kriteria pemilihan komponen utama yang akan digunakan yaitu dengan memilih komponen utama yang bersesuaian dengan akar ciri lebih besar dari 1 (Draper, N.R. and H. Smith, 1992)

  • 1.5    Regresi Akar Laten (Latent Root

Regression)

Metode regresi akar laten merupakan perluasan dari regresi komponen utama. Perbedaan kedua metode ini terletak pada nilai akar laten yang dihasilkan dari matriks korelasi yang dihasilkan. Pada regresi akar laten, matriks korelasi diperoleh dari penggabungan peubah respon yang telah dibakukan dan peubah bebas yang telah dibakukan, yang dapat ditulis sebagai berikut (Draper, N.R. and H. Smith, 1992):

Z* = [Zy,Z]              (10)

dengan Zy dan Z secara berturut-turut merupakan matriks Y dan X yang telah dipusatkan dan diskalakan (dibakukan). Pembakuan data pada peubah respon diperoleh melalui rumus:

^y =^    r =R

_ ∑⅛=1yl 1   [11 ς   _ (Y-ly)τ (Y-Iy)

y =     ,    M, sγγ= n-i

(11) sedangkan, Pembakuan data pada peubah bebas

diperoleh melalui rumus:

(X-Ix) √s^


dengan


  • ■    Xii  X12  ...  Xi,p-il

X21  X22  ■■■ X2,p-i    -   ∑n=ixi

:     :    ∙.      :    ,X =--------

  • ■        •        •         ■                          n

.Xni Xn2  ■" Xn,p-i_

1 =


1

1


1  ■ 1’

1 ■ 1


,

1


1   ■■■  1


Jn×p-1


sxx =


(X-1χ)τ(X-1χ) n-1


(12)


Untuk matriks Y dan X seperti pada persamaan (10), setelah matriks Y dan X dibakukan, maka:

Z* =

Langkah


'^iy Z11  ■ z1,p-1~

Z2y z21  . z2,p-1

-Zny Zn1 "' Zn,p-1-

berikutnya adalah melakukan

analisis komponen utama berdasarkan matriks Z*. Seperti halnya dalam analisis komponen utama, akar laten dan vektor latennya kemudian dihitung dari matriks korelasi gandengan Z*τZ*

Misalkan Γ/ = (γ0j,γ1j,γ2 j, ■, Yrj) merupakan vektor laten dari matriks Z*τZ* dan Γj0 = (γ1j,γ2j, -,γrj) merupakan vektor yang terbentuk dari elemen yang sama dengan Γj' kecuali elemen pertama yang telah dibuang, maka komponen utama (Sharma, S., James, W.L., 1986) dari Z* adalah:

Cj = Z*Γj (13) yang dapat dituliskan sebagai:

Ci = γ0iZy + ZΓj0 (14)

Pada regresi akar laten, unsur pertama koefisien Y (γ0j) setiap vektor laten digunakan untuk meramalkan peubah responnya oleh vektor laten tersebut. Untuk menentukan

komponen utama yang akan digunakan, yaitu dengan membuang komponen utama yang bersesuaian dengan nilai akar laten Aj ≤ 0.05 atau elemen pertama vektor laten | γ0j | < 0.10 (Vigneau, E., Qannari, E.M., 2002). Adanya akar laten yang kecil menandakan adanya kemungkinan ketergantungan atau ketidakbebasan linear di antara peubah-peubah bebas. Semakin kecil akar laten, semakin kuat ke tidak bebas linearan tersebut. Akar laten yang bernilai 0 menandakan adanya singularitas, dan nilai 0 pada elemen pertama dari suatu vektor laten menunjukkan bahwa vektor laten tersebut tidak memiliki kontribusi

variansi dalam Y (Sharma, S., James, W.L., 1986). Oleh karena itu, Webster menyarankan

akar laten Aj ≤ 0.05 atau unsur pertama vektor laten padanannya | γ0j<0.10, disarankan untuk dibuang.

Selanjutnya dihitung vektor koefisien

kuadrat terkecil termodifikasinya (Webster, et

al. 1974) dengan rumus:

,-I,1R∙

P       :     cjγ0j^j     :;

I βp∖U

(15)


c = -{∑‰jλ-γ∖∑‰,(γi - Y)2}1/2

(16) dengan:

Aj adalah akar laten ke-j dari matriks Z*τZ

γj adalah elemen vektor laten ke-j

γ0j adalah elemen pertama dari vektor laten ke-j

j = 0,1,2, ...,p

Selanjutnya, pendugaan koefisien regresi pada peubah awal diperoleh dengan membagi penduga koefisien regresi pada peubah yang

telah dibakukan dengan Sj, (Draper, N.R. and

H. Smith, 1992) sehingga diperoleh: βj = ^ dengan Sj = √∑(xj -Xj) ,

j = 1,2.....p — 1                     (17)

Sedangkan, perhitungan koefisien regresi β0 (Draper, N.R. and H. Smith, 1992) diperoleh berdasarkan rumus:

β0=y- β1X1 - β2X2 - β3X3 - β4X4 (18)

Setelah persamaan kuadrat terkecil termodifikasinya diperoleh, Webster dan rekan-rekannya menyarankan untuk melakukan eliminasi langkah mundur untuk mengeluarkan peubah peramal dari persamaan itu (Webster, et al. 1974).

  • 2.    Metode Penelitian

Jenis data yang digunakan dalam penelitian ini adalah data sekunder berupa simulasi yang terdiri dari sebelas kelompok data dengan banyak peubah bebas bervariasi. Program yang digunakan dalam penelitian ini

adalah program Microsoft Excel dan Minitab 15.

Adapun tahap analisis data menggunakan regresi akar laten dengan langkah-langkah sebagai berikut:

  • a.    Melakukan pembakuan data pada peubah respon dan peubah bebas secara berturut-turut melalui persamaan (11) dan (12) dengan bantuan program Microsoft Excel.

  • b.    Memasangkan matriks data yang berasal dari peubah bebas dan peubah respon yang telah dibakukan.

Z* = [zy,z]

  • c.    Menghitung akar laten λj dan vektor laten padanannya Γ dari matriks korelasi Z*τZ* dengan bantuan Program Minitab 15.

  • d.    Melakukan pembentukan komponen utama melalui analisis komponen utama berdasarkan akar laten λ7∙ dan vektor laten padanannya Γ yang telah terbentuk pada program Minitab15.

  • e.    Memilih komponen utama yang digunakan dengan membuang komponen utama yang mempunyai nilai akar laten λ7 ≤ 0.05 dan elemen pertama vektor laten | y07 < 0.10 (Webster, et al., 1974).

  • f.    Berdasarkan langkah (e), komponen utama yang telah ditentukan diregresikan dengan peubah respon.

  • g.    Menghitung nilai VIF dan nilai korelasi antar peubah untuk mendeteksi apakah masalah multikolinearitas sudah teratasi.

  • h.    Melakukan pendugaan koefisien regresi pada data yang dibakukan melalui persamaan (15) dan (16).

  • i.    Melakukan pendugaan koefisien regresi pada peubah awal melalui persamaan (17) dan (18).

  • 3.    Hasil dan Pembahasan

Hasil analisis regresi linier berganda dengan menggunakan metode kuadrat terkecil pada sebelas kelompok data yang digunakan dapat dilihat pada Tabel 1.

Tabel 1. Model Regresi Linier Berganda

Mdl

Model Regresi Linier Berganda

I

Y = 2,00 + 0,00 X1 + 1,00X2 + 0,00X3 + 2,00X4

II

Y = 10,2 + 1,15 X1 + 1,02X2 + 1,27X3 + 0,737X4 + 0,925X5

III

Y = 2,00 + 1,00 X1 + 1,00X2 + 1,00X3 + 1,0X4 + 2,00X5

IV

Y = 6,13 + 1,04 X1 + 1,01X2 + 1,06X3 + 0,945X4 + 0,953X5 + 0,975X6

V

Y = 2,00 + 1,00 X1 + 1,00X2 + 1,00X3 +1,00X4 + 1,00X5 + 2,00X6

VI

Y = -2,53 + 0,823 X1 + 0,973X2 + 0,984X3 + 1,06X4 + 1,10X5 + 0,991X6

VII

Y = 2,00 + 1,00 X1 + 1,00X2 -1,00X3 + 1,00X4 + 1,00X5 + 2,00X6

VIII

Y = -6,85 + 1,42 X1 + 1,01X2 + 1,15X3 + 1,07X4 + 1,03X5 + 1,02X6 + 1,00X7 + 0,792X8

IX

Y = -5,85 + 1,38 X1 + 1,00X2 + 1,28X3 + 0,861X4 + 1,21X5 + 0,886X6 + 1,01X7 + 0,907X8

X

Y = 3,91 - 0,108 X1 + 0,982X2 + 0,607X3 + 1,29X4 + 1,27X5 + 0,955X6 + 1,01X7 + 1,13X8

XI

Y = 3,89 + 0,614 X1 + 0,985X2 + 0,667X3 +1,16X4 + 1,21X5 + 1,11X6 + 1,02X7 + 0,913X8

Berdasarkan Tabel 1, model regresi linier I yang terbentuk adalah:

Y = 2,00 - 0,000000X1 + 1,00X2 + 0,000000X3 + 2,00X4

Model tersebut menginterpretasikan bahwa apabila semua peubah bebas diasumsikan konstan, maka peubah respon akan bernilai 2,00. Peubah respon tidak mengalami perubahan setiap kenaikan X1 satu satuan selama X2, X3, X4 dipertahankan konstan. Peubah respon akan meningkat sebesar 1,00 satuan setiap kenaikan X2 satu satuan selama X1,X3,X4 dipertahankan konstan. Interpretasi peubah bebas X3 dan X4 dapat dilakukan dengan cara yang sama. Model regresi lainnya dapat diinterpretasi dengan cara yang sama.

Untuk mendeteksi adanya multikolinearitas pada peubah bebas dapat dilihat berdasarkan nilai korelasi dan nilai VIF. Untuk model regresi I, nilai korelasi dan nilai VIF dapat dilihat pada Tabel 2.

dibentuk dari matriks korelasi Z*τZ*. Untuk


model regresi linier I diperoleh nilai-nilai akar


Tabel 2 Nilai Korelasi dan Nilai VIF pada

Model Regresi Linier I

NK

X1

X2

X3     X4 I VIF

X1

1

14,9

X2

0,170

1

1,2

X3

0,951

0,251

1            23,3

X4

-0,961

-0,262

-0,977    1   30,7


laten yaitu:


Ao


A1


A2


= 2,8029


= 1,3790


= 0,8015


Pada Tabel 2, terlihat bahwa X1 dan X3 memiliki nilai korelasi sebesar 0,951, X1 dengan X4 memiliki nilai korelasi sebesar -0,961, dan X3 dengan X4 memiliki nilai korelasi sebesar -0,977. Hal ini mengindikasikan adanya multikolinearitas di antara peubah bebas X1, X3 dan X4. Selain berdasarkan nilai korelasi, indikasi adanya multikolinearitas antar peubah bebas X1, X3 dan X4 dipertegas dengan adanya nilai VIF yang lebih besar dari 4, sehingga dapat disimpulkan bahwa terdapat multikolinearitas pada ketiga peubah bebas tersebut. Di lain pihak, nilai korelasi pada peubah bebas X2 kurang dari 0,5 dan nilai VIF kurang dari 4 menandakan bahwa peubah bebas X2 tidak mengalami masalah multikolinearitas. Dengan cara yang sama, diperoleh bahwa terdapat beberapa peubah bebas yang mengalami multikolinearitas pada model regresi yang lain.

Adanya multikolinearitas pada peubah-peubah bebas mengakibatkan model regresi yang diperoleh jauh dari akurat, sehingga diperlukan alternatif dalam menangani multikolinearitas yang dalam penelitian ini dilakukan melalui regresi akar laten.


A3


A4


= 0,0167


= 0,0000


Dari akar laten A7-,; = 0,1,2,3,4, diperoleh


vektor-vektor laten IJ yang bersesuaian dengan


A- yaitu:


To =


T1 =


T2 =


13 =


14 =


-


0,587


-0,355


-0,357


-0,325


-


0,544J


-


0,072


-0,478


-0,448


0,705


L 0,263 J


0,180


-0,639


0,676


0,125


-


0,294J


0,262


-0,487


-0,618


-0,618


L 0,526 J


-


0,741


-0,000


0,425


0,000


L 0,521 J


Regresi Akar Laten dalam Menangani Mulikolinearitas

Langkah pertama dalam regresi akar laten adalah membakukan data dengan cara data dipusatkan   (centering)   dan diskalakan

(scalling).   Hal ini dilakukan untuk

memudahkan perhitungan dan juga meminimumkan kesalahan pembulatan dalam perhitungan. Pada penelitian ini, pembakuan data dilakukan pada peubah respon dan peubah bebas. Data yang telah merupakan elemen-elemen pada matriks Z*.

Akar laten A7- dan vektor laten TJ- dengan / = 1, ^,p-1 yang bersesuaian dengan A-

Tidak ada kriteria yang pasti dalam penentuan akar laten dan vektor laten yang digunakan untuk pembentukan komponen utama. Webster menyarankan untuk membuang akar laten A7- ≤ 0.05 atau unsur pertama vektor laten padanannya | y0-| < 0.10 [10]. Sedangkan, Sharma membuang akar laten A- ≤ 0.1 atau unsur pertama vektor laten padanannya | y0-1 < 0.3 dalam penelitiannya [8], dan Reichert membuang akar laten A- ≤ 0.3 atau unsur pertama vektor laten padanannya y0-| < 0.10 (Reichert, A.K.,

James, S.M.,  1986). Dalam penelitian ini,

penulis menggunakan kriteria pemilihan yang disarankan oleh Webster karena dengan menggunakan kriteria tersebut, model regresi yang diperoleh akan lebih akurat dengan data yang digunakan dalam penelitian ini. Oleh karena itu, dipilih akar laten λj ≤ 0.05 atau elemen pertama vektor laten | y0γ < 0.10 [10]. Diperhatikan bahwa:

  • a.    A0 > 0,05 dan  | y00 = 0,587 > 0,10.

Oleh karena itu, vektor yang bersesuaian tetap dipertahankan.

  • b.   A1 > 0,05 dan  | y01 = 0,072 > 0,10.

Oleh karena itu, vektor ini tetap dipertahankan meskipun y01 bernilai kecil.

  • c.    Karena A2 > 0,05 dan y021 = 0,180 > 0,10 maka vektor ini tetap dipertahankan.

  • d.    A3 < 0,05 menandakan kemungkinan adanya ke tidak bebas linieran di antara peubah-peubah bebas. Akan tetapi, nilai y03 = 0,262 > 0,10      menandakan

keteramalan yang tinggi sehingga vektor ini tetap dipertahankan.

  • e.    A4 = 0 menandakan adanya singularitas, dan menandakan keadaan tidak bebas linier di antara peubah-peubah bebas yang menyebabkan pendugaan koefisien regresi menjadi tidak stabil, sehingga vektor ini dibuang walaupun nilai y04 = 0,741 > 0,10 menandakan keteramalan yang tinggi.

Selanjutnya, dilakukan pembentukan komponen utama berdasarkan koefisien matriks (vektor laten). Berikut merupakan proses pembentukan dari lima komponen yang akan digunakan:

KU 1 (C0) = -0,587Zy - 0,355Z1 -

0,357Z2 - 0,325Z3 - 0,544Z4

KU 2 (C1) = -0,072Zy - 0,478Z1 -

0,448Z2 - 0,705Z3 - 0,263Z4

KU 3 (C2) = 0,180Zy - 0,639Z1 -

0,676Z2 - 0,125Z3 - 0,294Z4 KU 4 (C3) = 0,262Zy - 0,487Z1 -

0,187Z2 - 0,618Z3 + 0,526Z4

Komponen utama yang terbentuk merupakan kombinasi linier dari peubah asal yang saling

tegak lurus dan tidak berkorelasi. Berdasarkan hasil analisis regresi akar laten, adapun model regresi I yang terbentuk adalah:

Z = 366 - 9,94C0 - 1,22C1 + 3,06C2 + 4,44C3

Hasil perhitungan dengan menggunakan regresi akar laten pada model regresi I diperoleh nilai VIF masing-masing peubah bebas sebesar 1,0 dan nilai korelasi yang bernilai kurang dari 0,5 antar peubah bebas yang menandakan bahwa masalah multikolinearitas dapat diatasi secara tuntas. Nilai korelasi dan nilai VIF melalui regresi akar laten dapat dilihat pada tabel 3.

Tabel 3. Nilai Korelasi Antar dan Nilai VIF pada regresi akar laten

NK

C1

C2 I C3 I I I

VIF

C1

1

1,0

C2

-0,00

1

1,0

C3

0,00

-0,00

1

1,0

C4

0,00

0,00

0,00

1

1,0

dengan nilai koefisien determinasi ganda terkoreksi (R^j) sebesar 1,00. Setelah itu, untuk memperoleh penduga koefisien regresi untuk regresi akar laten pada peubah awal digunakan persamaan (13) dan (14). Sehingga, untuk model regresi I, penduga koefisien pada data awal adalah sebagai berikut

Z = 19,095 + 7,054 Z1 + 1,095X2 + 7,489X3 - 5,515X4

Model tersebut menginterpretasikan jika pada saat semua peubah bebas diasumsikan konstan, maka peubah respon akan bernilai 19,095. Peubah respon akan meningkat sebesar 7,054 setiap kenaikan X1 satu satuan selama X2, X3, X4 dipertahankan konstan. Peubah respon akan berkurang sebesar 1,095 setiap kenaikan X2 satu satuan selama X1,X3,X4 dipertahankan konstan. Peubah respon akan meningkat 7,489 setiap kenaikan X3 satu satuan selama X1, X2, X4 dipertahankan konstan, dan peubah respon akan berkurang sebesar 5,515 setiap kenaikan X4 satu satuan selama X1, X2, X3 dipertahankan konstan.

Selanjutnya, untuk melihat seberapa akurat model yang diperoleh, dihitung Rlaj dengan menggunakan persamaan (3) dari masing-masing model. Nilai R^aj hasil RAL pada masing-masing model dapat dilihat pada Tabel 4.

Tabel 4. Nilai Rlaj Model Hasil RAL

Model

Rlaj

I

1,000

II

1,000

III

1,000

IV

1,000

V

1,000

VI

1,000

VII

1,000

VIII

1,000

IX

1,000

X

1,000

XI

1,000

Berdasarkan Tabel 4, nilai Rlaj sebesar 1,000 merupakan hasil pembulatan karena data yang digunakan dalam penelitian ini merupakan bilangan desimal, yang kemudian dalam prosesnya mengalami pembulatan berkali-kali.

  • 4.    Kesimpulan

Berdasarkan     pembahasan     dapat

disimpulkan bahwa regresi akar laten dapat mengatasi multikolinearitas dengan tuntas dan menghasilkan persamaan regresi yang akurat.

Daftar Pustaka

Draper, N.R. and H. Smith. 1992. Analisis

Regresi    Terapan,    Edisi Kedua.

Diterjemahkan oleh Bambang Sumantri. Jurusan Statistika FMIPA IPB. Bogor Gujarati N, Damorar. 1995. Ekonometrika Dasar.

Erlangga. Jakarta.

Myers, R.H. & Milton, J.S. 1991. A First Course In The Theory Of Linier Statistical Models. PWS-KENT Publishing Company, Boston

Neter, J. 1997. Model Linier Terapan. Diterjemahkan oleh Bambang Sumantri. IPB, Bandung.

O’Brien, R M. 2007. A Caution Regarding Rules of Thumb for Variance Inflation Factor. Departement of Sociology of Oregon, Eugene, USA.

Reichert, A.K., James, S.M.,  1986. Using

Latent Root Regression to Identify Nonpredictive Collinearity in Statistical Appraisal Models. AREUEA Journal. 14, 136-152

Sembiring, R.K. 2003. Analisis Regresi. Edisi Kedua. Bandung : Penerbit ITB.

Sharma, S., James, W.L., 1986. Latent Root Regression: An Alternate Procedure for Estimating Parameters in the Presence of Multicollinearity.   JMR, Journal of

Marketing Research. 18, 154-161.

Vigneau, E., Qannari, E.M., 2002. A New

Algorithm for Latent Root Regression Analysis. Computational Statistics & Data Analysis. 41, 231-242.

Webster, J.T., R. F. Gunts, and R. L. Mason.(1974). Latent Root Regression Analysis. Technometrics 16, 513-522.

16