E-Jurnal Matematika Vol. 3 (4), November 2014, pp. 146 -153

ISSN: 2303-1751

KINERJA JACKKNIFE RIDGE REGRESSION DALAM MENGATASI MULTIKOLINEARITAS

Hany Devita§1, I Komang Gde Sukarsa2, I Putu Eka N. Kencana3

1Jurusan Matematika, Fakultas MIPA - Universitas Udayana [Email: [email protected]] 2Jurusan Matematika, Fakultas MIPA - Universitas Udayana [Email: [email protected]]

3Jurusan Matematika, Fakultas MIPA - Universitas Udayana [Email: [email protected]] §Corresponding Author

ABSTRACT

Ordinary least square is a parameter estimations for minimizing residual sum of squares. If the multicollinearity was found in the data, unbias estimator with minimum variance could not be reached. Multicollinearity is a linear correlation between independent variabels in model. Jackknife Ridge Regression(JRR) as an extension of Generalized Ridge Regression (GRR) for solving multicollinearity. Generalized Ridge Regression is used to overcome the bias of estimators caused of presents multicollinearity by adding different bias parameter for each independent variabel in least square equation after transforming the data into an orthoghonal form. Beside that, JRR can reduce the bias of the ridge estimator. The result showed that JRR model out performs GRR model.

Keywords: ordinary least square, multicollinearity, Generalized Ridge Regression, Jackknife Ridge Regression

  • 1.    PENDAHULUAN

Analisis regresi merupakan salah satu alat statistika yang digunakan untuk menggambarkan hubungan antara satu peubah tak bebas dengan satu atau lebih peubah bebas (Bowerman & O'Connel [1]). Dalam pembentukan model regresi dilakukan pendugaan terhadap parameter regresi dalam model untuk menghasilkan penduga terbaik dengan menggunakan metode kuadrat terkecil. Metode kuadrat terkecil adalah metode untuk menduga parameter dalam model regresi dengan meminimumkan jumlah kuadratnya. Jika penduga tak bias dan ragam minimum tidak dapat dihasilkan maka mengindikasikan adanya multikolinearitas pada model.

Multikolinearitas merupakan suatu keadaan terjadinya hubungan linear antara peubah-peubah bebas dalam model yang menyebabkan model menjadi bias sehingga nilai penduga parameternya menjadi tidak stabil. Untuk mengetahui ada tidaknya

masalah multikolinearitas dapat menggunakan nilai Variance Inflation Factory (VIF). Jika nilai VIF > 5 maka peubah bebas dalam model mengalami multikolinearitas (Neter, et al. [5]). Ada berbagai metode yang digunakan dalam mengatasi multikolinearitas yaitu metode regresi stepwise, analisis komponen utama, ridge regression dan generalized ridge regression. Pada setiap metode memiliki kekurangan dan kelebihan namun setiap metode dapat digunakan dalam mengatasi masalah multikolinearitas.

Pada penelitian ini, penulis menggunakan metode Jackknife Ridge Regression yaitu pengembangan dari metode generalized ridge regression dengan lebih menekankan pengurangan bias pada penduga ridge (Ozkale [6]). Tujuan dari penelitian ini adalah untuk mengetahui kinerja Jackknife Ridge Regression dalam mengatasi masalah multikolinearitas dan untuk mengetahui

kelayakan model yang dihasilkan Jackknife Ridge Regression dengan melihat nilai MSE dan R2 yang dihasilkan pada model.

  • 2.    TINJAUAN PUSTAKA

    • 2.1.    Analisis Regresi Berganda

Analisis regresi linear berganda adalah analisis regresi yang menghubungkan antara satu peubah tak bebas Y dengan banyak peubah bebas X. Persamaan regresi linear berganda dapat dijabarkan menjadi notasi matriks, sebagai bentuk perluasan dari model regresi linear secara umum yang bertujuan dapat mengindikasikan langkah-langkah penting dalam menemukan solusi. Notasi matriks yang terbentuk dari persamaan regresi linear berganda sebagai berikut:

^n ×1=    ×pβp×1+ ^n ×1

dengan;

n = jumlah pengamatan p = banyaknya parameter Y = vektor peubah tak bebas β = vektor parameter regresi X = matriks peubah bebas ε = vektor peubah acak (sisaan) normal bebas

dengan nilai harapan E(ε) = 0 dan matriks ragam-peragam σ2 (ε)= σ2I.

  • 2.1.1    Pengujian Hipotesis pada Regresi

Linear Berganda

Pengujian hipotesis bertujuan untuk menguji kecocokan model. Terdapat dua pengujian yaitu:

  • 1.    Uji F ( Uji Signifikansi Model)

Uji     F     digunakan     untuk

menggambarkan ada atau tidak hubungan linear antara peubah tak bebas Y dengan semua peubah bebas secara simultan yang ada dalam model.

Hipotesis yang diuji:

U0 :  =  =⋯=    =0

H^ :   ≠0 minimal untuk satu

nilai k, k=1,2,..,p-1

Statistik ujinya (Neter, et al. [5]) adalah:

_JKR(,…, ¾-l)       n-P

  • r=                 ×

P-1     ×JKG (*ι ,…, ¾-l)

_ KTR =

Kaidah keputusan:

Jika FF(, ,     ) maka Hq diterima

Jika F>F(, ,     ) maka Hq ditolak

  • 2.    Uji t (Uji Parsial Model)

Uji t digunakan jika pada uji signifikansi (uji F) menghasilkan kesimpulan Hq ditolak yang berarti minimal ada satu variabel yang berpengaruh siginifikan terhadap model. Tujuan uji t untuk mengetahui ada atau tidak hubungan linear antara peubah tak bebas Y dengan masing-masing peubah bebas yang ada dalam model.

Hipotesis yang diuji:

H0 :=0

Hi :≠0

Statistik ujinya (Neter, et al. [5]) adalah:

=

t =

Se ( ̂k)

Keterangan; Se (k)= standard error penduga koefisien regresi

Kaidah Keputusan:

Jika | t|≤         maka Hq diterima

,

Jika | t|> ta      maka H0 ditolak

  • 2.2.    Metode Kuadrat Terkecil

Metode kuadrat terkecil adalah metode untuk menduga parameter dalam model regresi dengan cara meminimumkan jumlah kuadrat galatnya (Neter, et al. [5]). Vektor koefisien regresi dugaan βQ , βl,…,βp-l dituliskan sebagai berikut:

× . =[  ⋮]

Persamaan normal kuadrat terkecil bagi model linear umum adala

XrXb = ′Y

Dengan penduga kuadrat terkecilnya adalah:

bp ×i=(XrX) \ × VxYV × 1

Untuk model regresi, penduga-penduga kuadrat terkecil ini juga merupakan penduga

kemungkinan maksimum dan memenuhi asumsi-asumsi yang harus dipenuhi yaitu galat menyebar normal dengan nilai tengah 0 dan ragam konstan ,tidak terdapat korelasi antar galat, dan tidak terdapat pola hubungan yang terbentuk antar peubah-peubah bebas.

  • 2.3.    Generalized Ridge Regression

Dalam metode Generalized Ridge Regression (GRR) dilakukan transformasi terhadap data sehingga peubah bebas menjadi peubah bebas yang orthogonal[4] terhadap peubah tak bebas . Pertama-tama diasumsikan bahwa Ʌ merupakan matriks × dengan anggota dari diagonal utamanya merupakan nilai eigen (   ,   ,…,   ) dari matriks ′

dan jika × merupakan matriks orthogonal dari vektor eigen yang bersesuaian dengan λ, maka        =Ʌ. Misalkan =    dan

=  ′ . Model linear persamaan regresi yang

dihasilkan menjadi     + . Penduga yang

diperoleh dari metode kuadrat terkecil menjadi ̂=Λ   ′ . Vektor penduga parameter awal

dapat dihitung menjadi =  ̂. Penduga

GRR merupakan solusi dari (Λ+Κ) ̂  =

′ , dengan K merupakan matriks diagonal dengan anggota (  ,  ,…,   ).  Koefisien

generalized ridge pada model awal yaitu

̂   =  ̂

Pertimbangan    untuk    pemilihan

parameter bias pada K berdasarkan pada nilai MSE. Untuk menentukan nilai digunakan pendekatan iteratif (Hoerl & Kennard [3]) yang diawali dengan menentukan solusi kuadrat terkecil, didapatkan penduga awal untuk

k? =f^ , j = 1'2'-,p Uj

Penduga awal dari digunakan untuk menghitung penduga awal generalized ridge dari

̂ , =(Λ+Κ )   ′

dengan,K =     (k ,k ,…,k ).

Selanjutnya pendugaan awal ̂  , digunakan

untuk menghitung pendugaan

/T^


k =( ̂  , ) ,


j = 1,2,^,P


Nilai k ini menghitung pendugaan seterusnya. Proses iterasi

dapat digunakan dari ̂  , , dan

dilanjutkan hingga


penduga parameter yang stabil didapatkan.

  • 2.4.    Jackknife Ridge Regression

Metode Jackknife diperkenalkan pertama kali oleh Hinkley pada tahun 1977 yang merupakan pengembangan dari metode Generalized Ridge Regression. Model awal seperti model umum regresi linear yaitu

=+

dengan =     dan =  ′ . G adalah

matriks berukuran    × yang kolom-

kolomnya dinormalisasi vektor eigen dari matriks ′ . Matriks     ==Λ.

Penduga generalized regression dari dapat ditulis sebagai:

̂  =( Λ+Κ)    == Λ ̂

=( -) ̂

dengan K = matriks diagonal dengan anggota (  ,  ,…,  ),  = Λ+Κ. Pada =  ′ dan

= , penduga generalized regression

(GRE) dari adalah:

̂   =  ̂    =     

dengan =     +.

Menurut Hinkley (1997) metode Jackknife berasal dari ̂ sebagai berikut: ̂   =[ -() ] ̂

Aplikasi metode Jackniffe dihitung dengan mentransformasi ulang agar mendapatkan penduga parameter dari regresi awal.

Penduga jackknife ridge diperoleh dengan langka-langkah sebagai berikut:

̂  =̂

̂    =  [ +(     )][ -()] ̂

=  [ +(     )]( Λ)Λ ′

=  [ +(     )]′ ′

=[        +             ′]′

karena

=    +  =  [    +]

maka;

GA~1G'=(X,X +K) ^1 = ∗ -1 dan

GA-1KA~1G' = 1KA

dengan K=GKG

Setelah mendapatkan penduga koefisien regresi dari metode Jackknife Ridge Regression, perlu dipastikan apakah peubah-peubah bebas yang terlibat dalam model sudah tidak        mengindikasikan        adanya

multikolinearitas dengan kembali melihat nilai Variance Inflation Factors (VIF). VIFj(K) adalah fungsi dari K yang merupakan unsur diagonal ke j dalam matriks;

(X'X +K) -1x,x(X'X +K) ^1 Apabila nilai VIF dari masing-masing peubah bebas ≤ 5 maka dipastikan bahwa peubah-peubah bebas sudah terbebas dari masalah multikolinearitas

  • 3.    METODE PENELITIAN

Penelitian ini menggunakan data sekunder yang merupakan data yang diperoleh secara tidak langsung. Dalam hal ini data yang digunakan adalah data mengenai kebutuhan akan tenaga kerja pada 17 Rumah Sakit Angkatan Laut U.S dari Tabel 13.3 dalam buku Bowerman dan O’Connel(1997).

Langkah-langkah yang dilakukan dalam metode penelitian ini adalah:    1)

Mengkonfirmasi adanya multikolinearitas dengan melihat nilai VIF, 2) Melakukan analisi regresi linear berganda pada data, 3) Membakukan data, 4) Melakukan proses orthogonalisasi pada peubah-peubah bebas, 5) Menentukan nilai K yang merupakan matriks diagonal dengan anggota (k1 , ^2 ,…, ^5) dan penduga koefisien generalized ridge dari peubah bebas    orthogonal    dengan

menggunakan metode iterasi. Pendugaaan ̂2                .

awal untuk k*j = — , digunakan untuk menghitung parameter generalized ridge untuk peubah bebas orthogonal:   ̂ GR =( Λ+

Κ) 1Z'y, 6) Menentukan penduga awal jackknife ridge regression yaitu ̂ = [I-(A~1K)2] ̂ LS , 7) Mentransformasikan penduga awal jackknife ridge regression yaitu

A            ^                  H r        ∙∙        1 1   ∙    77    ∕,

β=  ̂ JK [2], 8) Menguji model jackknife

ridge regression dan mendeteksi tidak adanya multikolinearitas dengan melihat nilai VIF, 9) Menguji kelayakan model yang dihasilkan jackknife ridge regression dengan model yang dihasilkan generalized ridge regression dengan melihat nilai MSE.

  • 4.    HASIL DAN PEMBAHASAN

    • 4.1.    Mendeteksi Adanya Multikolinearitas

pada Model Regresi

Langkah yang dilakukan dalam mendeteksi adanya multikolinearitas dengan menggunakan metode kuadrat terkecil terhadap data kebutuhan tenaga kerja di 17 Rumah Sakit Angkatan Laut U.S yang ditunjukkan pada tabel penduga koefisien regresi (Tabel 1).Hasil analisis regresi linear berganda dengan menggunakan metode kuadrat terkecil terhadap data kebutuhan akan tenaga kerja pada 17 Rumah Sakit Angkatan Laut U.S menghasilkan model regresi linear berganda yaitu Y = 1963 - 15,9 X1 + 0,0559 X2 + 1,59 X3 - 4,22 X4 - 394 X5. Setelah mendapatkan model regresi, langkah selanjutnya melakukan uji kecocokan model regresi secara simultan dengan melakukan uji F. Dalam melakukan uji F hipotesis yang digunakan sebagai berikut:

H0 :  =  =⋯=    =0

Hy :   (   ,…,   ) ≠ 0 minimal untuk satu

nilai k, k=1,2,..,p-1

dengan kaidah keputusan tolak Hq apabila p-valuea dan begitu juga sebaliknya. Dengan menggunakan tingkat toleransi (a) sebesar 0,05, maka dari Tabel 2 didapatkan kesimpulan bahwa minimal ada peubah bebas yaitu X1, X2 , X3, X4, dan X5 berpengaruh signifikan terhadap model

Langkah selanjutnya adalah melakukan pengujian model regresi secara parsial (uji t) yang bertujuan untuk mengetahui signifikan atau tidaknya pengaruh masing-masing peubah bebas terhadap peubah terikat. Dalam melakukan uji t hipotesis yang digunakan sebagai berikut:

H0: βfc — O (peubah bebas X secara individu tidak berpengaruh secara signifikan terhadap nilai dugaan Y)

H0: βfc ≠ O (peubah bebas X secara individu berpengaruh secara signifikan terhadap nilai dugaan Y)

dengan kaidah keputusan tolak H0 apabila p-valuea dan begitu juga sebaliknya.

Dari Tabel 1 dengan menggunakan tingkat toleransi (a) sebesar 0,05, maka terdapat empat peubah yang nilai tidak signifikan X1, X3, X4, dan X5.

Tabel 1 Penduga Koefisien Regresi

Predictor

Coef

SE Coef

T

P

VIF

Constant

1963

1071

1,83

0,094

X1

-15,85

97,65

-0,16

0,874

9597,6

X2

0,05593

0,02126

2,63

0,023

7,9

X3

1,59

3,092

0,51

0,617

8933,1

X4

-4,219

7,177

-0,59

0,569

23,3

X5

-394,3

209,6

-1,88

0,087

4,3

Tabel. 2 Analisis Ragam

Source

DF

SS

MS

F

P

Regression

5

490177488

98035498

237,79

0,000

Residual Error

11

4535052

412277

Total

16

494712540

Namun kesimpulan yang berbeda didapat ketika melakukan pengujian univariat yaitu semua peubah bebas berpengaruh signifikan terhadap model. Setelah melakukan uji parsial didapatkan dari lima peubah bebas terdapat empat peubah bebas yang tidak berpengaruh secara signifikan terhadap model yaitu X1, X3, X4, dan X5. Pada hasil analisis regresi linear berganda diperoleh nilai R2 yang besar yaitu 0,987 tetapi tidak diikuti dengan hasil uji hipotesis yang berpengaruh signifikan dari masing-masing koefisien regresi. Hal ini mengindikasikan adanya penyimpangan yang terjadi pada model, dimana seharusnya minimal terdapat tiga atau separuh dari semua peubah bebas yang berpengaruh signifikan terhadap model.

Penyimpangan-penyimpangan di atas diakibatkan oleh koefisien regresi yang tidak dapat diduga dengan tepat. Hal tersebut

mengindikasikan adanya pelanggaran terhadap asumsi pendugaan parameter menggunakan metode kuadrat terkecil yaitu asumsi multikolinearitas. Untuk mengetahui adanya multikolinearitas pada peubah bebas akan dilakukan analisis terhadap nilai koefisien korelasi antar peubah bebas dan nilai VIF dari masing-masing peubah bebas.

Untuk mendeteksi adanya multikolinearitas pada peubah akan dilihat dari nilai korelasi antar peubah dan nilai VIF dari setiap peubah bebas.

Dari Tabel 3 menunjukkan bahwa korelasi antar peubah bebas cukup besar yaitu mendekati satu yang berarti bahwa terjadi kolinearitas yang kuat antar peubah bebas, namun korelasi antara X5 dengan peubah bebas yang lain tidak sekuat terhadap peubah bebas lainnya. Dari sini dapat disimpulkan bahwa terjadi multikolinearitas antar peubah bebas. Untuk memperkuat kesimpulan tersebut hal ini

dipertegas dengan melihat nilai VIF dari masing-masing peubah bebas.

Tabel 3. Koefisien Korelasi Antar Peubah

X1

X2

X3

X4

X5

X1

1

0,9073

0,999

0,9356

0,6711

X2

1

0,9071

0,9104

0,4466

X3

1

0,9331

0,6711

X4

1

0,4628

X5

1

Tabel 4. Nilai VIF Peubah Bebas

Predictor

VIF

X1

9597,6

X2

7,9

X3

8933,1

X4

23,3

X5

4,3

Nilai VIF pada Tabel 4 menunjukkan bahwa peubah bebas X1, X2, X3, dan X4 mengindikasikan bahwa keempat peubah bebas terlibat masalah multikolinearitas karena nilai VIF lebih dari 5. Dari hasil uraian di atas, maka dapat disimpulkan bahwa model mengandung multikolinearitas. Untuk mengatasi masalah itu diperlukan metode alternatif yaitu jackknife ridge regression.

  • 4.2.    Pembakuan Peubah dengan Pemusatan

dan Penskalaan

Pembakuan (Standardized) peubah dilakukan dengan pemusatan dan penskalaan (Centering and Scaling) untuk meminimumkan kesalahan pembulatan[5]. Peubah baru dari hasil pembakuan centering dan scaling dengan rumus sebagai berikut:

_

Y l SS

y^y

_ xkl _ %kl - Xk "  = Sk =S

Setelah data dibakukan melalui centering dan scaling , dilakukan analisis regresi berganda terhadap data. Hasil yang didapat ternyata nilai VIF data kebutuhan tenaga kerja di 17 rumah sakit angkatan laut U.S untuk X1, X2, X3, dan X4 masih lebih besar dari 5. Hal ini menandakan bahwa data masih mengalami masalah multikoliearitas.

  • 4.3.    Penyelesaian Masalah Multikolinearitas dengan Jackknife Ridge Regression

Pada     analisis     regresi     dengan

menggunakan Jackknife Ridge Regression, data yang digunakan adalah data yang sudah mengalami proses centering dan scaling. Untuk mengatasi masalah multikolinearitas pada metode Jackknife Ridge Regression dengan menambahkan konstansa bias yang berbeda (k1,k2,..., kp) pada diagonal utama matriks X'X dan memperkecil nilai masing-masing konstanta bias dalam persamaan kuadrat terkecil setelah sebelumnya peubah-peubah bebasnya mengalami proses orthogonalisasi.

Nilai konstanta bias   k1,k2^,,k5

diperoleh melalui proses iterasi sampai ditemukan penduga koefisien regresi yang stabil. Iterasi berhenti pada iterasi kedua. Nilai konstanta bias k1,k2,^,ks yang diperoleh dari iterasi kedua yaitu 34,8536, 7,12881x104, 4,8317x108, 7,21441x103, 1,9907x107.

Langkah selanjutnya adalah pendugaan koefisien regresi untuk Jackknife Ridge Regression pada peubah awal dan nilai VIF dari masing-masing peubah dapat dilihat pada Tabel 5. Analisis ragam untuk model Jakknife Ridge Regression dapat dilihat pada Tabel 6.

Tabel 5. Penduga Koefisien Jackknife Ridge Regression

Independe nt Variabel

Regression Coefficient

Standard Error

Standardized Regresssion Coefficient

VIF

t0

t0.025,11

Intercept

-2.014,64

X1

7,09463

2,30785

0,2054

7,777x10-4

3,0741

2,201

X2

0,05013

0,0174

0,1918

1,8781x10-10

2,870

2,201

X3

0,23270

0,07574

0,2053

4,0468x10-18

3,0723

2,201

X4

10,04817

3,4426

0,1950

1,8282x10-8

2,9187

2,201

X5

495,68

234,618

0,1412

2,4605x10-15

2,112

2,201


Tabel 6. Analisis Ragam Jackknife Ridge Regression

Source

DF

SS

MS

F0

F(0.05,5,11)

Regression

5

372.031.338

74.406.267

33,66

3,20

Residual Error

11

24.310.231

2.210.021

Total

16

494.712.540


Model regresi untuk metode Jackknife Ridge Regression adalah Y=-2.014,64+ 7,094*ι + 0,05013X2 + 0,2327X3 + 10,0481¾ + 495,68Xs . Metode Jackknife Ridge Regression dapat mengatasi masalah multikolinearitas. Pada Tabel 5 terlihat bahwa nilai VIF dari masing-masing peubah bebas yang dihasilkan lebih kecil dari 5 yang berarti masing-masing peubah bebas pada model sudah tidak lagi terlibat masalah multikolinearitas. Nilai koefisien determinasi yang dihasilkan sebesar 0,9940 dengan MSE sebesar 2.210.021.

Dari hasil yang didapatkan pada Tabel 6 diperoleh nilai Fq sebesar 33,66 maka Hq ditolak yang berarti bahwa semua peubah bebas mempunyai pengaruh yang signifikan pada model. Langkah selanjutnya adalah menguji masing-masing pengaruh peubah bebas terhadap model dengan menggunakan uji t. Nilai t0 dari masing-masing peubah bebas dapat dilihat pada tabel 5, maka terdapat satu peubah bebas yang tidak signifikan yaitu Xs .

  • 5.    SIMPULAN

Dari penelitian yang dilakukan dapat ditarik beberapa kesimpulan yaitu:

  • 1.    Metode Jackknife Ridge Regression dapat mengatasi masalah multikolinearitas dengan baik. Hal ini dapat dilihat dari nilai VIF setiap peubah bebas lebih kecil dari 5.

  • 2.    Metode Jackknife Ridge Regression menghasilkan MSE sebesar 2.210.021. Hal ini menunjukkan Jackknife Ridge Regression memiliki galat atau error yang kecil.

  • 3.    Metode Jackknife Ridge Regression menghasilkan nilai koefisien determinasi (R2) sebesar 0.9940.  Ini menunjukkan

peubah bebas pada metode Jackknife Ridge Regression    dapat    menggambarkan

keragaman peubah tak bebas sebesar 99,40 %.

Metode Generalized Ridge Regression dan Jackknife Ridge Regression dapat mengatasi masalah multikolinearitas dengan baik namun terdapat metode yang merupakan kombinasi dari kedua metode tersebut yaitu metode Modified Jackknife Ridge Regression yang diusulkan oleh Batah et al (2008) yang

dapat digunakan sebagai referensi untuk penelitian selanjutnya.

DAFTAR PUSTAKA

  • [1]    Bowerman, B. & O'Connel, R. T., 1997. Applied Statistics Improving Business Processes. 1 ed. United States of America: Tom Casson.

  • [2]    Gore, Sharad, Thekke V. Ramanathan & Feras Sh. M. Batah, 2008. The Efficiency Of Modified Jackknife And Ridge Type Regression Estimators: A Comparison. Surveys in Mathematics and its Applications, Volume III, pp. 111-122.

  • [3]    Hoerl, A.E. and R.W. Kennard. 1970. “Ridge Regression:  Applications to

Nonorthogonal             Problems”.

Technometrics, Vol. 12, No. 1. (Feb., 1970b),            pp.            69-82.

http://statgen.ucr.edu/download/course/S TAT288/hoerl70b.pdf. Diakses tanggal 14 Juni 2012.

  • [4]    Montgomery, D.C. and E.A. Peck. 1991. Introduction to Linear Regression Analysis, Second Edition. New York: John Wiley and Sons, Inc.

  • [5]    Neter, J., Wasserman, W. & Kutner, M. H., 1997. Model Linear Terapan. 2 ed. Diterjemahkan oleh Bambang Sumantri. Bogor: Jurusan Statistika FMIPA IPB.

  • [6]    Ozkale, M. R., 2008. A Jackknifed Ridge Estimator in The Linear Regression Model with Heteroscedastic or Correlated Errors. Statistics and Probability Letters, Volume I, pp. 3159-3169.

153