iklan

✔ Regresi Linear


Regresi linear yakni alat statistik yang dipergunakan untuk mengetahui imbas antara satu atau beberapa variabel terhadap satu buah variabel. Variabel yang mempengaruhi sering disebut variabel bebas, variabel independen atau variabel penjelas. Variabel yang dipengaruhi sering disebut dengan variabel terikat atau variabel dependen.

Secara umum regresi linear terdiri dari dua, yaitu regresi linear sederhana yaitu dengan satu buah variabel bebas dan satu buah variabel terikat; dan regresi linear berganda dengan beberapa variabel bebas dan satu buah variabel terikat. Analisis regresi linear merupakan metode statistik yang paling jamak dipergunakan dalam penelitian-penelitian sosial, terutama penelitian ekonomi. Program komputer yang paling banyak dipakai yakni SPSS (Statistical Package For Service Solutions).

Regresi Linear Sederhana
Analisis regresi linear sederhana dipergunakan untuk mengetahui imbas antara satu buah variabel bebas terhadap satu buah variabel terikat. Persamaan umumnya adalah:
Y = a + b X.

Dengan Y yakni variabel terikat dan X yakni variabel bebas. Koefisien a yakni konstanta (intercept) yang merupakan titik potong antara garis regresi dengan sumbu Y pada koordinat kartesius.
Langkah penghitungan analisis regresi dengan memakai kegiatan SPSS adalah: Analyse --> regression --> linear. Pada jendela yang ada, klik variabel terikat kemudian klik tanda panah pada kota dependent. Maka variabel tersebut akan masuk ke kotak sebagai variabel dependen. Lakukan dengan cara yang sama untuk variabel bebas (independent). Lalu klik OK dan akan muncul output SPSS.

Interpretasi Output
1.      Koefisien determinasi
Koefisien determinasi mencerminkan seberapa besar kemampuan variabel bebas dalam menjelaskan varians variabel terikatnya. Mempunyai nilai antara 0 – 1 di mana nilai yang mendekati 1 berarti semakin tinggi kemampuan variabel bebas dalam menjelaskan varians variabel terikatnya.
2.      Nilai t hitung dan signifikansi
Nilai t hitung > t tabel berarti ada imbas yang signifikan antara variabel bebas terhadap variabel terikat, atau bisa juga dengan signifikansi di bawah 0,05 untuk penelitian sosial, dan untuk penelitian bursa kadang kala dipakai toleransi hingga dengan 0,10.
3.      Persamaan regresi
Sebagai gambaran variabel bebas: Biaya promosi dan variabel terikat: Profitabilitas (dalam juta rupiah) dan hasil analisisnya Y = 1,2 + 0,55 X. Berarti interpretasinya:
1.      Jika besarnya biaya promosi meningkat sebesar 1 juta rupiah, maka profitabilitas meningkat sebesar 0,55 juta rupiah.
2.      Jika biaya promosi bernilai nol, maka profitabilitas akan bernilai 1,2 juta rupiah.
Interpretasi terhadap nilai intercept (dalam pola ini 1,2 juta) harus hati-hati dan sesuai dengan rancangan penelitian. Jika penelitian memakai angket dengan skala likert antara 1 hingga 5, maka interpretasi di atas tidak boleh dilakukan alasannya yakni variabel X mustahil bernilai nol. Interpretasi dengan skala likert tersebut sebaiknya memakai nilai standardized coefficient sehingga tidak ada konstanta alasannya yakni nilainya telah distandarkan.
Contoh: Pengaruh antara kepuasan (X) terhadap kinerja (Y) dengan skala likert antara 1 hingga dengan 5. Hasil output yang dipakai yakni standardized coefficientssehingga Y = 0,21 X dan diinterpretasikan bahwa peningkatan kepuasan kerja akan diikuti dengan peningkatan kinerja atau penurunan kepuasan kerja juga akan diikuti dengan penurunan kinerja. Peningkatan kepuasan kerja dalam satu satuan unit akan diikuti dengan peningkatan kinerja sebesar 0,21 (21%).
Regresi Linear Berganda
Analisis regresi linear berganda sebetulnya sama dengan analisis regresi linear sederhana, hanya variabel bebasnya lebih dari satu buah. Persamaan umumnya adalah:
Y = a + b1 X1 + b2 X2 + .... + bn Xn.
Dengan Y yakni variabel bebas, dan X yakni variabel-variabel bebas, a yakni konstanta (intersept) dan b yakni koefisien regresi pada masing-masing variabel bebas.
Interpretasi terhadap persamaan juga relatif sama, sebagai ilustrasi, imbas antara motivasi (X1), kompensasi (X2) dan kepemimpinan (X3) terhadap kepuasan kerja (Y) menghasilkan persamaan sebagai berikut:
Y = 0,235 + 0,21 X1 + 0,32 X2 + 0,12 X3
1.      Jika variabel motivasi meningkat dengan perkiraan variabel kompensasi dan kepemimpinan tetap, maka kepuasan kerja juga akan meningkat
2.      Jika variabel kompensasi meningkat, dengan perkiraan variabel motivasi dan kepemimpinan tetap, maka kepuasan kerja juga akan meningkat.
3.      Jika variabel kepemimpinan meningkat, dengan perkiraan variabel motivasi dan kompensasi tetap, maka kepuasan kerja juga akan meningkat.
Interpretasi terhadap konstanta (0,235) juga harus dilakukan secara hati-hati. Jika pengukuran variabel dengan memakai skala Likert antara 1 hingga dengan 5 maka tidak boleh diinterpretasikan bahwa jikalau variabel motivasi, kompensasi dan kepemimpinan bernilai nol, sebagai ketiga variabel tersebut mustahil bernilai nol alasannya yakni Skala Likert terendah yang dipakai yakni 1.

Analisis regresi linear berganda memerlukan pengujian secara serempak dengan memakai F hitung. Signifikansi ditentukan dengan membandingkan F hitung dengan F tabel atau melihat signifikansi pada output SPSS. Dalam beberapa kasus sanggup terjadi bahwa secara simultan (serempak) beberapa variabel mempunyai imbas yang signifikan, tetapi secara parsial tidak. Sebagai ilustrasi: seorang penjahat takut terhadap polisi yang membawa pistol (diasumsikan polisis dan pistol secara serempak menciptakan takut penjahat). Akan tetapi secara parsial, pistol tidak menciptakan takut seorang penjahat. Contoh lain: air panas, kopi dan gula menyebabkan kenikmatan, tetapi secara parsial, kopi saja belum tentu menyebabkan kenikmatan.
Penggunaan metode analisis regresi linear berganda memerlukan perkiraan klasik yang secara statistik harus dipenuhi. Asumsi klasik tersebut mencakup perkiraan normalitas, multikolinearitas, autokorelasi, heteroskedastisitas dan perkiraan linearitas (akan dibahas belakangan).
Langkah-langkah yang lazim dipergunakan dalam analisis regresi linear berganda yakni 1) koefisien determinasi; 2) Uji F dan 3 ) uji t. Persamaan regresi sebaiknya dilakukan di simpulan analisis alasannya yakni interpretasi terhadap persamaan regresi akan lebih akurat jikalau telah diketahui signifikansinya. Koefisien determinasi sebaiknya memakai adjusted R Square dan jikalau bernilai negatif maka uji F dan uji t tidak sanggup dilakukan.
Pertanyaan-pertanyaan yang sering muncul
1.      Dalam uji regresi sederhana apakah perlu menginterpretasikan nilai F hitung?Uji F yakni uji kelayakan model (goodness of fit) yang harus dilakukan dalam analisis regresi linear. Untuk analisis regresi linear sederhana Uji F boleh dipergunakan atau tidak, alasannya yakni uji F akan sama karenanya dengan uji t.
2.      Kapan memakai uji dua arah dan kapan memakai uji dua arah?Penentuan arah yakni menurut dilema penelitian, tujuan penelitian dan perumusan hipotesis. Jika hipotesis sudah memilih arahnya, maka sebaiknya dipakai uji satu arah, tetapi jikalau hipotesis belum memilih arah, maka sebaiknya memakai uji dua arah. Penentuan arah pada hipotesis menurut tinjauan literatur. Contoh hipotesis dua arah: Terdapat imbas antara kepuasan terhadap kinerja. Contoh hipotesis satu arah: Terdapat imbas nyata antara kepuasan terhadap kinerja. Nilai t tabel juga berbeda antara satu arah dan dua arah. Jika memakai signifikansi, maka signifikansi hasil output dibagi dua terlebih dahulu, gres dibandingkan dengan 5%.
3.      Apa bedanya hubungan dengan regresi?
Korelasi yakni hubungan dan regresi yakni pengaruh. Korelasi bisa berlaku bolak-balik, sebagai pola A bekerjasama dengan B demikian juga B bekerjasama dengan A. Untuk regresi tidak bisa dibalik, artinya A besar lengan berkuasa terhadap B, tetapi tidak boleh dikatakan B besar lengan berkuasa terhadap A. Dalam kehidupan sehari-hari kedua istilah itu (hubungan dan pengaruh) sering dipergunakan secara rancu, tetapi dalam ilmu statistik sangat berbeda. A bekerjasama dengan B belum tentu A besar lengan berkuasa terhadap B. Tetapi jikalau A besar lengan berkuasa terhadap B maka niscaya A juga bekerjasama dengan B. (Dalam analisis lanjut sebetulnya juga ada imbas yang bolak-balik yang disebut denganrecursive, yang tidak sanggup dianalisis dengan analisis regresi tetapi menggunakanstructural equation modelling).
Uji Asumsi Klasik
Uji perkiraan klasik yakni persyaratan statistik yang harus dipenuhi pada analisis regresi linear berganda yang berbasis ordinary least square (OLS). Makara analisis regresi yang tidak menurut OLS tidak memerlukan persyaratan perkiraan klasik, contohnya regresi logistik atau regresi ordinal. Demikian juga tidak semua uji perkiraan klasik harus dilakukan pada analisis regresi linear, contohnya uji multikolinearitas tidak sanggup dipergunakan pada analisis regresi linear sederhana dan uji autokorelasi tidak perlu diterapkan pada data cross sectional.

Uji perkiraan klasik juga tidak perlu dilakukan untuk analisis regresi linear yang bertujuan untuk menghitung nilai pada variabel tertentu. Misalnya nilai return saham yang dihitung dengan market model, atau market adjusted model. Perhitungan nilai return yang diperlukan dilakukan dengan persamaan regresi, tetapi tidak perlu diuji perkiraan klasik.

Setidaknya ada lima uji perkiraan klasik, yaitu uji multikolinearitas, uji heteroskedastisitas, uji normalitas, uji autokorelasi dan uji linearitas. Tidak ada ketentuan yang niscaya ihwal urutan uji mana dulu yang harus dipenuhi. Analisis sanggup dilakukan tergantung pada data yang ada. Sebagai contoh, dilakukan analisis terhadap semua uji perkiraan klasik, kemudian dilihat mana yang tidak memenuhi persyaratan. Kemudian dilakukan perbaikan pada uji tersebut, dan sesudah memenuhi persyaratan, dilakukan pengujian pada uji yang lain.

1. Uji Normalitas
Uji normalitas yakni untuk melihat apakah nilai residual terdistribusi normal atau tidak. Model regresi yang baik yakni mempunyai nilai residual yang terdistribusi normal. Makara uji normalitas bukan dilakukan pada masing-masing variabel tetapi pada nilai residualnya. Sering terjadi kesalahan yang jamak yaitu bahwa uji normalitas dilakukan pada masing-masing variabel. Hal ini tidak tidak boleh tetapi model regresi memerlukan normalitas pada nilai residualnya bukan pada masing-masing variabel penelitian.

Pengertian normal secara sederhana sanggup dianalogikan dengan sebuah kelas. Dalam kelas siswa yang ndeso sekali dan berilmu sekali jumlahnya hanya sedikit dan sebagian besar berada pada kategori sedang atau rata-rata. Jika kelas tersebut ndeso semua maka tidak normal, atau sekolah luar biasa. Dan sebaliknya jikalau suatu kelas banyak yang berilmu maka kelas tersebut tidak normal atau merupakan kelas unggulan. Pengamatan data yang normal akan memperlihatkan nilai ekstrim rendah dan ekstrim tinggi yang sedikit dan kebanyakan mengumpul di tengah. Demikian juga nilai rata-rata, modus dan median relatif dekat.

Uji normalitas sanggup dilakukan dengan uji histogram, uji normal P Plot, uji Chi Square, Skewness dan Kurtosis atau uji Kolmogorov Smirnov. Tidak ada metode yang paling baik atau paling tepat. Tipsnya yakni bahwa pengujian dengan metode grafik sering menyebabkan perbedaan persepsi di antara beberapa pengamat, sehingga penggunaan uji normalitas dengan uji statistik bebas dari keragu-raguan, meskipun tidak ada jaminan bahwa pengujian dengan uji statistik lebih baik dari pada pengujian dengan metode grafik.

Jika residual tidak normal tetapi bersahabat dengan nilai kritis (misalnya signifikansi Kolmogorov Smirnov sebesar 0,049) maka sanggup dicoba dengan metode lain yang mungkin memperlihatkan justifikasi normal. Tetapi jikalau jauh dari nilai normal, maka sanggup dilakukan beberapa langkah yaitu: melaksanakan transformasi data, melaksanakan trimming data outliers atau menambah data observasi. Transformasi sanggup dilakukan ke dalam bentuk Logaritma natural, akar kuadrat, inverse, atau bentuk yang lain tergantung dari bentuk kurva normalnya, apakah condong ke kiri, ke kanan, mengumpul di tengah atau menyebar ke samping kanan dan kiri.

2. Uji Multikolinearitas
Uji multikolinearitas yakni untuk melihat ada atau tidaknya hubungan yang tinggi antara variabel-variabel bebas dalam suatu model regresi linear berganda. Jika ada hubungan yang tinggi di antara variabel-variabel bebasnya, maka hubungan antara variabel bebas terhadap variabel terikatnya menjadi terganggu. Sebagai ilustrasi, yakni model regresi dengan variabel bebasnya motivasi, kepemimpinan dan kepuasan kerja dengan variabel terikatnya yakni kinerja. Logika sederhananya yakni bahwa model tersebut untuk mencari imbas antara motivasi, kepemimpinan dan kepuasan kerja terhadap kinerja. Makara tidak boleh ada hubungan yang tinggi antara motivasi dengan kepemimpinan, motivasi dengan kepuasan kerja atau antara kepemimpinan dengan kepuasan kerja.

Alat statistik yang sering dipergunakan untuk menguji gangguan multikolinearitas yakni dengan variance inflation factor (VIF), hubungan pearson antara variabel-variabel bebas, atau dengan melihat eigenvalues dan condition index (CI).

Beberapa alternatif cara untuk mengatasi dilema multikolinearitas yakni sebagai berikut:
1. Mengganti atau mengeluarkan variabel yang mempunyai hubungan yang tinggi.
2. Menambah jumlah observasi.
3. Mentransformasikan data ke dalam bentuk lain, contohnya logaritma natural, akar kuadrat atau bentuk first difference delta.
4. Dalam tingkat lanjut sanggup dipakai metode regresi bayessian yang masih jarang sekali digunakan.

3. Uji Heteroskedastisitas
Uji heteroskedastisitas yakni untuk melihat apakah terdapat ketidaksamaan varians dari residual satu ke pengamatan ke pengamatan yang lain. Model regresi yang memenuhi persyaratan yakni di mana terdapat kesamaan varians dari residual satu pengamatan ke pengamatan yang lain tetap atau disebut homoskedastisitas.

Deteksi heteroskedastisitas sanggup dilakukan dengan metode scatter plot dengan memplotkan nilai ZPRED (nilai prediksi) dengan SRESID (nilai residualnya). Model yang baik didapatkan jikalau tidak terdapat pola tertentu pada grafik, menyerupai mengumpul di tengah, menyempit kemudian melebar atau sebaliknya melebar kemudian menyempit. Uji statistik yang sanggup dipakai yakni uji Glejser, uji Park atau uji White.

Beberapa alternatif solusi jikalau model menyalahi perkiraan heteroskedastisitas yakni dengan mentransformasikan ke dalam bentuk logaritma, yang hanya sanggup dilakukan jikalau semua data bernilai positif. Atau sanggup juga dilakukan dengan membagi semua variabel dengan variabel yang mengalami gangguan heteroskedastisitas.

4. Uji Autokorelasi
Uji autokorelasi yakni untuk melihat apakah terjadi hubungan antara suatu periode t dengan periode sebelumnya (t -1). Secara sederhana yakni bahwa analisis regresi yakni untuk melihat imbas antara variabel bebas terhadap variabel terikat, jadi tidak boleh ada hubungan antara observasi dengan data observasi sebelumnya. Sebagai pola yakni imbas antara tingkat inflasi bulanan terhadap nilai tukar rupiah terhadap dollar. Data tingkat inflasi pada bulan tertentu, katakanlah bulan Februari, akan dipengaruhi oleh tingkat inflasi bulan Januari. Berarti terdapat gangguan autokorelasi pada model tersebut. Contoh lain, pengeluaran rutin dalam suatu rumah tangga. Ketika pada bulan Januari suatu keluarga mengeluarkan belanja bulanan yang relatif tinggi, maka tanpa ada imbas dari apapun, pengeluaran pada bulan Februari akan rendah.

Uji autokorelasi hanya dilakukan pada data time series (runtut waktu) dan tidak perlu dilakukan pada data cross section menyerupai pada kuesioner di mana pengukuran semua variabel dilakukan secara serempak pada dikala yang bersamaan. Model regresi pada penelitian di Bursa Efek Indonesia di mana periodenya lebih dari satu tahun biasanya memerlukan uji autokorelasi.

Beberapa uji statistik yang sering dipergunakan yakni uji Durbin-Watson, uji dengan Run Test dan jikalau data observasi di atas 100 data sebaiknya memakai uji Lagrange Multiplier. Beberapa cara untuk menanggulangi dilema autokorelasi yakni dengan mentransformasikan data atau bisa juga dengan mengubah model regresi ke dalam bentuk persamaan beda umum (generalized difference equation). Selain itu juga sanggup dilakukan dengan memasukkan variabel lag dari variabel terikatnya menjadi salah satu variabel bebas, sehingga data observasi menjadi berkurang 1.

5. Uji Linearitas
Uji linearitas dipergunakan untuk melihat apakah model yang dibangun mempunyai hubungan linear atau tidak. Uji ini jarang dipakai pada banyak sekali penelitian, alasannya yakni biasanya model dibuat menurut telaah teoretis bahwa hubungan antara variabel bebas dengan variabel terikatnya yakni linear. Hubungan antar variabel yang secara teori bukan merupakan hubungan linear sebetulnya sudah tidak sanggup dianalisis dengan regresi linear, contohnya dilema elastisitas.

Jika ada hubungan antara dua variabel yang belum diketahui apakah linear atau tidak, uji linearitas tidak sanggup dipakai untuk memperlihatkan adjustment bahwa hubungan tersebut bersifat linear atau tidak. Uji linearitas dipakai untuk mengkonfirmasikan apakah sifat linear antara dua variabel yang diidentifikasikan secara teori sesuai atau tidak dengan hasil observasi yang ada. Uji linearitas sanggup memakai uji Durbin-Watson, Ramsey Test atau uji Lagrange Multiplier.


Regresi Linear dengan Variabel Moderating
Variabel moderating yakni variabel yang memperkuat atau memperlemah hubungan antara satu variabel dengan variabel lain. Sebagai contoh: seorang suami mencintai istrinya. Dengan hadirnya seorang anak, maka rasa sayang tersebut bertambah. Berarti variabel anak merupakan moderating antara rasa saya suami terhadap istri. Contoh lain: kompensasi memperkuat imbas antara kepuasan kerja terhadap kinerja. Artinya kepuasan kerja besar lengan berkuasa terhadap kinerja, dan adanya kompensasi yang tinggi maka imbas antara kepuasan kerja terhadap kinerja menjadi lebih meningkat. Dalam hal ini, kompensasi bisa saja besar lengan berkuasa terhadap kinerja bisa saja tidak.
Metode analisis regresi linear dengan variabel moderating:

1. Multiple Regression Analysis (MRA)
Metode ini dilakukan dengan menambahkan variabel perkalian antara variabel bebas dengan variabel moderatingnya, sehingga persamaan umumnya yakni sebagai berikut: Y = a + b1 X1 + b2 X2 + b3 X1 X2 dengan Y yakni kinerja, X1 yakni kepuasan kerja, X2 kompensasi dan X1 X2 yakni perkalian antara kepuasan kerja dengan kompensasi. Hipotesis moderating diterima jikalau variabel X1 X2 mempunyai imbas signifikan terhadap Y, tidak tergantung apakah X1 dan X2 mempunyai imbas terhadap Y atau tidak. Model ini biasanya menyalahi perkiraan multikolinearitas atau adanya hubungan yang tinggi antara variabel bebas dalam model regresi, sehingga menyalahi perkiraan klasik. Hampir tidak ada model MRA yang terbebas dari dilema multikolinearitas, sehingga sebetulnya model ini tidak disarankan untuk dipergunakan.

2. Absolut residual
Model ini menyerupai dengan MRA, tetapi variabel moderating didekati dengan selisih mutlak (absolut residual) antara variabel bebas dengan variabel moderatingnya. Penerimaan hipotesis juga sama, dan model ini masih riskan terhadap gangguan multikolinearitas meskipun risiko itu lebih kecil dari pada dengan metode MRA.

3. Residual
Model ini memakai konsep lack of fit yaitu hipotesis moderating diterima terjadi jikalau terdapat ketidakcocokan dari deviasi hubungan linear antara variabel independen. Langkahnya yakni dengan meregresikan antara kepuasan kerja terhadap kompensasi dan dihitung nilai residualnya. Pada kegiatan SPSS dengan klik Save pada regreesion, kemudian klik pada usntandardized residual. Nilai residual kemudian diambil nilai absolutnya kemudian diregresikan antara kinerja terhadap sewenang-wenang residual. Hipotesis moderating diterima jikalau nilai t hitung yakni negatif dan signifikan. Model ini terbebas dari gangguan multikolinearitas alasannya yakni hanya memakai satu variabel bebas.

Pertanyaan-pertanyaan yang sering muncul:

1. Ada model regresi moderating dengan MRA tetapi output memenuhi uji multikolinearitas?
Hampir tidak ada model moderating dengan MRA yang terbebas dari gangguan multikolinearitas. Banyak output pada skripsi yang dimanipulasi supaya sepertinya memenuhi perkiraan multikolinearitas padahal sebetulnya tidak. Hal ini banyak terjadi di mana (maaf) dosen tidak terlalu menguasai statistik secara baik. Penulis sendiri belum pernah melihat tabulasi data yang memenuhi model moderating dengan metode MRA.
2. Bagaimana model regresi moderating dengan dua buah variabel bebas?
Model dengan MRA menjadi Y = a + b1 X1 + b2 X2 + b3 X3 + b4 X1 X2 + b5 X1 X3 + b6 X2 X3 + bb X1 X2 X3 di mana X3 yakni variabel moderating (he he...jadi panjang banget kan). Hipotesis diterima jikalau X1 X2 X3 signifikan, tetapi hampir niscaya model ini menyalahi perkiraan multikolinearitas. Sebaiknya dipakai model residual dengan lack of fit.
3. Bagaimana merancang model regresi dengan moderating pada penelitian?
Model moderating ditentukan dengan tinjauan teoretis, sehingga analisis dengan moderating hanya mengkonfirmasi saja teori tersebut apakah cocok dengan model empiris. Tidak boleh memakai alat statistik moderating untuk mengidentifikasikan bahwa variabel itu merupakan variabel moderating.

Regresi Linear dengan Variabel Intervening
Variabel intervening yakni variabel antara atau variabel mediating. Model regresi dengan variabel intervening merupakan hubungan bertingkat sehingga jikalau dengan analisis regresi harus memakai analisis jalur (path analysis) atau disarankan memakai metode structural equation modelling (SEM). Metode SEM akan dibahas belakangan dengan memakai Program AMOS atau LISREL
Regresi dengan variabel intervening dipergunakan untuk melihat imbas tidak pribadi antara satu variabel terhadap variabel yang lain. Sebagai contoh: Gaya Evaluasi Atasan (GEA) mempunyai imbas terhadap Kinerja Manajerial (KM) melalui Tekanan Kerja (TK). GEA mempunyai imbas pribadi terhadap KM tetapi juga bisa mempunyai imbas tidak pribadi terhadap KM melalui TK. GEA diinterpretasikan mempunyai imbas tidak pribadi terhadap KM melalui Taman Kanak-kanak jikalau imbas GEA terhadap Taman Kanak-kanak signifikan dan imbas Taman Kanak-kanak terhadap KM juga signifikan. Dalam suatu kasus bisa saja variabel mempunyai imbas pribadi terhadap suatu variabel dan imbas tidak pribadi terhadap variabel tersebut melalui variabel yang lain.


Sumber http://indaharitonang-fakultaspertanianunpad.blogspot.com

0 Response to "✔ Regresi Linear"

Posting Komentar

Iklan Atas Artikel

Iklan Tengah Artikel 1

Iklan Tengah Artikel 2

Iklan Bawah Artikel