• 28 Mar 2012 /  Tugas No Comments

    Regresi linier adalah metode statistika yang digunakan untuk membentuk model hubungan antara variabel terikat (dependen; respon; Y) dengan satu atau lebih variabel bebas (independen, prediktor, X). Apabila banyaknya variabel bebas hanya ada satu, disebut sebagai regresi linier sederhana, sedangkan apabila terdapat lebih dari 1 variabel bebas, disebut sebagai regresi linier berganda.

    Analisis regresi setidak-tidaknya memiliki 3 kegunaan, yaitu untuk tujuan deskripsi dari fenomena data atau kasus yang sedang diteliti, untuk tujuan kontrol, serta untuk tujuan prediksi. Regresi mampu mendeskripsikan fenomena data melalui terbentuknya suatu model hubungan yang bersifatnya numerik. Regresi juga dapat digunakan untuk melakukan pengendalian (kontrol) terhadap suatu kasus atau hal-hal yang sedang diamati melalui penggunaan model regresi yang diperoleh. Selain itu, model regresi juga dapat dimanfaatkan untuk melakukan prediksi untuk
    variabel terikat. Namun yang perlu diingat, prediksi di dalam konsep regresi hanya boleh dilakukan di dalam rentang data dari variabel-variabel bebas yang digunakan untuk membentuk model regresi tersebut. Misal, suatu model regresi diperoleh dengan mempergunakan data variabel bebas yang memiliki rentang antara 5 s.d. 25, maka prediksi hanya boleh dilakukan bila suatu nilai yang digunakan sebagai input untuk variabel X berada di dalam rentang tersebut. Konsep ini disebut
    sebagai interpolasi. Data untuk variabel independen X pada regresi linier bisa merupakan data pengamatan yang tidak ditetapkan sebelumnya oleh peneliti (obsevational data) maupun data yang telah ditetapkan (dikontrol) oleh peneliti sebelumnya (experimental or fixed data). Perbedaannya adalah bahwa dengan menggunakan fixed data, informasi yang diperoleh lebih kuat dalam menjelaskan
    hubungan sebab akibat antara variabel X dan variabel Y. Sedangkan, pada observational data, informasi yang diperoleh belum tentu merupakan hubungan sebab-akibat. Untuk fixed data, peneliti sebelumnya telah memiliki beberapa nilai variabel X yang ingin diteliti. Sedangkan, pada observational data, variabel X yang diamati bisa berapa saja, tergantung keadaan di lapangan. Biasanya, fixed data diperoleh dari percobaan laboratorium, dan observational data diperoleh dengan menggunakan kuesioner. Di dalam suatu model regresi kita akan menemukan koefisien-koefisien. Koefisien pada model regresi sebenarnya adalah nilai duga parameter di dalam model regresi untuk kondisi yang sebenarnya (true condition), sama halnya dengan statistik mean (rata-rata) pada konsep statistika dasar. Hanya saja, koefisien-koefisien untuk model regresi merupakan suatu nilai rata-rata yang
    berpeluang terjadi pada variabel Y (variabel terikat) bila suatu nilai X (variabel bebas) diberikan.
    Koefisien regresi dapat dibedakan menjadi 2 macam, yaitu:
    1. Intersep (intercept)
    Intersep, definisi secara metematis adalah suatu titik perpotongan antara suatu garis dengan sumbu Y pada diagram/sumbu kartesius saat nilai X = 0. Sedangkan definisi secara statistika adalah nilai rata-rata pada variabel Y apabila nilai pada variabel X bernilai 0. Dengan kata lain, apabila X tidak memberikan kontribusi, maka secara rata-rata, variabel Y akan bernilai sebesar intersep. Perlu diingat, intersep hanyalah suatu konstanta yang memungkinkan munculnya koefisien lain di dalam model regresi. Intersep tidak selalu dapat atau perlu untuk diinterpretasikan. Apabila data pengamatan pada variabel X tidak mencakup nilai 0 atau mendekati 0, maka intersep tidak memiliki makna yang berarti, sehingga tidak perlu
    diinterpretasikan.
    2. Slope
    Secara matematis, slope merupakan ukuran kemiringan dari suatu garis. Slope adalah koefisien regresi untuk variabel X (variabel bebas). Dalam konsep statistika, slope merupakan suatu nilai yang menunjukkan seberapa besar kontribusi (sumbangan) yang diberikan suatu variabel X terhadap variabel Y. Nilai slope dapat pula diartikan sebagai ratarata pertambahan (atau pengurangan) yang terjadi pada variabel Y untuk setiap peningkatan satu satuan variabel X.
    Contoh model regresi:
    Y = 9.4 + 0.7*X + 
    Angka 9.4 merupakan intersep, 0.7 merupakan slope, sedangkan  merupakan error. Error bukanlah berarti sesuatu yang rusak, hancur atau kacau. Pengertian error di dalam konsep statistika berbeda dengan pengertian error yang selama ini dipakai di dalam kehidupan sehari-hari. Di dalam konsep regresi linier, error adalah semua hal yang mungkin mempengaruhi variabel terikat Y, yang tidak diamati oleh peneliti.
    Berikut ini adalah contoh garis regresi di dalam sebuah grafik:

    Dalam grafik diatas dapat kita lihat bahwa sumbu X berada pada kisaran angka 5 lebih sedikit hingga angka 15 lebih sedikit. Hal ini berarti bahwa kita hanya diijinkan untuk melakukan prediksi nilai Y untuk nilai X yang berada dalam rentang tersebut. Sebab, kita tidak memiliki dasar yang kuat untuk mengatakan bahwa hubungan variabel X dan Y tetap linier untuk titik-titik data yang mendekati angka nol. Kondisi seperti ini berdampak terhadap interpretasi intersep. Dalam kasus ini, karena data untuk variabel X tidak memuat angka nol atau mendekati nol, intersep dikatakan tidak memiliki makna yang berarti, sehingga tidak perlu diinterpretasikan.

    Uji Simultan Model Regresi
    Uji simultan (keseluruhan; bersama-sama) pada konsep regresi linier adalah pengujian mengenai apakah model regresi yang didapatkan benar-benar dapat diterima. Uji simultan bertujuan untuk menguji apakah antara variabel-variabel bebas X dan terikat Y, atau setidaktidaknya antara salah satu variabel X dengan variabel terikat Y, benar-benar terdapat hubungan linier (linear relation). Hipotesis yang berlaku untuk pengujian ini adalah:
    H0 : 1=2 …=k=0
    H1 : Tidak semua i=0
    i = 1, 2, …, k
    k = banyaknya variabel bebas X
    i = parameter (koefisien) ke-i model regresi linier
    Penjabaran secara hitungan untuk uji simultan ini dapat ditemui pada tabel ANOVA (Analysis Of
    Variance). Di dalam tabel ANOVA akan ditemui nilai statistik-F ( Fhitung ), dimana:
    jika Fhitung ≤ Ftabel ( db1 , db2 ) maka terima H0 , sedangkan
    jika Fhitung > Ftabel ( db1 , db2 ) maka tolak H0 .
    db1 dan db2 adalah parameter-parameter Ftabel , dimana:
    db1 = derajat bebas 1
    = p -1
    db2 = derajat bebas 2
    = n – p
    p = banyaknya parameter (koefisien) model regresi linier
    = banyaknya variabel bebas + 1
    n = banyaknya pengamatan
    Apabila H0 ditolak, maka model regresi yang diperoleh dapat digunakan.
    Uji Parsial
    Uji parsial digunakan untuk menguji apakah sebuah variabel bebas X benar-benar
    memberikan kontribusi terhadap variabel terikat Y. Dalam pengujian ini ingin diketahui apakah jika secara terpisah, suatu variabel X masih memberikan kontribusi secara signifikan terhadap variabel terikat Y.
    Hipotesis untuk uji ini adalah:
    H0 : j = 0
    H1 : j ≠ 0
    dimana:
    j = 0, 1, …, k
    k = banyaknya variabel bebas X
    Uji parsial ini menggunakan uji-t, yaitu:
    jika thitung ≤ ttabel (n-p), maka terima H0
    jika thitung > ttabel (n-p), maka tolak H0
    dimana
    (n-p) = parameter ttabel
    n = banyanya pengamatan
    p = banyaknya parameter (koefisien) model regresi linier
    Apabila H0 ditolak, maka variabel bebas X tersebut memiliki kontribusi yang signifikan terhadap variabel terikat Y.

    Pengambilan Keputusan dengan p-value
    Dalam memutuskan apakah menerima atau menolak H0 dalam konsep statistika, kita
    dihadapkan pada suatu kesalahan dalam menyimpulkan suatu kasus yang kita amati. Hal ini disebabkan karena di dalam statistika, kita bermain-main dengan sampel. Statistika menggunakan informasi dari sampel untuk menyimpulkan kondisi populasi keseluruhan. Oleh karena itu, mungkin sekali terjadi kesalahan dalam membuat suatu kesimpulan bagi populasi tersebut. Namun demikian, konsep statistika berupaya agar kesalahan tersebut sebisa mungkin adalah yang terkecil.
    Untuk memutuskan apakah H0 ditolak atau diterima, kita membutuhkan suatu kriteria
    uji. Kriteria uji yang paling sering digunakan akhir-akhir ini adalah p-value. P-value lebih disukai dibandingkan kriteria uji lain seperti tabel distribusi dan selang kepercayaan. Hal ini disebabkan karena p-value memberikan 2 informasi sekaligus, yaitu disamping petunjuk apakah H0 pantas ditolak, p-value juga memberikan informasi mengenai peluang terjadinya kejadian yang disebutkan di dalam H0 (dengan asumsi H0 dianggap benar). Definisi p-value adalah tingkat keberartian terkecil sehingga nilai suatu uji statistik yang sedang diamati masih berarti.
    Misal, jika p-value sebesar 0.021, hal ini berarti bahwa jika H0 dianggap benar, maka kejadian yang disebutkan di dalam H0 hanya akan terjadi sebanyak 21 kali dari 1000 kali percobaan yang sama. Oleh karena sedemikian kecilnya peluang terjadinya kejadian yang disebutkan di dalam H0 tersebut, maka kita dapat menolak statement (pernyataan) yang ada di dalam H0 . Sebagai gantinya, kita menerima statement yang ada di H1 . P-value dapat pula diartikan sebagai besarnya peluang melakukan kesalahan apabila kita memutuskan untuk menolak H0 . Pada umumnya, p-value dibandingkan dengan suatu taraf nyata  tertentu, biasanya 0.05 atau 5%. Taraf nyata  diartikan sebagai peluang kita melakukan kesalahan untuk menyimpulkan bahwa H0 salah, padahal sebenarnya statement H0 yang benar. Kesalahan semacam ini biasa dikenal dengan galat/kesalahan jenis I (type I error, baca = type one error). Misal  yang digunakan adalah 0.05, jika p-value sebesar 0.021 (< 0.05), maka
    kita berani memutuskan menolak H0 . Hal ini disebabkan karena jika kita memutuskan menolak H0 (menganggap statement H0 salah), kemungkinan kita melakukan kesalahan masih lebih kecil daripada  = 0.05, dimana 0.05 merupakan ambang batas maksimal dimungkinkannya kita salah dalam membuat keputusan.

    Koefisien Determinasi R2
    Koefisien determinasi adalah besarnya keragaman (informasi) di dalam variabel Y yang dapat diberikan oleh model regresi yang didapatkan. Nilai R2 berkisar antara 0 s.d. 1. Apabila nilai R2 dikalikan 100%, maka hal ini menunjukkan persentase keragaman (informasi) di dalam variabel Y yang dapat diberikan oleh model regresi yang didapatkan. Semakin besar nilai R2 , semakin baik model regresi yang diperoleh.

    Daniel, W.W. STATISTIK NONPARAMETRIK TERAPAN. Gramedia. Jakarta.
    Gujarati, D. 1991. EKONOMETRIKA DASAR. Erlangga. Jakarta.

    Posted by belva @ 12:53 pm