Regresi Data Panel dengan Eviews 7

Regresi data panel dapat dilakukan dengan eviews atau dengan eviews versi 7 atau versi sebelumnya. Analisis data panel memang lebih cocok menggunakan software eviews dibandingkan sofware lain seperti SPSS. SPSS lebih cocok digunakan untuk menganalisis bukan data panel (time series saja atau cases saja). Analisis data panel adalah pengamatan mengenai data yang berupa multiple kasus (perusahaan, kota, negara, dll) yang dianalisis lebih dari saru serial waktu. analisis data panel lebih dikenal juga sebagai cross-sectional time series data.

Mengingat data terdiri dari dua dimensi, maka analisis regresi data panel yang digunakan juga perlu mempertimbangkan data multiple cases. EViews versi 7 atau versi sebelumnya juga sudah menyediakan menu yang mengakomodasi untuk keperluan model seperti ini. Sebagai contoh ketika kita menggunakan multiple cases beberapa negara, maka dalam model yang kita analisis juga perlu mempertimbangkan beberapa negara.

Berikut adalah langkah-langkah analisis regresi data panel dengan eviews 7 atau versi sebelumnya:

  1. Model Pool atau Model Common

Dalam regresi panel data ada yang namanya model pool . Model pool atau model common digunakan untuk menguji hipotesa model penelitian tanpa membedakan waktu dan kelompok data. Dalam hal ini tidak membedakan tahun dan tidak membedakan parent company dari perusahaan-perusahaan yang diujikan.

  1. Uji Asumsi Klasik

Uji asumsi klasik dilakukan untuk menguji model pool bukan regresi data panel. Mengingat model pool dilakukan dengan menggunakan pendekatan ordinary least square, maka model pool perlu memenuhi asumsi klasik (normalitas, multikolinieritas, autokorelasi dan heteroskedastisitas).

  1. Running Model Fixed Effect

Model Fix Effect : Yit = β0 + β1X1ij+ β2X2ij3D3 + β4D4+ β5D5 +  eit

Model fixed effect pada regresi data panel dilakukan mengingat parent company dari perusahaan yang dijadikan sample berbeda. Sehingga perlu melihat efek apakah terdapat pengaruh dari parent company yang berbeda. Pendekatan ini mengizinkan intercept bervariasi antar unit cross-section  namun tetap mengasumsikan bahwa slope koefisien adalah konstan antar unit cross-section. Penambahan variabel dummy ini dapat mengurangi banyaknya degree of freedom yang pada akhirnya akan mempengaruhi koefisien dari parameter yang diestimasi

  1. Uji Chow

Uji ini digunakan salah satu untuk memilih model pada regresi data panel, yaitu antara model efek tetap (fixed effect model) dengan model koefeisien tetap (pooled regression). Hipotesis awal dari uji adalah model efek tetap (fixed effect). sama bagusnya dengan model koefisien tetap.

  1. Model Random Effect

Berbeda dengan regresi metode OLS, regresi data panel memungkinkan Intersep menjadi perbedaan responden (crossectional) β0i diganti dengan intersep yang menunjukan rata-rata intersep populasi. Error model (Vit) terdiri dari Error karena Crossectional perbedaan perusahaan (µi) dan karena Error total kombinasi antara Corssectional dan Time Series (eit).

Pendekatan ini mengasumsikan unobservable individual effects (ui) tidak berkorelasi dengan regressor (X) atau dengan kata lain ui diasumsikan bersifat random. Sebelum model diestimasi dengan model yang tepat, terlebih dahulu dilakukan uji spesifikasi apakah fixed effect atau random effect atau keduanya memberikan hasil yang sama.

  1. Uji Hausman

Pada regresi data panel, melakukan uji hausman adalah hal yang penting. Eviews versi 7 sudah menyediakannya. Setelah tahapan signifikansi diperoleh informasi bahwa model fixed effect lebih baik dibandingkan dengan model pool, maka tahapan selanjutnya perlu dilakukan pengujian apakah model random effect merupakan model yang lebih baik dibandingkan model fixed effect. Uji tersebut dilakukan dengan uji hausman. Hipotesis awal dari uji hausman adalah model random effect sama baiknya dengan model fixed effect.

Uji Hipotesis Statistik Penelitian

Uji hipotesis statistik penelitian adalah proses pengambilan keputusan mengenai sebuah klaim terhadap populasi. Artinya dalam uji hipotesis, peneliti menguji apakah dugaan sementara terbukti atau tidak berdasarkan data. Sebagai contoh, dalam sebuah pemilu presiden, seorang peneliti menduga bahwa kandidat presiden A akan unggul 20% dibandingkan dengan kandidat presiden B. Dugaan peneliti disebut dengan hipotesis. Hipotesis perlu dibuktikan melalui data apakah akan sesuai dengan kenyataan (data populasi) atau tidak.

Dalam uji hipotesis statistik penelitian, peneliti perlu mendefinisikan apa populasi penelitiannya. mengapa? karena populasi adalah nilai rujukan yang akan dibuktikan. Melanjutkan contoh di atas, populasinya adalah seluruh jumlah pemilih yang telah ditetapkan. selanjutnya peneliti perlu membuat pernyataan hipotesis. Tidak hanya dinyatakan dalam bahasa penelitian, peneliti pun harus mampu menyatakan dalam bahasa statistik yang biasa disebut dengan hipotesis statistik. Perbedaan proporsi pemilih kandidat A lebih besar 20% dibandingkan proporsi pemilih kandidat B merupakan contoh hipotesis yang cocok untuk kasus pilpres di atas. Peneliti perlu mengumpulkan data-data pendukung melalui pengambilan sebagian data dari populasi yang disebut dengan sampel. data sampel yang akan dijadikan judgement apakah hipotesis peneliti akan terbukti atau tidak. Melalui tingkat kepercayaan tertentu, data sampel perlu dibandingkan dengan suatu nilai norma yang terdapat pada tabel statistik. Kesimpulan apakah hipotesis diterima atau ditolak dapat dilihat dari perbandingan data sampel terhadap norma distribusi apakah masih dalam toleransi batas penerimaan atau tidak.

Secara sistematis, pengujian hipotesis dapat dinyatakan melalui langkah-langkah berikut:

1. Nyatakan hipotesis, dan apa klaim peneliti

2. Temukan nilai kritis (norma) dengan tingkat kepercayaan tertentu pada tabel statistik.

3. Hitunglah nilai statistik data sampel

4. Buatlah keputusan apakah hipotesis diterima atau ditolak dengan membandingkan nilai statistik sampel dengan norma pada tabel statistik.

5. Buatlah kesimpulan.

 

Norma statistik yang dijadikan pembanding adalah tabel statistik yang berisi distribusi tertentu dari populasi. Tabel norma statistik yang biasa digunakan adalah tabel distribusi t, tabel distribusi Z, tabel F, tabel Chi kuadrat. di luar tabel-tabel tersebut sebenarnya masih ada beberapa tabel distribusi lainnya. Tabel tersebut digunakan disesuaikan dengan pola distribusi data sampel dan jumlah sampel. Tabel distribusi Z biasa digunakan untuk sampel berukuran besar (sampel lebih besar atau sama dengan 30). tabel distribusi t cocok digunakan untuk sampel kecil (kurang dari 30). Dengan jumlah sampel dan tingkat kepercayaan tertentu, peneliti akan mendapatkan suatu norma yang akan dijadikan acukan untuk pengujian hipotesis (menerima atau menolak hipotesis).

Secara statistik, pernyataan hipotesis dibagi menjadi dua kelompok yaitu hipotesis satu pihak (one-tailed) dan hipotesis dua pihak (two-tailed). pengelompokan tersebut didasarkan atas pernyataan hipotesis. Jika peneliti menyatakan hanya akan menerima rentang nilai positif maka uji hipotesis statistik tersebut dikelompokkan ke dalam hipotesis satu pihak, begitu juga sebaliknya. Namun jika peneliti menyatakan dugaannya dalam satu nilai, misalnya kandidat presiden A akan memperoleh suara sebesar 70%, maka disebut hipotesis satu pihak. Nilai yang meleset dari angka 70%, baik itu lebih besar atau lebih kecil, akan ditolak.

Dengan demikian, uji hipotesis statistik penelitian dapat dikatakan sebagai justifikasi terhadap parameter populasi yang lebih luas melalui pengambilan sampel yang lebih sedikit. Apakah nilai statistik dari sampel penelitian sudah dapat merepresentasikan nilai parameter populasinya, jawabannya ada uji hipotesis statistik. Melalui metode ini, peneliti dapat lebih efisien melakukan estimasi parameter populasi dengan jumlah sampel yang jauh lebih kecil dibandingkan jumlah populasi.

Uji Validitas Kuesioner

Uji validitas adalah sebuah ukuran yang mana sebuah alat ukur dapat mengukur apa yang ungin diukur. Ada tiga tipe validitas yang mana adalah:

1. Validitas isi

Ketika sebuah uji memiliki validitas isi, maka item-item yang dibuat seharusnya sudah mewakili semua indikator yang mungkin. item-item pertanyaan yang dibuat secara individual memungkinkan menarik item-item yang lebih luas. Dalam beberapa contoh dimana sebuah alat test digunakan untuk mengukur bakat seseorang, maka alat test tersebut akan sulit untuk didefinisikan, Sebuah judgement dari seorang ahli mungkin dapat memberikan penilaian relevasi item-item pertanyaan yang dibuat.
2. Validitas yang berhubungan dengan kriteria (criterion related validity)

Sebuah alat ukur dikatakan dapat diukur dengan uji validitas dengan kriteria jika mampu mengukur keefektifannya dalam mengukur kriteria-kriteria atau indikator-indikator yang telah ditetapkan. Pada uji validitas jenis ini sebuah pengukuran atau prosedur akan diukur dengan nilai yang sudah terbukti valid atau kenyataan di lapangan. Sebagai contoh adalah uji validitas mengenai test tertulis mengenai mengemudi, test tertulis ini dapat dikatakan valid jika memang di lapangan subjek penelitian mampu mengemudikan kendaraan dengan benar.

Uji validitas dengan kriteria dapat dibedakan menjadi dua kelompok.

a. Concurrent validity

Adalah sebuah uji validitas dimana kriteria-kriteria diukur bersamaan dengan skor test. Sebagai contoh adalah pengujian tingkat depresi, sebuah test dikatakan memiliki concurrent validity jika itu mengukur tingkat depresi yang sedang dialami oleh pengambil test depresi tersebut. Secara singkat dapat dikatakan bahwa pengukuran dilakukan pada waktu bersamaan dengan apa yang ingin diukur.

b. Predictive validity

Adalah terjadi ketika kriteria-kriteria yang diukur diperoleh setelah pengujian. Sebagai contoh adalah aptitude test, yang mana membantu mengukur kemungkinan seseorang apakah akan sukses pada bidang atau pekerjaan tertentu. Peneliti hanya akan mengetahui setelah subjek penelitian menjalani pekerjaan mereka.
3. Validitas Konstruk

Sebuah uji validitas dikatakan memiliki validitas kontruk jika mampu mengukur hubungan antara skor uji dengan prediksi dari nilai teoritisnya. ujivaliditas konstruk mengukur kesesuaian antara konsep teoritis dengan item-item pengukuran yang lebih spesifik untuk mengukur konstruk tersebut. Test kecerdasan adalah salah satu contoh yang diapat diuji dengan uji validitas konstruk. Peneliti yang melakukan pengukuruan kecerdasan perlu mendefinisikan mengenai kecerdasan kemudian membuat ukuran-ukuran spesifik yang dapat mengukur kecerdasan seseorang.

METODE Analisis Data

Metode Analisis data berbeda dengan teknik analisis data walaupun bunyinya serupa. Metode lebih merujuk kepada pendekatan yang lebih umum dan di dalamnya terdapat teknik dari pendekatan tersebut. Metode penelitian secara garis besar dibagi dua bagian yaitu metode kuantitatif dan metode kualitatif. sedangkan dalam metode kuantitatif sendiri terdapat berbagai macam teknik analisis seperti teknik korelasional, regresi, komparasi, deskriptif dan sejenisnya.  Jpeg ilustrasi: analisis data  Metode analisis data kuantitatif adalah pendekatan pengolahan data melalui metode statistik atau matematik yang terkumpul dari data sekunder ataupun data sekunder. Kelebihan dari metode ini dalah kesimpulan yang lebih terukur dan komprehensif.  Metode analisis data kuantitatif terdiri dari beberapa teknik analisis seperti:  1. Analisis Deskriptif, kita mendeskripsikan hasil data yang terkumpul apa adanya melalui ukuran-ukuran statistik seperti mean, median, modus dan standar deviasi.  2. Analisis Komparatif, kita membandingkan satu buah fenomena dengan fenomena lain, atau kita membandingkan fenomena yang sama pada kelompok subjek yang berbeda.  3. Analisis Korelasi, kita melihat keterkaitan antara satu fenomena dengna fenomena lain yang secara teori belum terbukti.  4. Analisis  Kausalitas, kita mempertanyakan lagi kausalitas antara beberapa fenomena yang secara teori sebetulnya sudah diduga saling mempengaruhi.  Metode analisis data kuantitatif lebih banyak digunakan pada bidang keilmuan eksakta, ekonomi, teknik, kedokteran. Walaupun sekarang ini banyak penelitian sosial yang merupakan aplikasi dan dampak dari ilmu-ilmu eksakta, ekonomi, teknik, kedokteran. Sehingga pendekatan metode yang digunakan pun sering menggunakan pendekatan kuantitatif.  Metode analisis data kualitatif adalah pendekatan pengolahan secara mendalam data hasil pengamatan, wawancara, data literatur. Kelebihan metode ini dalah kedalaman dari hasil kajiannya.  Metode analisis data kualitatif lebih banyak digunakan pada bidang ilmu sosial, hukum, sosiologi, politik. Walaupun  tidak mutlak bidang-bidang sosial harus menggunakan metode kualitatif. Metode kualitatif memberikan kelebihan dalam hal kedalaman analisis yang memang diperlukan pada bidang sosial. Bagaimana mungkin meneliti budaya suatu suku tertentu tanpa pengamatan yang mendalam. Bagaimana mungkin mendalami aspek filosofis dari pasal-pasal tertentu dalam bidang hukum jika tanpa kajian mendalam. Tentunya untuk hal-hal demikian diperlukan metode kualitatif.  Metode analisis data kualitatif terdiri dari berbagai teknik analisis seperti:  1. Metode analisis data ini perlu : Mengorganisir data kualitatif menjadi lebih rapi, mengapa hal ini diperlukan? karena seperti kita ketahui bahwa dalam penelitian kualitatif tidak ada yang namanya ukuran pasti, apalagi menggunakan skala baku seperti dalam penelitian kuantitatif.  2. Metode analisis data ini perlu : Koding data perlu dilakukan, karena ukuran-ukuran datanya kebanyakan dalam bentuk verbal bukan dalam bentuk angka, maka peneliti perlu melakukan koding untuk menseragamkan beberapa hal yang memiliki makna yang sama.  3. Metode analisis data ini perlu : Mengkoneksikan satu konsep dengan konsep yang lain yang mungkin saling mempengaruhi, ukuran adanya hubungan atau pengaruh tidak dapat digambarkan oleh angka.  4. Metode analisis data ini perlu : Legitimasi terhadap hasil yang ada dengan membandingkan konsep lain yang kita-kira bertentangan dengan hasil kesimpulan. Seberapa banyak konsep lain yang bertentangan dengan hasil kesimpulan.

Analisis Regresi

Analisis regresi adalah sebuah analisis statistik yang digunakan untuk menduga hubungan diantara variabel-variabel. Sebetulnya banyak metode analisis lain yang dapat digunakan mengukur hubungan diantara variabel-variabel, namun analisis regresi lebih fokus kepada hubungan antara variabel terikat (dependent variable) dengan variabel bebas (independent variable). Secara khusus, analisis regresi membantu peneliti dalam mengetahui perubahan variabel terikat yang disebabkan oleh variabel bebas, dimana variabel lainnya tidak berubah.

Analisis regresi termasuk kepada metode analisis hubungan kausalitas. Pada pola hubungan kausalitas ini, satu variabel mempengaruhi variabel lainnya. Dalam statistik variabel penyebab atau variabel bebas ini bersifat random, sedangkan variabel yang diakibatkannya atau variabel respon bersifat fixed. Analisis regresi ini berbeda dengan analisis korelasi dimana tidak ada variabel yang menjadi variabel penyebab terhadap variabel lainnya. Oleh karena itu, dalam ilmu statistika, kedua variabel dalam analisis korelasi bersifat fixed.

Secara kajian literatur, analisis korelasi digunakan pada variabel yang secara literatur tidak memiliki hubungan sebab akibat. Kedua variabel ini hanya secara kebetulan berhubungan. hubungan antara melemahnya kurs rupiah dengan menurunnya omset sebuah supermarket mungkin saja ada. Tetapi pola hubungan sepergi ini bukan pola hubungan sebab akibat. Pola hubungan yang bersifat sebab akibat contohnya adalah efek pemberian obat tertentu terhadap penyambuhan penyakit tertentu.

Dalam analisis regresi dapat melibatkan satu variabel bebas dan satu variabel terikat, yang mana biasa disebut analisis regresi sederhana, atau melibatkan banyak variabel bebas dengan satu variabel terikat yang mana biasa disebut analisis regresi berganda.

Pengertian Autokorelasi Positif dan negatif dengan SPSS

image3.jpg

ilustrasi autokorelasi

Pengertian

Autokorelasi dikenal sebagai korelasi serial, maksudnya adalah korelasi antara serial data atau antara data sebelum dengan data sesudahnya dalam data yang disusun berdasarkan urutan waktu (time series). Dalam data yang disusun secara cross section (bukan berdasarkan waktu), maka autokorelasi sebetulnya tidak relevan. Pada data yang disusun secara cross section, autokorelasi hanya indikasi dari keterkatitan antara satu subjek penelitian dengan penelitian lainnya. Atau dapat juga dikatakan sebagai kemiripian antara satu obsevasi dengan observasi lainnya. Secara matematika, autokorelasi dapat membaca pola yang berulang dari data. hal tersebut menunjukkan adanya pengaruh waktu terhadap variabel respon. Contohnya pada perubahan harga emas, semakin lama cenderung naik, artinya terdapat pengaruh waktu atau autokorelasi pada perubahan harga emas.

Autokorelasi dibagi menjadi dua yaitu autokorelasi positif dan autokorelasi negatif. seperti kita ketahui bahwa masalah autokorelasi ini merupakan masalah error, maka kedua jenis autokorelasi di atas juga akan terkait masalah error. Autokorelasi positif adalah autokorelasi dimana error yang selalu diikuti oleh error yang sama tandanya. misalnya ketika satu periode sebelumnya positif maka error berikutnya akan positif. Sebaliknya autokorelasi negatif menyebabkan error akan diikuti oleh error yang berbeda tanda. misalnya ketika errornya positif maka akan diikuti oleh error negatif pada periode selanjutnya.

Dampak autokorelasi terhadap Model

Dalam analisis regresi yang menggunakan data time series atau data yang disusun berdasarkan runtun waktu, autokorelasi merupakan syarat utama model regresi agar tidak bias. Autokorelasi merupakan salah satu masalah error. error ini biasanya disebut dengan error terms dalam ekonometrik. Autokorelasi merupakan pelanggaran atas asumsi model OLS (Ordinary Least Square) dimana mensyaratkan bahwa tidak ada korelais antara error/residual. Lalu apa efeknya  terhadap model jika asumsi ini dilanggar? Tentu yang paling terdampak adalah nilai standard error akan cenderung lebih kecil dari seharusnya. Memang kenapa jika standard error diestimasi lebih kecil? Tentu akan menyebabkan nilai t hitung membesar dari seharusnya. Pada gilirannya model menjadi overestimated.

Bagaimana Mendeteksi Autokorelasi?

Secara tradisional, cara untuk menguji ada tidaknya autokorelasi adalah melalui ukuran statistik yang disebut Durbin Watson. cara mengetahui nilai durbin watson dari model tertentu tidaklah susah. Dalam software statistik SPSS sudah tersedia menu untuk mengeluarkan angka durbin watson-nya. Nilai durbin watson tersebut tinggal dibandingkan dengan rentang norma durbin watson yang masih bisa ditolerasi. Uji lain yang tersedia adalah dengan menggunakan uji Breusch-Godfrey. Hanya saja uji ini hanya tarsedia di software Eviews.

Selain cara di atas, sebetulnya terdapat cara yang sederhana untuk mendeteksi apakah terdapat autokorelasi atau tidak. Cara tersebut adalah dengan menggunakan grafik plot error atau residual. Caranya mudah, pertama kita running model regresi Y = a + b1X1 +b2X2… Kemudian diperoleh nilai residualnya. nilai tersebut kita buat plot dengan sumbu horizontal adalah waktu dan sumbu vertikal adalah nilai residual. Jika grafik tersebut membentuk pola tertentu maka artinya terdapat pola yang sistematis atau terdapat korelasi antara error. Hal ini menunjukkan adanya gejala autokorelasi yang harus ditanggulangi.  Jika setiap angka error atau residual diikuti oleh residual pada periode berikutnya dengan tanda yang sama maka kemungkinan adanya autokorelasi positif.

Bagaimana mengatasi Autokorelasi?

Salah satu cara untuk mengatasi autokorelasi adalah dengan membuat model GLS (Generalized Linear Square). Prinsip dari model GLS adalah menghilangkan efek korelasi time series dengan cara mentrasformasi model menjadi model GLS. Model GLS adalah model dengan selisih antara data pada periode t dikurang periode t-1 yang dikalikan dengan nilai Rho. Nilai Rho dianggap sebagai representasi autokorelasi.

 

Pengertian Uji Heteroskedastisitas dan SPSS

Pengertian heteroskedastisitas

Gambar A

Gambar B

Jika kita menggunakan metode analisis regresi dalam penelitian kita, maka kita tidak akan asing lagi dengan yang namanya uji heteroskedastisitas. uji heteroskedastisitas adalah suatu uji asumsi yang harus dipenuhi agar model regresi yang kita akan gunakan tidak bias.

Ah apa sih heteroskedastisitas itu? Jika kita lihat pada gambar A di atas, terlihat bahwa penyebaran data dari waktu ke waktu selalu konsisten. nah itu yang diharapakan. kondisi seperti itu adalah kondisi data yang homoskedastis. Jika kita perhatikan pada gambar B, terlhat bahwa penyebaran dara dari waktu ke waktu terus berubah. Kondisi demikian disebut dengan keadaan data heteroskedastis. Tentunya keadaan demikian tidak diharapkan dalam model. mengapa? karena kita akan mengalami kesulitan untuk mengestimasi model yang tepat akibat varian data yang tidak konsisten.

Sebetulnya selain dalam ananalisis regresis, heteroskedastisitas merupakan permasalahan yang sering muncul dalam Analisis Varians (Anova).

Dampak penyakit heteroskedastisitas

Sebetulnya heteroskedastisitas ini tidak menyebabkan estimasi koefisien regresi pada metode ols (ordinary least square) menjadi bias. Kita tentunya masih dapat menggunakan model regresi dengan baik. Namun, heteroskedastisitas ini akan berpengaruh kepada penaksiran standar error yang bias. penaksiran standar error yang bias tentu akan menyebabkan nilai t hitung menjadi bias. t hitung yang bias tentu akan menyebabkan pengambilan keputusan melalui pengujian hipotesis menjadi bias juga. Kita dapat menjadi salah dalam mengambil kesimpulan, walaupun modelnya tetap benar.

Bagaimana mendeteksi adanya heteroskedastisitas

Banyak cara untuk mendeteksi adanya heteroskedastisitas. dalam beberapa software statistik seperti e views, spss, stata sudah tersedia menu untuk mendeteksi apakah ada penyakit heteroskedastisitas atau tidak.

Dalam analisis regresi, disebutkan beberapa test sebagai berikut:

Park test (1966)
Glejser test (1969)
White test
Breusch–Pagan test
Goldfeld–Quandt test
Cook–Weisberg test
Harrison–McCabe test
Brown–Forsythe test
Levene test

Sebetulnya ada satu cara yang mudah untuk mendeteksi ada tidaknya heteroskedastisitas yaitu dengan mengkorelasikan antara variabel bebas dengan nilai residualnya melalui korelasi rank spearman. logikanya sederhana, jika ada korelasi yang signifikan antara nilai residual dengan variabel bebas dalam regresi, artinya residual tersebut sistematis atau mengganggu model.

Bagaimana cara mengatasi penyakit heteroskedastisitas

Tentu, setelah kita melakukan uji heteroskedastisitas, langkah penyembuhan perlu segera dilakukan. berikut merupakan beberapa cara penyembuhan penyekit heterskedastisitas yang dapat dilakukan:

Terlebih dahulu mentransformasi data menjadi bentuk logariitma (log) atau logaritma natural (ln), terutama untuk data-data yang tumbuh secara eksponensial seiring dengna berjalananya waktu, seperti data jumlah penduduk dan data kredit atas bunga majemuk.

Selanjutnya adalah dapat juga dengan membuat model spesifikasi diferensialnya. maksudnya adalah model selisih antara t dengan t-1. cara ini juga biasanya sekaligus dapat mengatasi masalah multikolinieritas.

Mengganti model penaksiran dari ols menjadi wls (weighted least square). prinsip sederhanya adalah kita membuat pembobotan atas nilai pada variabel x dan Y.

Nah, jika cara-cara di atas masih belum ampuh juga, kita dapat menempuh cara heteroscedasticity-consitent standard errors (HCSE), cara ini biasanya lebih ampuh, karena alur berpikirnya diubah, alih-alih mencoba-coba model yang memiliki varian error yang tetap, kita mulai dengan menetapkan error varians yang konsisten.

 

 

Teknik Analisis Data Penelitian Tesis

analisis data penelitian

Teknik analisis data penelitian adalah proses mengolah data mentah menjadi informasi bahkan ilmu pengetahuan. Data mentah hanyalah menjadi angka-angka jika tanpa ada proses analisis data. Semua proses analisis data relatif sama baik dalam skrispi, tesis, ataupun disertasi. Analisis data dimulai dari pengambilan data ke lapangan, setelah terkumpul data dilakukan cleaning, apakah data yang terkumpul sudah cukup valid atau belum. Bagian dari cleaning data adalah mengidentifikasi apakah terdapat missing value atau tidak. Bagaimana memperlakukan missing value atau data yang hilang. Setelah data terkumpul maka proses selanjutnya adalah dengan melihat distribusi data. Data harus terdistribusi normal atau mengikuti distribusi lainnya. Analisis data dilakukan sesuai dengan berbagai teknik statistik yang tepat. Secara garis besar terdapat 3 metode analisis data sesuai tujuan dari sebuah penelitian. Apakah tujuannya adalah untuk menggambarkan, membandingkan, atau mencari hubungan atau pengaruh.

Analisis Gambaran /desktiptif

Teknik analisis data penelitian gambaran atau desktiprif bertujuan untuk mengeksplorasi data, menyajikan data menjadi mudah dipahami sehingga dapat diambil kesimpulan yang berguna. Analisis data deskriptif lebih banyak bermain dengan tabel dan grafik-grafik. Tujuannya adalah tentu untuk menyajikan data agar lebih mudah difahami secara visual. Tabel-tabel distribusi frekuensi merupakan banyak digunakan untuk menyajikan data ordinal dan nominal.

Ukuran statistik untuk analisis data desktiptif secara sederhana dibagi menjadi dua ukuran. Ukuran yang pertama adalah untuk mengukur pemusatan data. Sedangkan ukuran kedua adalah untuk mengukur penyebaran data. Untuk data numerik, ukuran gejala pusat yang cocok adalah mean dan ukuran penyebarannya adalah standar deviasi.

Analisis Perbandingan

Teknik analisis data penelitian untuk tujuan tentu berbeda dengan analisis data untuk gambaran. Bedanya di mana? Bedanya adalah jika analisis gambaran hanya bertujuan untuk menyajikan data apa adanya tanpa menghubungkan dengan variabel lainnya. Pada analisis perbandingan justeru berbeda. Di sini kita membandingkan antara kelompok. Yang dibandingkan tentu lebih dari satu kelompok. Mungkin dua kelompok, tiga kelompok atau lebih.

Sebagai akademisi tentu kita semua pernah mendengar dengan analisis data dengan uji anova. Uji anova digunakan untuk menganalisis perbedaan rata-rata antara lebih dari dua kelompok. Misalnya kita hendak membandingkan antara rata-rata pendapatan masyarakat di kota Jakarta, Bandung dan Surabaya. analisis lainnya untuk membandingkan dua kelompok adalah Uji T. Sebagai contoh kita hendak membandingkan antara rata-rata berat produk A dan produk B, mana yang lebih tinggi penjualannya.

Analisis Hubungan

Teknik analisis data hubungan adalah bertujuan untuk melihat seberapa besar hubungan antara dua variabel atau lebih apakah memiliki keterkaitan atau tidak. Analisis data ini dilakukan terhadap variabel yang secara teoritis belum tentu memiliki keterkaitan. Contoh, belakangan ini ramai-ramai diberitakan bahwa harga indeks di pasar saham naik ketika salah satu pasangan calon presiden dinyatakan menang dalam quick count. Nah, analisis yang cocok untuk melihat keterkaitan fenomena ini adalah analisis hubungan.

Teknik analisis data penelitian yang digunakan untuk menjawab permasalah hubungan adalah korelasi. Korelasi yang paling dikenal adalah korelasi pearson dan product moment. Perbedaan antara korelasi pearson dan product moment adalah pada skala data yang digunakan. Skala data ordinal cocok dianalisis dengan menggunakan korelasi spearman. Sedangkan untuk mengukur hubungan pada data interval atau rasio maka korelasi product moment lebih cocok digunakan.

Analisis Pengaruh

Teknik analisis data pengaruh bertujuan untuk mencari pengaruh satu atau lebih variabel terhadap variabel lainnya. Analisis data ini bersifat kausalitas, atau sebab akibat. Jadi peneliti harus meyakini atau ada landasan teori bahwa terdapat hubungan kausalitas antara kedua variabel ini. Sebagai contoh, dalam bidang ekonomi pengaruh pendatapatan terhadap tingkat konsumsi, apakah konsumsi masyarakat yang meningkat disebabkan oleh pendapatan yang meningkat atau bukan. Jawabannya bisa iya atau tidak. Dalam bidang marketing misalnya seorang manajer bertanya apakah biaya promosi yang dikeluarkan selama ini berdampak kepada peningkatan penjualan perusahaan atau tidak. Jika meningkat seberapa signifikan tingkat peningkatannya.

Metode analisis data dalam statistik yang biasa digunakan untuk mengukur pengaruh satu variabel terhadap variabel yang lainnya adalah dengan menggunakan analisis regresi. Analisis regresi merupakan fungsi matematis dari variabel bebas terhadap variabel terikat. Selain analisis regresi sebetulnya masih terdapat metode analisis data yang lain untuk melihat pengaruh satu variabel terhadap variabel yang lainnya yaitu Analisis Jalur dan Struktural Equation Modelling atau SEM. Lebih lanjut akan dibahas pada artikel berikutnya.

Simulasi Data Distribusi Normal dan Tidak normal

distribusi normal

sumber:Fonlinecourses.science.psu.edu

Dalam penelitian, kadang kita dihadapkan pada jumlah data yang terbatas. sedangkan secara statistik mensyarakan data yang banyak atau minimal 30 data untuk memenuhi prasyarat parametrik. Pertanyaannya apakah memungkinkan kita melakukan simulasi data dengan jumlah terbatas sehingga menjadi lebih banyak. Jawabannya sangat memungkinkan. Bahkan jika kita hanya mengetahui nilai mean (rata-rata) dan standar deviasi dari suatu data, maka kita dapat melakukan simulasi sampai 1000 data atau lebih.  Misalnya kita mengetahui nilai mean = 20 dan standar deviasinya adalah 5, dari sebuah sampel yang berasal dari populasi yang berdistribusi normal. Untuk mendapatkan angka acak yang berdistribusi normal atau distribusi tertentu kita dapat menggunakan simulasi Monte Carlo dengan bantuan berbagai software yang tersedia.

Adapun langkah-langkah melakukan simulasi data untuk data terbatas yang mengikuti pola distribusi tertentu adalah sebagai berikut:

1.Tentukan nilai starting point

starting point diperlukan untuk mendapatkan angka acak selanjutnya. Walaupun demikian, angka starting point tidak terlalu berpengaruh terhadap simulasi data, dikarenakan angka starting point ini hanyalah satu angka diantara ribuan angka yang akan diperoleh berdasarkan hasil simulasi.

simulasi monte carlo 1

 

2. Tentukan distribusi populasi yang diharapkan

Sebelum melakukan simulasi data, kita harus menentukan asumsi distribusi dari populasi data yang kita harapkan. Misalnya kita berasumsi bahwa data akan mengikuti pola distribusi normal.

Kita perlu mengetahui berbagai distribusi sesuai dengan tipe skala datanya.

Jika skala datanya adalah numerik maka distribusi yang memungkinkan adalah: distribusi normal, log normal, exponential, dan lainnya.

Sedangkan, jika skala datanya adalah kategorik maka distribusi data yang memungkinkan adalah: distribusi binomial, distribusi uniform, distribusi multinomial, distribusi hipergeomertrik dan sebagainya.

simulasi monte carlo 2

 

3. Tentukan asumsi yang dibutuhkan untuk distribusi populasi

Setiap distribusi tentu memiliki parameter statistik tertentu. sebagai contoh, jika kita mengasumsikan data berdistribusi normal, maka minimal kita harus mengetahui dua parameter yaitu mean dan standar deviasi. kedua parameter ini akan digunakan untuk menggenerate data yang lainnya.

simulasi monte carlo 3

 

4. Running data berdasarkan asumsi

Setelah menentukan asumsi yang dibutuhkan, maka proses selanjutnya adalah running data tersebut. Kita dapat melakukan proses running/iterasi sampai 1000 bahkan sampai lebih dari 1000 kali. Jika kita melakukan running 1000 kali maka kita akan mendapatkan 1000 angka acak yang mengikuti pola distribusi yang kita pilih.

simulasi monte carlo 4

 

5. Buatlah laporan

Setelah data selesai dirunning, maka untuk menampilkan outputnya dapat mengklik laporan output apa saja yang diperlukan

simulasi monte carlo 5

Hasilnya adalah kita akan mendapatkan angka acak 1000 data yang mengikuti pola distribusi tertentu, misalnya distribusi normal. Tentunya parameter mean (rata-rata) dan standar deviasi akan mengikuti 1000 data hasil simulasi di atas. Diharapkan dengan semakin banyak proses iterasi, maka akan menghasilkan data yang smooth yang mendekati data populasi.

Demikian proses simulasi data terbatas menjadi simulasi monte carlo yang lebih banyak dengan menggunakan software Crystal ball dari oracle.

Cara Menguji dan Mengatasi Multikolinieritas dengan SPSS

Multikolinieritas adalah fenomena statistik yang ditemui dalam pemodelan regresi linier berganda dimana terdapat hubungan yang tinggi antara dua atau lebih variabel prediktor. Karena multikolinieritas melihat seberapa erat hubungan antara variabel prediktor, maka uji multikolinieritas hanya diperlukan pada model regresi linier berganda, tidak untuk regresi linier sederhana. Hal ini artinya terdapat pola hubungan linier juga diantara variabel prediktor dalam satu model. Jika terjadi demikian, tentunya menyebabkan model regresi menjadi bias. Jika kita memasukan variabel prediktor yang memiliki hubungan yang erat antara variabel tersebut dalam satu model, maka model tersebut menjadi redundant. Sebetulnya berapa nilai korelasi antara variabel prediktor yang masih dapat ditoleransi? Beberapa teori mengatakan dibawah 0,9 masih dapat ditoleransi, namun beberapa teori lain mengatakan harus kurang dari 0,8 bahkan 0,7.

Mendeteksi Multikolinieritas di dalam model

1. Jika dalam model terdapat multikolinieritas, maka akan terjadi perubahan yang besar pada nilai koefisien regresi ketika kita mengeluarkan satu variabel prediktor dari dalam model.

2. Jika dalam model regresi linier berganda, koefisien variabel prediktor tidak signifikan secara statistik, namun ketika kita mencobanya satu persatu variabel prediktor dalam analisis regresi linier sederhana hasilnya menjadi signifikan. Kondisi tersebut juga menunjukkan kemungkinan adanya multikolinieritas.

3. Kita mendapati nilai F hitung yang begitu besar atau signifikan secara statistik, namun ketika diuji secara parsial dengan uji t tidak ada satupun yang signifikan.

3. Ketika terdapat koefisien regresi yang negatif padahal secara teori seharusnya positif. Atau sebaliknya.

4. Untuk memastikan agar lebih yakin terdapat multikolinieritas di dalam model, sebaiknya uji dengan menggunakan nilai VIF menggunakan SPSS atau Eviews. Beberapa ahli mengatakan nilai VIF harus kurang dari 5 dan beberapa ahli lainnya mengatakan cukup dibawah 10.

Bagaimana mengatasi multikolinieritas dalam model

1. Jika kita menjumpai terdapat variabel prediktor yang memiliki nilai VIF lebih dari 5 atau 10, maka kita perlu untuk mengeluarkan salah satu variabel tersebut dari model. Tujuannya adalah untuk mengeluarkan informasi yang redundant yang sebenarnya sudah diwakili oleh variabel prediktor yang lain. Namun jangan khawatir, mengeluarkan salah satu variabel prediktor tidak akan menurunkan nilai R kuadrat secara drastis, jika memang terdapat multikolinieritas dalam model.

2. Untuk menghasilkan kombinasi variabel prediktor yang menghasilkan R kuadrat tertinggi, gunakanlah metode regresi stepwise dalam SPSS.

3. Lakukanlah transformasi data misalnya menjadi bentuk logaritma atau bentuk diferensarialnya. Tansformasi data ke dalam diferensial lebih cocok untuk data time series. Sementara untuk data-data penelitian survei sosial kurang cocok karena akan sulit menginterpretasikan model diferensialnya.

3. Gunakanlah Principal Component Analysis (PCA). Prinsipnya adalah menyederhanakan atau menggabungkan jumlah variabel prediktor menjadi lebih sedikit jumlah variabel tanpa mereduksi satupun variabel prediktor, namun dengan menjadikannya dalam satu skor. Hasil dari pca adalah skor dari variabel prediktor baru yang memiliki korelasi yang minimum sehinggi efektif untuk mengatasi multikolinieritas.

4. Gunakanlah Partial Least Square Regression(PLS). Jika kita menggunakan PCA maka bisa dipastikan kita akan mendapatkan variabel prediktor baru yang memiliki korelasi minimum diantara variabel prediktornya. Permasalahan yang mungkin muncul adalah, variabel prediktor baru tersebut bisa saja tidak memiliki hubungan yang signifikan juga dengan variabel respon (Y). Maka kita akan menghadapi permasalahan baru berikutnya yaitu tidak signifikannya model regresi. Jalan tengahnya adalah PLS, dimana secara perhitungan masih mempertimbangkan variabel prediktor yang memiliki hubungan tinggi dengan variabel respon namun mencari kombinasi variabel prediktor yang memiliki nilai korelasi minimum diantara mereka.

Sumber referensi:
http://en.wikipedia.org/wiki/Multicollinearity
http://blog.minitab.com/blog/understanding-statistics/handling-multicollinearity-in-regression-analysis

Analisis Regresi Linier Berganda dengan SPSS atau Excel

Apa yang dimaksud dengan analisis regresi linier berganda? Seperti sudah dijelaskan pada bagian regresi linier sederhana bahwa pengertian analisis regresi adalah metode statistik yang memodelkan hubungan antara variabel bebas/prediktor dengan variabel terikat /respon melalui hubungan linier yang digambarkan dalam persamaan matematis. Perbedaan mendasar antara analisis regresi linier berganda dan analisis regresi linier sederhana terletak pada jumlah variabel independen (X). Pada regresi berganda jumlahvariabel independen lebih dari satu variabel sedangkan pada regresi sederhana hanya satu variabel.

Contoh analisis regresi linier berganda adalah hubungan antara pendapatan, tabungan terhadap konsumsi. Pendapatan dan tabungan adalah variabel prediktor untuk memprediksi jumlah konsumsi sebagai variabel respon.

Adapun persamaan analisis regresi berganda adalah sebagai berikut:

Y = B1+B2X1+B3X2+…BiXk+e

Y adalah variabel respon

X adalah variabel prediktor

B1 adalah intercept atau konstanta

Bi adalah koefisien regresi atau slope

i adalah indeks untuk koefisien regresi ke i

k adalah indeks untuk variabel prediktor ke k

Dalam analisis regresi linier berganda terdapat dua pengujian yaitu uji F dan uji t. Uji F digunakan untuk menguji seberapa signifikan pengaruh variabel prediktor/variabel independen terhadap variabel respon/variabel dependen secara simultan atau secara bersama sama. Jika nilai F hitung lebih besar dibandignkan F tabel dengan tingkat kepercayaan tertentu, maka dapat dinyatakan bahwa secara simultan variabel X memiliki pengaruh terhadap variabel Y. Uji kedua adalah uji t. Uji t digunakan untuk menguji model regresi secara parsial. Apakah masing-masing variabel prediktor memiliki pengaruh terhadap variabel respon secara parsial. Jika nilai t hitung cukup besar dan melebihi f tabel maka secara sendiri-sendiri variabel tersebut dapat dinyatakan memiliki pengaruh terhadap variabel X.

Nilai R square adjusted digunakan untuk mengukur seberapa besar pengaruh seluruh variabel prediktor yang terdapat dalam persamaan terhadap variabel respon dalam analisis regresi linier berganda. Mengapa r square yang digunakan dalam analisis regresi linier berganda adalah r square adjusted. perlu kita fahami bahwa r square adjusted adalah nilai r square yang sudah disesuaikan dengan jumlah variabel prediktor/variabel independen. Nilai adjusted R square mengkoreksi nilai R square sebenarnya yang diakibatkan penambahan nilai R square dengan bertambahnya jumlah variabel. Melalui adjusted r square kita terhindarkan dari kesalahan dengan menyangka model fit padahal itu hanya disebabkan oleh penambahan jumlah variabel yang tidak berhubungan.

Software yang digunakan untuk melakukan pemodelan analisis regresi linier berganda dewasa ini semakin beragam. Software SPSS cocok digunakan untuk data-data yang berasal dari penelitian sosial, sedangkan software E views cocok untuk menghitung pemodelan pada ilmu ekonomi dan keuangan. Walaupun sebetulnya kita pun masih dapat mengoptimalkan penggunaan Microsoft Excel untuk melakukan pemodelan analisis regresi liner berganda.

Apa saja asumsi yang harus dipenuhi dalam analisis regresi linier berganda? selain asumsi-asumsi yang sudah disebutkan pada bagian analisis regresi linier sederhana seperti, linieritas, homoskedastisitas, terbebas dari autokorelasi untuk data time series, terdapat satu asumsi yaitu asumsi multikolinieritas.

Multikolinieritas, multikolinieritas adalah hubungan yang sempurna antara variabel prediktor. Pada uji ini diharapkan model tidak memiliki masalah multikolinieritas dimana antara variabel prediktor memiliki hubungan yang sempurna. mengapa dalam model tidak diperbolehkan ada dua atau lebih variabel yang memiliki hubungan sempurna. Selain karena akan mengganggu model, tentunya dua variabel yang memiliki hubungan yang sempurna dalam satu model menjadi tidak efektif. Sebaiknya salah satu variabel dikeluarkan dari variabel lain, karena variabel tersebut sudah di-proxi-kan oleh variabel lainnya.

Sumber: http://pareonline.net/getvn.asp?n=2&v=8

Analisis Regresi Logistik dengan SPSS

Analisis Regresi logistik atau dikenal juga dengan regresi logit adalah salah satu jenis model klasifikasi statistik dengan probabilitas atau fungsi peluang. Dalam hal pemodelan, analisis regresi logistik mirip dengan analisis regresi linier yaitu sama-sama memprediksi variabel respon (Y) oleh variabel prediktor (Y). Perbedaannya terletak pada skala data pada variabel respon. Analisis regresi logistik digunakan untuk memprediksi variabel respon yang berskala kategorik. Berbeda dengan analisis regresi linier dimana semua skalanya berskala numerik. Untuk memudahkan perhitungan, berbagai software seperti SPSS, minitab, eviews dapat digunakan untuk menghitung regresi logistik.

Sebagai contoh Ketua tim sukses calon presiden tertentu ingin mengetahui apakah terdapat pengaruh status sosial ekonomi (pendapatan) dan tingkat pendidikan terhadap pilihan calon presiden tertentu. Hasil dari analisis ini akan digunakan untuk bahan masukan dalam membuat strategi pemenangan. Pada contoh seperti ini, skala pengukuran pada variabel respon adalah kategorik yaitu pilihan kandidat presiden misalnya Kandidat A dan Kandidat B. Karena kita dihadapkan pada kondisi dimana skala ukur untuk variabel respon bersifat kategorik maka metode statistik yang tepat untuk kondisi di atas adalah analisis regresi logistik. Berbeda halnya jika kita hendak memprediksi pengaruh variabel prediktor (X) terhadap variabel respon (Y) yang berskala numerik, misalnya pengaruh pendapatan terhadap konsumsi. Konsumsi diukur dengan skala numerik yaitu Rupiah. Metode statistik yang cocok untuk contoh tersebut adalah analisis regresi linier.

Berdasarkan jumlah kategori atau kelompok pada variabel respon, analisis Regresi Logistik dapat dibagi menjadi analisis Regresi Logistik Biner (binary), atau binomial, dan analisis regresi logistik multinomial. Jika jumlah kategori pada variabel respon berjumlah dua, maka disebut Regresi Logistik Biner. Contoh, kandidat presiden A dan Kandidat Presiden B, ya atau tidak, sukses atau gagal. Namun, jika jumlah kategori pada variabel respon berjumlah lebih dari dua, maka disebut regresi logistik multinomial. Contoh, Kandidat A, kandidat B atau kandidat C, pilihan A, pilihan B, atau pilihan C, seterusnya.

Dalam hal fungsi persamaan, Regresi logistik berbeda dengan analisis regresi linier. Regresi logistik melakukan estimasi nilai probabilitas setiap kategori pada variabel respon yang diakatkan oleh perubahan pada variabel prediktor. Maka hasil akhir dari estimasi model adalah seberapa besar peluang kategori 1 akan berubah seiring dengan perubahan variabel prediktor. Sementara dalam analisis regresi linier, model melakukan estimasi terhadap nilai respon itu sendiri bukan probabilitas/peluang. Berikut merupakan fungsi persamaan regresi logistik:

P : adalah probabilitas atau peluang terjadinya suatu kejadian

e : adalah exponensial atau basis dari logaritma natural

a : adalah konstanta

B: adalah koefisien regresi untuk variabel independen atau prediktor, peluang perubahaan variabel respon akibat perubahaan variabel prediktor 1 unit.

Jika digambarkan dalam sebuah grafik probabilitas, maka fungsi logistik dengan eksponensial akan terlihat sebagai berikut:

Garis horisontal menunjukkan perubahan pada koefisien regresi, sedangkan garis vertikal menunjukkan akumulasi peluang. Grafik tersebut menunjukkan peluang terjadinya respon yang diakibatkan oleh perubahan pada variabel prediktor.

Sebagai perbandingan, berikut merupakan grafik untuk persamaan regresi lineri.

Linear regression.svg

Grafik di atas menunjukkan perubahan nilai variabel respon (Y) yang diakibatkan oleh perubahan variabel prediktor (X). Nilai koefisien pada regresi linier menunjukkan perubahan nilai respon yang diakibatkan oleh perubahan pada variabel prediktor. Sementara pada regresi logistik menunjukkan nilai peluang terjadinya suatu kejadian yang diakibatkan oleh perubahan nilai prediktor.

Sumber Referensi:

http://en.wikipedia.org/wiki/Logistic_regression
http://www.strath.ac.uk/aer/materials/5furtherquantitativeresearchdesignandanalysis/unit6/whatislogisticregression/

Cara Pengolahan Data Kuesioner

Cara pengolahan data kuesioner harus melewati berbagai tahap, mulai dari entri data ke dalam komputer lewat program SPSS atau cukup Excel, pengujian validitas dan reliabilitas, analisis deskriptif sampai pengujian hipotesis. Berikut merupakan ulasannya:

1. Uji Validitas dan Reliabilitas

Hal yang membedakan antara cara pengolahan data kuesioner dengan data sekunder adalah uji validitas. Ketika kita melakukan penelitian dengan kuesioner maka kita perlu melakukan uji validitas dan reliabilitas terhadap kuesioner tersebut. Mengapa perlu dilakukan? karena kuesioner dibuat oleh peneliti sedangkan yang mengisi kuesioner adalah responden. Uji ini dilakukan untuk meminimalkan gap miss interpretasi dari kuesioner.
Kuesioner yang baik harus difahami dengan baik oleh responden sebagaimana pembuat kuesioner memahami. Kuesioner yang baik harus memiliki tingkat konsistensi jika diisi pada waktu yang berbeda.

Pada data sekunder, kita tidak perlu melakukan uji validitas dan reliabilitas.

2. Entry Data

Setelah kuesioner terkumpul, anda memiliki tugas selanjutnya yaitu melakukan entri data dari kertas kuesioner ke dalam komputer. Software yang paling umum untuk
Entry data adalah excel. Tentunya excel sudah familiar diantara kita semua. Caranya bagaimana? Kita susun data dalam bentuk matriks. Baris untuk responden dan kolom untuk semua item. Pada baris entri lah mulai dari responden satu sampai responden sejumlah sampel anda. Sedangkan pada kolom, entri lah data berdasarkan item pertanyaan sejumlah pertanyaan dalam kuesioner.
Untuk pertanyaan tertutup yang harus anda entri adalah skor untuk setiap jawaban dari pertanyaan anda. Misalnya jawaban pertanyaan kuesioner adalah sangat teruji = 5, setuju = 4, netral = 3, tidak setuju = 2, dan sangat tidak setuju = 1. Maka yang harus anda entry ke dalam kuesioner adalah skor tersebut.
Bagaimana jika ada ada pertanyaan negatif dalam kuesioner kita? Jika ada kondisi demikian, maka anda ubah skor 5 menjadi 1, 4 jadi 2 dan seterusnya.

3. Analisis Deksriptif

Hasil pengolahan data kuesioner sering ditampilkan dalam bentuk deskriptif. Apa saja tampilan yang cocok untuk data sekunder. Format distribusi frekuensi merupakan format yang ping umum untuk menampilkan data deskriptif distribusi frekuensi. Dal tampilan tersebut disajikan berapa jumlah responden yang menjawab setuju, berapa yang menjawab tidak setuju dan seterusnya.
Jika diperlukan kita juga dapat menampilkan ukuran statistik deskriptif lainnya dalam bentuk mean dan standar deviasi. Namun, perlu dicatat bahwa ketika kita menampilkan data ordinal dalam mean dan standar deviasi, sesungguhnya kita sedang memperlakukan data tersebut menjadi data numerik.

4. Pengujian Hipotesis

Apakah pada data kuesioner dapat dilakukan pengujian hipotesis? Jawabannya tentu saja. Sebetulnya, data kuesioner berskala likert merupakan data ordinal. Memang teknik statistik yang paling cocok adalah teknik non parametrik. Namun karena keterbatasan alat statistik dalam analisis non parametrik, ma kadang orang melakukan transformasi terlebih dahulu data tersebut dari data ordinal ke dalam skala numerik. Atau bahkan ada yang tidak melakukan transformasi terlebih dahulu, mereka langsing melakukan analisis parametrik seperti regresi, dengan menganggap data sudah berskala numerik.

Bermasalah di pengolahan data kuesioner? kontak kami di 081321898008

Uji Validitas Point Biserial, Ini Rumusnya

Uji validitas yang akan digunakan dengan menggunakan teknik korelasi point biserial, seperti dijelaskan dalam Brown (1988,p.150) koefisien korelasi point biserial adalah ukuran statistik yang digunakan untuk mengestimasi tingkat hubungan antara data yang memiliki skala dikotomus dan yang memiliki skala interval/ratio. Dalam hal ini peneliti ingin meneliti tingat pengetahuan yang memiliki skala dikotomus dan total dari item yang berupa skor yang mana adalah berskala interval.

Untuk menghitung koefisien korelasi point biserial berikut merupakan formula yang digunakan:

rumus uji validitas point biserial

r = koefisien korelasi point biserial

Mp= jumlah responden yang menjawab benar

Mq= jumlah responden yang menjawab salah

St= standar deviasi untuk semua item

P=proporsi responden yang menjawab benar

Q= proporsi responden yang menjawab benar

Bila koefisien korelasi untuk seluruh item telah dihitung, perlu ditentukan angka terkecil yang dapat dianggap cukup “ tinggi ” sebagai indikator adanya konsistensi antara skor item dan skor keseluruhan. Dalam hal ini tidak ada batasan yang tegas. Prinsip utama pemilihan item dengan melihat koefisien korelasi adalah mencari harga koefisien yang setinggi mungkin dan menyingkirkan setiap item yang mempunyai korelasi negatif (-) atau koefisien yang mendekati nol (0,00).

Menurut Friedenberg (1995) biasanya dalam pengembangan dan penyusunan skala-skala psikologi, digunakan harga koefisien korelasi yang minimal sama dengan 0,30. Dengan demikian, semua item yang memiliki korelasi kurang dari 0,30 dapat disisihkan dan item-item yang akan dimasukkan dalam alat test adalah item-item yang memiliki korelasi diatas 0,30 dengan pengertian semakin tinggi korelasi itu mendekati angka satu (1,00) maka semakin baik pula konsistensinya (validitasnya).

Analisis Data Panel dengan Eviews dan Stata

Definisi Data Panel

Dalam statistik dan ekonometrik, terminologi data panel digunakan untuk menggambarkan data yang memiliki dimensi yang banyak dan dalam bentuk runtun waktu (time series). data panel adalah gabungan data cross section atau data yang disusun berdasarkan objek penelitian seperti responden, perusahaan, kota yang dikombinasikan dengan runtun waktu (bulan, triwulan, semester, atau tahun). Mengapa kita perlu mempanelkan data? Dalam bidang ekonomi dan bisnis terutama, objek penelitian tentu tidak terlepas dari rangkaian waktu yang panjang. Penelitian akan lebih komprehensif jika meneliti perusahaan, kabupaten, responden, atau objek apapun, jika dirangkaikan dengan runtun waktunya. Sehingga dapat terlihat pengaruh waktu terhadap data yang kita teliti.

Dalam analisis data panel, kita akan menjumpai dua kondisi yaitu ketika datanya lengkap, artinya setiap objek dalam penelitian lengkap untuk setiap tahunnya, kondisi demikian disebut balanced panel (lihat gambar 1). Pada gambar 1 terlihat bahwa semua objek berada pada semua tahun. Sebaliknya mungkin juga kita menjumpai dimana data tidak lengkap di mana setiap objeknya tidak tersedia datanya untuk semua tahun atau unbalanced panel (lihat gambar 2). Pada gambar 2 terlihat bahwa semua objek tidak lengkap pada semua tahun.

\begin{matrix}<br /><br /><br /><br /><br /><br /><br /> \mathrm{person} & \mathrm{year} & \mathrm{income} & \mathrm{age} & \mathrm{sex}\\<br /><br /><br /><br /><br /><br /><br /> 1 & 2001 & 1300 & 27 & 1 \\<br /><br /><br /><br /><br /><br /><br /> 1 & 2002 & 1600 & 28 & 1 \\<br /><br /><br /><br /><br /><br /><br /> 1 & 2003 & 2000 & 29 & 1 \\<br /><br /><br /><br /><br /><br /><br /> 2 & 2001 & 2000 & 38 & 2 \\<br /><br /><br /><br /><br /><br /><br /> 2 & 2002 & 2300 & 39 & 2 \\<br /><br /><br /><br /><br /><br /><br /> 2 & 2003 & 2400 & 40 & 2<br /><br /><br /><br /><br /><br /><br /> \end{matrix}

Gambar 1. Ilustrasi Balanced panel (Sumber: Wikipedia)

\begin{matrix}<br /><br /><br /><br /><br /><br /><br /> \mathrm{person} & \mathrm{year} & \mathrm{income} & \mathrm{age} & \mathrm{sex}\\<br /><br /><br /><br /><br /><br /><br /> 1 & 2001 & 1600 & 23 & 1 \\<br /><br /><br /><br /><br /><br /><br /> 1 & 2002 & 1500 & 24 & 1 \\<br /><br /><br /><br /><br /><br /><br /> 2 & 2001 & 1900 & 41 & 2 \\<br /><br /><br /><br /><br /><br /><br /> 2 & 2002 & 2000 & 42 & 2 \\<br /><br /><br /><br /><br /><br /><br /> 2 & 2003 & 2100 & 43 & 2 \\<br /><br /><br /><br /><br /><br /><br /> 3 & 2002 & 3300 & 34 & 1<br /><br /><br /><br /><br /><br /><br /> \end{matrix}

Gambar 1. Ilustrasi Unbalanced panel (Sumber: Wikipedia)

Jika datanya sudah lengkap tentu kita dapat langsung memilih metode balanced panel. Sebaliknya jika datanya kurang lengkap, kita dapat menggunakan teknik unbalanced panel atau terlebih dahulu melakukan interpolasi data dan kembali menggunakan balanced panel ketika semua data telah terisi melalui metode interpolasi. Metode interpolasi adalah metode untuk mengisi data yang kosong dengan pendekatan data pada tahun sebelum dan sesudahnya.

Model Data Panel

Untuk menggambarkan model persamaan data panel sebagai berikut:

y_{it} = X_{it}\mathbf{\beta}+\alpha_{i}+u_{it}

Y menggambarkan variabel respon, sedangkan X menggambarkan variabel penyebab atau bariabel bebas. alpha menggambarkan konstanta dan u menggabarkan nilai residu atau error atau kekeliruan.

Jika kita perhatikan model persamaan di atas, terdapat sedikit perbedaan dengan model regresi seperti biasanya. Perbedaan tersebut tertera pada indeks it. i menggamarkan jumlah cross section atau objek pengamatan atau perusahaan atau responden. sedangkan t menggambarkan runtun waktu (time series). Sehingga dengan jelas terlihat data panel adalah kombinasi antara data cross section dan time series.

Perbedaan Model Fixed Effect dan Random Effect

Dua model utama yang dikenal dalam data panel adalah model fixed effect dan model random effect. Model fixed effect adalah model dimana variabel bebas dalam model diasumsikan bersifat fixed. Artinya individu atau unit cross section masih memiliki hubungan antara variabel bebasnya. Sementara model random effect adalah model dimana variabel bebas dalam model bersifat random, atau dengan kata lain diasumsikan tidak ada korelasi antara individu dengan variabel bebasnya.

Untuk memilih mana model yang cocok dalam data panel, perlu melakukan sebuah uji yang disebut dengan Uji Hausman. Uji spesifikasi Hausman menguji dengan Ho: Model random effect lebih efisien dibandingkan model fixed effect. Sedangkan H1: Model fixed effect lebih efisien dibandingkan model random effect. Artinya jika hipotesis nol diterima maka model yang paling cocok adalah random effect.

Software Statistik untuk Data Panel

Software yang paling populer yang digunakan untuk menganalisis data panel adalah Eview dan Stata, walaupun disamping itu banyak software-software yang lain. Kedua software ini mampu mengidentifikasi model yang cocok untuk data panel apakah fixed effect atau random effect. Kedua software ini paling sering digunakan para peneliti untuk menganalisis data time series. Melalui software ini data dipandang dari dua dimensi yaitu dimensi objek dan dimensi waktu.

Tutorial Menghitung validitas Data Nominal dengan SPSS

Menghitung validitas data ordinal atau data interval dapat dilakukan dengan menggunakan SPSS karena sudah tersedia di menu utama. Sedangkan untuk data numerik, tidak ada menu spss yang khusus menyediakan perhitungan validitas dengan rumus point biserial ini. Kita dapat melakukannya dengan menambahkan syntax khusus pada SPSS.

 

Berikut syntax yang harus di save di spss:

langhah1: Buka SPSS

langkah 2: buka File –> New –> Syntax–> kemudian save di directory D komputer anda dengan nama file: “r_bis”.

syntax pertama:

/* —————————————————– */
/*                  SPSS-Macro r_bis                     */
/*                                                       */
/*          (Version 2.1; D. Enzmann, 2002)              */
/*                                                       */
/* r_bis computes the biserial correlation of a dicho-   */
/* tomous variable with a continuous variable and its    */
/* significance. The biserial correlation computed is    */
/* restricted to upper and lower bounds of 1.0 and -1.0, */
/* respectively.                                         */
/*                                                       */
/* The dichotomous variable need not to be coded as 0/1. */
/* If one of the variable is a constant or if both       */
/* variables have more than two valid categories r_bis   */
/* will issue an error message. If both variables are    */
/* dichotomous, r_bis  may produce meaningless results   */
/* (a tetrachoric correlation coefficient should be      */
/* computed, instead).                                   */
/*                                                       */
/* If the number of cases is more than 12,0000 you have  */
/* to increase the default value of MXLOOPS to the       */
/* the number of cases in your current working file      */
/* after you installed the macro via INCLUDE.            */
/*                                                       */
/* Example:                                              */
/* One variable x is coded ‘1’ for ‘no/false’ and ‘2’    */
/* for ‘yes/true’, the other variable y is continuous.   */
/* Your data file consists of about 22800 cases. First,  */
/* use the SET MXLOOP command once to increase the       */
/* default value of 12000 to at least 22800:             */
/* SET MXLOOP=23000.                                     */
/* Next, you can call r_bis with x and y as parameters   */
/* r_bis x y .                                           */
/*                                                       */
/* A full example can be found in the file EXAMP_R.SPS . */
/*                                                       */
/* —————————————————– */.

set printback on
/mxloops=120000.
PRESERVE.
set printback off.

define r_bis ( !positional !tokens(1)
/!positional !tokens(1))

matrix.
get raw
/file=*
/variables=!1 !2
/names = vname
/missing omit.
compute tmpvars=make(1,5,0).
compute errmsg={‘ ‘}.
compute minmaxx=0.
compute minmaxy=0.

compute min=mmin(raw(:,1)).
compute max=mmax(raw(:,1)).
compute x0=0.
compute x1=0.
loop #i=1 to nrow(raw).
do if (raw(#i,1)=min).
+ compute x0=x0+1.
else if (raw(#i,1)=max).
+ compute x1=x1+1.
end if.
end loop.
compute xn = x0+x1.
do if min=max.
+ compute minmaxx=1.
end if.

compute min=mmin(raw(:,2)).
compute max=mmax(raw(:,2)).
compute tmpvars(1,1) = nrow(raw).
compute y0=0.
compute y1=0.
loop #i=1 to nrow(raw).
do if (raw(#i,2)=min).
+ compute y0=y0+1.
else if (raw(#i,2)=max).
+ compute y1=y1+1.
end if.
end loop.
compute yn = y0+y1.
do if min=max.
+ compute minmaxy=1.
end if.

do if yn=tmpvars(1,1).
+ compute tmpvars(1,2)=y0.
+ compute tmpvars(1,3)=y1.
else if xn=tmpvars(1,1).
+ compute tmpvars(1,2)=x0.
+ compute tmpvars(1,3)=x1.
end if.
do if minmaxx or minmaxy.
+ compute tmpvars(1,2)=0.
+ compute tmpvars(1,3)=0.
end if.
do if (xn=yn).
+ compute tmpvars(1,5)=1.
end if.

do if (tmpvars(1,2) > 0) and (tmpvars(1,3) > 0)
and not(minmaxx or minmaxy).
+ compute SSCPMat=SSCP(raw-(make(tmpvars(1,1),1,1))
*csum(raw)/tmpvars(1,1)).
+ compute tmpvars(1,4) = SSCPMat(1,2)/sqrt(SSCPMat(1,1)*SSCPMat(2,2)).
+ compute probn0n = tmpvars(1,2)/tmpvars(1,1).

/* compute idfnormal(n0/n,0,1) */

/* ALGORITHM AS241  APPL. STATIST. (1988) VOL. 37, NO. 3        */
/*                                                              */
/* Produces the normal deviate Z corresponding to a given lower */
/* tail area of P; Z is accurate to about 1 part in 10**16.     */.

compute SPLIT1 = 0.425.
compute SPLIT2 = 5.
compute CONST1 = 0.180625.
compute CONST2 = 1.6.

/* Coefficients for P close to 0.5  */

compute A = {3.3871328727963666080,
1.3314166789178437745E+2,
1.9715909503065514427E+3,
1.3731693765509461125E+4,
4.5921953931549871457E+4,
6.7265770927008700853E+4,
3.3430575583588128105E+4,
2.5090809287301226727E+3}.
compute B = {1.0,
4.2313330701600911252E+1,
6.8718700749205790830E+2,
5.3941960214247511077E+3,
2.1213794301586595867E+4,
3.9307895800092710610E+4,
2.8729085735721942674E+4,
5.2264952788528545610E+3}.

/* Coefficients for P not close to 0, 0.5 or 1 */

compute C = {1.42343711074968357734,
4.63033784615654529590,
5.76949722146069140550,
3.64784832476320460504,
1.27045825245236838258,
2.41780725177450611770E-1,
2.27238449892691845833E-2,
7.74545014278341407640E-4}.
compute D = {1.0,
2.05319162663775882187,
1.67638483018380384940,
6.89767334985100004550E-1,
1.48103976427480074590E-1,
1.51986665636164571966E-2,
5.47593808499534494600E-4,
1.05075007164441684324E-9}.

/* Coefficients for P near 0 or 1 */

compute E = {6.65790464350110377720,
5.46378491116411436990,
1.78482653991729133580,
2.96560571828504891230E-1,
2.65321895265761230930E-2,
1.24266094738807843860E-3,
2.71155556874348757815E-5,
2.01033439929228813265E-7}.
compute F = {1.0,
5.99832206555887937690E-1,
1.36929880922735805310E-1,
1.48753612908506148525E-2,
7.86869131145613259100E-4,
1.84631831751005468180E-5,
1.42151175831644588870E-7,
2.04426310338993978564E-15}.

compute zpn0n=-7.9414444931916800.
do if probn0n <= 10E-16.
+ compute probn0n = 10E-16.
else if 1-probn0n <= 10E-16.
+ compute probn0n = 1 – 10E-16.
end if.
compute exitf=0.

compute ifault = 0.
compute q = probn0n – 0.5.
do If (Abs(q) <= SPLIT1).
+ compute r = CONST1-q*q.
* compute zpn0n = q*(((((((A7*r+A6)*r+A5)*r+A4)*r+A3)*r+A2)*r+A1)*r+A0).
* compute zpn0n = zpn0n/(((((((B7*r+B6)*r+B5)*r+B4)*r+B3)*r+B2)*r+B1)*r+1).
+ compute t1=A(8).
+ compute t2=B(8).
+ loop #i=-7 to -1.
–   compute t1=r*t1+A(-#i).
–   compute t2=r*t2+B(-#i).
+ end loop.
+ compute zpn0n=q*t1/t2.
/* Exit Function */
+ compute exitf=1.
end if.
do If (q < 0) and not exitf.
+ compute r = probn0n.
Else if not exitf.
+ compute r = 1 – probn0n.
End If.
do If (r <= 0) and not exitf.
+ compute ifault = 1.
+ compute zpn0n = 0.
/* Return */
End If.
do if not exitf.
+ compute r = sqrt(-ln(r)).
end if.
do If (r <= SPLIT2) and not exitf.
+ compute r = r – CONST2.
* compute zpn0n = (((((((C7*r+c6)*r+c5)*r+c4)*r+c3)*r+c2)*r+c1)*r+C0).
* compute zpn0n = zpn0n/(((((((D7*r+D6)*r+d5)*r+d4)*r+d3)*r+d2)*r+d1)*r+1).
+ compute t1=C(8).
+ compute t2=D(8).
+ loop #i=-7 to -1.
–   compute t1=r*t1+C(-#i).
–   compute t2=r*t2+D(-#i).
+ end loop.
+ compute zpn0n=t1/t2.
Else if not exitf.
+ compute r = r – SPLIT2.
* compute zpn0n = (((((((E7*r+E6)*r+E5)*r+E4)*r+E3)*r+E2)*r+E1)*r+E0).
* compute zpn0n = zpn0n/(((((((F7*r+F6)*r+F5)*r+F4)*r+F3)*r+F2)*r+F1)*r+1).
+ compute t1=E(8).
+ compute t2=F(8).
+ loop #i=-7 to -1.
–   compute t1=r*t1+E(-#i).
–   compute t2=r*t2+F(-#i).
+ end loop.
+ compute zpn0n=t1/t2.
End If.
do If (q < 0) and not exitf.
+ compute zpn0n = -zpn0n.
End If.

release a, b, c, d, e, f.

* ——————————————— .

+ COMPUTE d = EXP(-.5 * zpn0n**2)/sqrt(8*artan(1)).
+ compute rb = sqrt(tmpvars(1,2)*tmpvars(1,3))*tmpvars(1,4)/
(d*tmpvars(1,1)).
+ do if rb > 1.0.
–   compute rb = 1.0.
+ end if.
+ do if rb < -1.0.
–   compute rb = -1.0.
+ end if.
+ compute sigm_rb=sqrt(tmpvars(1,2)*tmpvars(1,3))/
(d*tmpvars(1,1)*sqrt(tmpvars(1,1))).
+ compute z = rb/sigm_rb.
+ compute p = (1-cdfnorm(abs(z)))*2.
+ print {vname(1),’ with ‘,vname(2)}
/title ‘Biseral correlation:’
/format A8.
+ print {tmpvars(1,1),rb,p}
/title ‘ ‘
/clabels = ‘N’,’r’,’p(2-sided)’
/formats F13.5.
+ do if tmpvars(1,5)=1.
–   print errmsg
/title ‘> warning: both variables are dichotomous’
/format A1.
+ end if.
else if (tmpvars(1,2)=0) and (tmpvars(1,3)=0)
and not(minmaxx or minmaxy).
+ print {vname(1),’ with ‘,vname(2)}
/title ‘Biseral correlation:’
/format A8.
+ print {tmpvars(1,1)}
/title ‘ ‘
/rlabels = ‘N = ‘
/formats F8.0.
+ print errmsg
/title ‘> error: there is no dichotomous variable’
/format A1.
else.
+ print {vname(1),’ with ‘,vname(2)}
/title ‘Biseral correlation:’
/format A8.
+ print {tmpvars(1,1)}
/title ‘ ‘
/rlabels = ‘N = ‘
/formats F8.0.
+ print errmsg
/title ‘> error: at least one variable is a constant’
/format A1.
end if.
end matrix.

!enddefine.
restore.

/* ———————————————- */.
/* r_bis is called by:                            */.
/*                                                */.
/* R_BIS var1 var2.                               */.
/*                                                */.
/* Remember to set the MXLOOP setting to the      */.
/* number of cases in your data file the first    */.
/* time you call R_BIS by using                   */.
/* SET MXLOOP=nnn.                                */.
/* (with nnn >= number of cases)                  */.
/* ———————————————- */.

 

Langkah Ketiga: buka File –> New –> Syntax–> kemudian save di directory komputer anda.

syntax kedua:
include ‘d:\r_bis.sps’.

/* Dibawah ini anda sedang menghitung KORELASI BISERIAL item-total        */
/* Nama variabel di SPSS harus disesuaikan dengan nama di syntax        */
/* a1,a2 dst untuk nama variabel dan tot untuk nama total       */
/* anda bisa menambahkan aitem sesuai dengan jumlah aitem alat ukur anda          */

r_bis item1 total.
r_bis item2 total.
r_bis item3 total.
r_bis item4 total.
r_bis item5 total.
r_bis item6 total.
r_bis item7 total.
r_bis item8 total.
r_bis item9 total.
r_bis item10 total.
r_bis item11 total.
r_bis item12 total.
r_bis item13 total.
r_bis item14 total.
r_bis item15 total.
r_bis item16 total.
r_bis item17 total.
r_bis item18 total.
r_bis item19 total.
r_bis item20 total.

/* Dibawah ini anda sedang menghitung KORELASI POINT BISERIAL item-total        */
/* Nama variabel di SPSS harus disesuaikan dengan nama di syntax        */
/* a1,a2 dst untuk nama variabel dan tot untuk nama total       */
/* anda bisa menambahkan aitem sesuai dengan jumlah aitem alat ukur anda          */
corr item1 total.
corr item2 total.
corr item3 total.
corr item4 total.
corr item5 total.
corr item6 total.
corr item7 total.
corr item8 total.
corr item9 total.
corr item10 total.
corr item11 total.
corr item12 total.
corr item13 total.
corr item14 total.
corr item15 total.
corr item16 total.
corr item17 total.
corr item18 total.
corr item19 total.
corr item20 total.

Pengolahan Data Penelitian

Pengolahan data penelitian secara umum diartikan sebagai operasi yang dilakukan terhadap satu set data sehingga menghasilkan informasi yang berguna. proses pengolahan data dimulai dari data mentah menjadi informasi yang berguna bahkan menjadi ilmu pengetahuan. Tanpa proses pengolahan data, maka data hanya dalam bentuk angka-angka yang tidak memiliki makna. Sebagai contoh angka 10%, 20%, 30%, 40%, dan 50% hanya merupakan angka-angka atau data yang tidak bermakna. namun, ketika peneliti mengolahnya, data tersebut dapat menjadi informasi. misalnya, tingkat kemiskinan di sebuah kota di negara A adalah sebesar 30%. dari sini kita mendapatkan informasi bahwa tingkat kemiskinan di kota tersebut masih cukup tinggi.

Lebih jauh lagi, pengolahan data penelitian dapat memproses data mentah menjadi ilmu pengetahuan. Data kemiskinan di kota A adalah 30% pada tahun 2010. Melalui sebuah kebijakan pemerintah untuk mengentaskan kemiskinan, tingkat kemiskinan di kota A menjadi 20%, misalnya. Setelah dilakukan proses pengolahan data dari sekian banyak data yang dikumpulkan, kebijakan B dapat mengurangi tingkat kemiskinan sebesar 10%. Hal tersebut bukan lagi sebatas informasi, tetapi pengetahuan. Untuk mengurangi kemiskinan maka kebijakan B perlu dilakukan oleh pemerintah.

Input dari pengolahan data penelitian adalah sekumpulan data yang akan diproses. Input tersebut dapat dalam bentuk data sekunder atau data primer. Data sekunder adalah data yang dikumpulkan dari pihak ketiga atau pihak lain. Contohnya data laporan BPS, data BPK dan data dari sumber sekunder lainnya. Data primer adalah data yang diperoleh secara langsung oleh peneliti. misalnya melalui proses wawancara, survei atau pengamatan langsung. Kedua jenis data ini sama-sama dapat diproses menjadi informasi yang berguna.

Proses pengolahan data dapat dilakukan secara otomatis dengan bantuan software atau dapat juga melalui penghitungan manual. output pengolahan data dapat berupa sajian deskriptif seperti diagram.

Analisis Jalur (Path Analysis)

Dalam statistik, analisis jalur atau biasa lebih dikenal dengan Path Analysis digunakan untuk mengetahui hubungan ketergantungan langsung diantara satu set variabel. Path Analysis adalah model yang serupa dengan model analisis regresi berganda, analisis faktor, analisis korelasi kanonik, analisis diskriminan dan kelompok analisis multivariat yang lebih umum lainnya seperti analisis anova, manova, anacova.

Dalam hal kausalitas, Path Analysis dapat dipandang sebagai analisis yang mirip dengan analisis regresi. Keduanya sama-sama menganalisis model kausalitas. Perbedaannya terletak pada tingkat kerumitan model. Model analisis regresi lebih banyak menganalisis variabel dependent sebagai dampak dari variabel independent. Variabel dependent tersebut tidak memberikan dampak terhadap variabel lainnya. Ketika peneliti dihadapkan pada model dimana variabel dependent menyebabkan variabel dependent lainnya, maka analisis jalur lebih cocok digunakan.

Dalam hal lainnya, analisis jalur juga dapat dilihat sebagai SEM (Structural Equation Modeling) dimana analisis jalur adalah SEM yang hanya memiliki satu indikator, atau model stuktural dari analisis SEM. Perbedaannya adalah analisis jalur hanya menganalisis variabel konstruk, sedangkan pada SEM semua variabel baik variabel indikator maupun variabel konstruk dianalisis secara bersama-sama dalam satu model.

Pemodelan Path Analysis

Pada model di bawah, model terdiri atas EX1 dan EX2 sebagai variabel eksogen yang mana satu sama lain berkorelasi. Kedua variabel ini memiliki pengaruh langsung terhadap En2 atau secara tidak langsung melalui variabel En1. En1 dan En2 disebut sebagai variabel endogen. Dalam model riil, variabel eksogen dimungkinkan dipengaruhi oleh variabel lain diluar EX1 dan EX2. Variabel lain diluar kedua variabel ini disimbolkan sebagai e (variabel eror).

path analysis

Keunggulan Path Analysis dibandingkan analisis regresi berganda adalah:

1. Peneliti dapat secara simultan mengukur pengaruh variabel eksogen terhadap variabel endogen.

2. Peneliti dapat menguji apakah model sudah cukup fit dengan data.

3. Peneliti dapat menguji model yang memiliki permasalahan multikolinieritas (korelasi yang tinggi antara variabel eksogen).

4. Peneliti dapat melakukan pebandingan pengaruh langsung dan tidak langsung dari variabel eksogen terhadap variabel endogen.

Analisis SEM Lisrel

Analisis SEM atau Structural Equation Modeling dapat dipermudah dengan Lisrel dan Amos. Namun, sebelum membahas mengenai software apa yang cocok digunakan untuk analisis SEM, saya akan membahas secara ringkas bagaimana konsep mengenai SEM itu sendiri. SEM adalah salah satu teknik analisis statistik yang bertujuan untuk menguji hubungan kausalitas antara satu atau lebih variabel laten eksogen terhadap satu atau lebih variabel laten endogen. Apa yang dimaksud dengan variabel laten eksogen dan Endogen? Variabel laten eksogen adalah variabel penyebab yang tidak dapat diamati secara langsung. Sedangkan variabel laten endogen adalah variabel akibat yang tidak dapat diamati secara langsung. mengapa disebut laten atau tidak dapat diamati secara langsung? Memang kita tidak dapat mengukur secara langsung variabel tersebut. Sebagai contoh adalah variabel motivasi. Kita  tidak dapat mengukur secara langsung motivasi seseorang itu seperti apa, kecuali melalui indikatornya. Berbeda halnya jika kita ingin mengukur berat badan, kita dapat mudah mengukurnya melalui ukuran kilogram dan itu hanya memiliki satu ukuran.

Analisis SEM cocok digunakan untuk mengukur hubungan kausalitas variabel yang tidak dapat diukur secara langsung seperti motivasi, kinerja, sikap, persepsi dan variabel-variabel sosial lainnya. Melalui analisis SEM baik melalui Lisrel maupun melalui Amos dapat memetakan pola hubungan antar variabel ini. Kedua software ini dapat mengukur pola hubungan antara variabel laten dan pola hubungan antara variabel laten dengan indikatornya. Koefisien bobot antara variabel laten menunjukkan pengaruh sebuah variabel laten terhadap variabel laten lainnya. Sementara hubungan antara variabel laten dengan indikator dapat dilihat melalui koefisien bobotnya. Ini menunjukkan seberapa besar indikator-indikator yang ada mampu merepresentasikan variabel latennya.

Software Lisrel dan Amos tidak memiliki perbedaan yang signifikan dalam melakukan analisis SEM. Keduanya sama-sama powerful dalam meng-generate model SEM. Perbedaannya hanya pada masalah pengoperasian secara teknis. Jika peneliti hendak menggunakan lisrel setidaknya diperlukan kemampuan dasar logika pemograman. Namun jangan khawatir dahulu karena pada program Lisrel ini, kita dapat mengoperasikannya melalui menu yang sudah ada. Walaupun jika dibandingkan dengan sintax, maka pengoperasian lisrel akan menjadi lebih singkat. Sofware lisrel akan langsung memunculkan gambar model lisrel secara otomatis ketika syntax di-running dengan benar. Sementara pada software Amos, seorang penguna tidak perlu memahami dasar-dasar logika pemrograman karena memang tidak ada sama sekali syntax pemograman yang dibutuhkan untuk me-running sebuah model. Pengguna cukup menggambar model secara manual. Kemudahan ini dapat sekaligus menjadi kekurangan sofware Amos. Menggambar model yang complicated dapat menjadi pekerjaan yang cukup membosankan. Telebih pengguna harus mendefinisikan nama indikator dan error yang menyertainya.

Pada akhir output kedua software Lisrel dan Amos ini, akan disajikan fitness analisis model SEM apakah model hipotesis yang diajukan sesuai dengan data sampel atau tidak. ukuran-ukuran yang ditampilkan yaitu Chi Square, RMSEA, GFI dan ukuran kecocokan lainnya. Ukuran-ukuran ini menjelaskan gap antara model hipotesis dengan data sampel. Beberapa ukuran lainnya menunjukkan tingkat estimasi yang dimanifestasikan melalui error. Model yang baik adalah yang gap antara model hipotesis dengan model data sampelnya tidak sangat berbeda. Namun demikian, jika pun model hipotesis memiliki gap yang jauh dengan data lapangan, maka Lisrel dan Amos mampu melakukan analisis eksploratori melalui rekomendasi model SEM yang paling mendekati data lapangan.

Demikian penjelasan singkat mengenai penggunaan software Lisrel dan Amos pada analisis SEM. Semoga bermanfaat!

Bermasalah dengan SEM? kontak kami di 081318082288

Pengertian dan Perbedaan Statistik Parametrik dan Non parametrik

Dalam terminologi ilmu statistika, statistik parametrik dan non parametrik merupakan dua hal yang sering digunakan. Lantas apa perbedaan keduanya? Secara sederhana sebetulnya antara statistik parametrik dan non parametrik mudah dibedakan dari istilahnya saja. Statistik non parametrik adalah statistik yang ditidak mendasarkan pada parameter-parameter statistik. apa itu parameter-parameter statistik? jika anda melakukan penelitian, tentu anda melakukan pengukuran-pengukuran, nah ukuran-ukuran tersebut diistilahkan dengan parameter. dalam statistik kita mengenal mean, median, modus dan standar deviasi. itulah parameter-parameter statistik. dalam statistik non parametrik, parameter tersebut tidak dijadikan acuan. Mengapa? ketika kita menggunakan skala data nominal atau ordinal, parameter-parameter tersebut menjadi tidak relevan. itu lebih kepada membuat ranking pada data. selain itu, statistik non parametrik tidak mendasakan pada distribusi data tertentu.

Penggunaan statistik non parametrik

Statistik non parametrik banyak digunakan pada kondisi di mana peneliti dihadapkan pada data yang berupa ranking, misalnya data untuk menilai peringkat mana yang lebih penting diantara beberapa atribut produk. Begitupun ketika hendak menganalisis data berupa data nominal atau data dikotomus, misalnya kita hanya menggunakan skala 1 dan 2 untuk membedakan jenis kelamin laki-laki dan perempuan. Parameter-parameter statistik seperti rata-rata dan standar deviasi menjadi tidak relevan. Jika kita paksakan untuk menggunakannya maka tentu rata-rata data hanya menyebar di antara angka 1 dan 2.

Ketika peneliti menggunakan skala ordinal dalam mengukur suatu variabel, statistik non parametrik merupakan metode yang cocok untuk menganalisis data tersebut. Namun, kebanyakan peneliti menggunakan statistik parametrik melalui penghitungan parameter mean dan standar deviasi terlebih dahulu. Memang, dalam hal interpretasi, statistik parametrik lebih mudah dipahami dibandingkan statistik non parametrik. Kita tentu akan lebih mudah membaca rata-rata atau penyimpangan suatu data dibandingkan ranking dari data itu sendiri. Alasan kemudahan membaca hasil inilah yang sering dijadikan justifikasi untuk menghindari statistik non parametrik.

Alasan kedua penggunaan statistik non parametrik adalah ketika data peneliti dihadapkan pada data yang tidak berdistribusi normal atau peneliti tidak memiliki cukup bukti yang kuat data berasal dari distribusi data seperti apa. Kita sering dihadapkan pada kondisi di mana data tidak berdistribusi normal, misalnya distribusi data terlalu miring ke kiri atau ke kanan. Berbagai usaha dapat dilakukan dengan mereduksi data outlier atau data ekstrim. Namun, jika hal tersebut tidak merubah distribusi data menjadi terdistribusi normal, maka metode non parametrik dapat dilakukan.

Contoh metode analisis non parametrik

Kedua metode ini tentu memiliki konsekuensi terhadap pendekatan analisis yang digunakan. Untuk menganalisis pengaruh suatu variabel penyebab terhadap variabel respon, biasanya kita menggunakan analisis regresi linier sederhana atau berganda. Dalam metode non parametrik, metode tersebut tidak lagi relevan. Pendekatan yang cocok adalah regresi non parametrik.

Begitu pun ketika kita menganalisis hubungan antara dua variabel. Biasanya kita menggunakan analisis korelasi Pearson Product Moment. Namun, dalam metode non parametrik analisis korelasi lebih dikenal dengan korelasi Rank spearman. Teknik perhitungannya berbeda. Dalam Rank spearman, kita terlebih dahulu membuat ranking dari data yang akan dikorelasikan sementara dalam Pearson product moment tidak dilakukan. Metode korelasi non parametrik populer lainnya adalah Kendall Tau.

Ketika kita hendak melakukan uji perbandingan antara kelompok, maka metode analisis yang digunakan dalam statistik parametrik adalah uji t (ketika yang kita bandingkan 2 kelompok), atau uji anova (ketika kelompok yang kita bandingkan lebih dari 2). Berbeda dengan statistik parametrik, dalan non parametrik ada uji Kruskall wallis yang sebaiknya digunakan.

Pengertian STATISTIK DESKRIPTIF dan STATISTIK INFERENSIAL

Pengertian statistik deskriptif berbeda dengan statistik inferensial. Pada statistik deskriptif penelitian hanya menggambarkan keadaan data apa adanya melalui parameter-parameter seperti mean, median, modus, distribusi frekuensi dan ukuran statistik lainnya. Pada statistika deskriptif, yang perlu disajikan adalah:

1. Ukuran pemusatan data (measures of central tendency). Ukuran pemusatan data yang sering digunakan adalah distribusi frekuensi. Ukuran statistik ini cocok untuk data nominal dan data ordinal (data kategorik). Sementara nilai mean adalah ukuran pemusatan data yang cocok untuk data continuous. Ukuran deskriptif lain untuk pemusatan data adalah median (nilai tengah) dan modus (nilai yang paling sering muncul).

2. Ukuran penyebaran data (measures of spread). Ukuran penyebaran data yang sering digunakan adalah standar deviasi. Ukuran penyebaran data ini cocok digunakan untuk data numerik atau continuous. Sementara untuk data kategorik, nilai range merupakan ukuran yang cocok.

Sedangkan penelitian inferensial adalah proses pengambilan kesimpulan-kesimpulan berdasarkan data sampel yang lebih sedikit menjadi kesimpulan yang lebih umum untuk sebuah populasi. Penelitian inferensial diperlukan jika peneliti memiliki keterbatasan dana sehingga untuk lebih efisien penelitian dilakukan dengan mengambil jumlah sampel yang lebih sedikit dari populasi yang ada. Pada penelitian inferensial, dilakukan prediksi. Statistik inferensial membutuhkan pemenuhan asumsi-asumsi. Asumsi paling awal yang harus dipenuhi adalah sampel diambil secara acak dari populasi. Hal tersebut diperlukan karena pada statistika inferensial perlu keterwakilan sampel atas populasi. Asumsi-asumsi lain yang perlu dipenuhi mengikuti alat analisis yang digunakan. Jika yang digunakan adalah analisis regresi, maka asumsi-asumsi data harus memenuhi asumsi analisis regresi.

Metode analisis statistik yang digunakan dalam statistik inferensial adalah T-test, Anova, Anacova, Analisis regresi, Analisis jalur, Structural equation modelling (SEM) dan metode analisis lain tergantung tujuan penelitian. Dalam statistik inferensial harus ada pengujian hipotesis yang bertujuan untuk melihat apakah ukuran statistik yang digunakan dapat ditarik menjadi kesimpulan yang lebih luas dalam populasinya. Ukuran-ukuran statistik tersebut dibandingkan dengan pola distribusi populasi sebagai normanya. Oleh sebab itu, mengetahui pola distribusi data sampel menjadi penting dalam statistik inferensial.

Contoh yang baik untuk statistik inferensial adalah pada pemilu presiden 2014. Berbagai lembaga survei melakukan quick count untuk mengetahui secara cepat kandidat presiden mana yang akan mendapatkan suara rakyat lebih banyak. Lembaga survei tersebut mengambil sebagian sampel TPS (Tempat Pemungutan Suara) dari total TPS populasi. Hasil sampel TPS tersebut digunakan untuk generalisasi terhadap keseluruhan TPS. Katakanlah diambil 2.000 sampel TPS dari 400.000 populasi TPS yang ada. Hasil dari 2.000 TPS adalah statistik deskriptif. Sedangkan jika kita mengambil kesimpulan terhadap 400.000 TPS adalah statistik inferensial.Kekuatan statistik inferensial tergantung pada teknik pengambilan sampel dan proses randomisasi. Jika proses randomisasi dilakukan dengan benar, maka sampel yang lebih sedikit dapat memprediksi nilai populasi dengan baik. Dengan demikian dapat menghemat anggaran pengambilan / pengumpulan data.

Di industri manufaktur, statistik inferensial sangat berguna. Manajemen dapat mengetahui dan mengontrol berapa produk yang di luar standar atau cacat dengan hanya mengambil beberapa sampel produk. Bayangkan jika manajemen perusahaan harus memeriksa semua produk hanya untuk mengetahui berapa yang cacat. Tentu akan menghabiskan waktu dan biaya yang tidak sedikit. Terlebih jika harus memeriksa semua produk yang dikemas. Tentu tidak efektif dan efisien. Untunglah ada Six Sigma, salah satu tool yang digunakan terkait hal ini. Prinsip Six Sigma menggunakan statistik inferensial yaitu mengambil sampel produk dan mengukur sigma atau standar deviasi (ukuran keragaman) dari produk. Jumlah produk yang cacat tidak boleh melebihi standar yang ditetapkan.

 

Sumber referensi:

1. http://www.socialresearchmethods.net/kb/statinf.php
2. https://statistics.laerd.com/statistical-guides/descriptive-inferential-statistics.php

Untuk bantuan analisa / olah data statistik dengan SPSS, Lisrel Amos dapat 081318082288 atau Order Online

Order Online

Analisis Faktor Konfirmatori dengan SPSS

Analisis faktor konfirmatori adalah sebuah metode statistik yang digunakan untuk menggambarkan variabilitas diantara variabel-variabel yang secara potensial dapat mengelompok menjadi jumlah kelompok yang disebut dengan faktor. Software yang paling sering belakangan ini untuk menghitung analisis faktor konfirmatori adalah SPSS, Lisrel atau Amos. Sebagai contoh misalnya kita memiliki 20 set indikator atau item pertanyaan. 20 set item pertanyaan tersebut dapat dikelompokkan menjadi kelompok yang lebih sedikit misalnya menjadi 4 kelompok.

Pada awalnya analisis faktor konfirmatori dikembangkan di bidang psikometri. namun, dewasa ini analisis faktor telah luas digunakan di berbagai bidang keilmuan seperti ilmu-ilmu sosial, ilmu perilaku, ilmu marketing, dan berbagai keilmuan yang sering melibatkan banyak indikator-indikator sehingga diperlukan untuk menyederhanakan hanya menjadi beberapa faktor. Memang analisis faktor sangat berguna bagi permasalahan penelitian dimana kita dihadapkan kepada banyak set indikator/ pertanyaan/ variabel. Untuk menghadapi kondisi tersebut maka analisis faktor sangat membantu. Terlebih analisis faktor pun dapat mengkonfirmasi apakah item-item yang masuk ke dalam faktor sudah cocok dengan model teoritis atau tidak.

Analisis faktor konfirmatori juga dapat digunakan untuk menguji validitas dan reliabilitas item-item pertanyaan yang dibuat oleh peneliti. Setiap item pertanyaan akan diketahui berapa faktor loading-nya dan apakah item tersebut sudah cocok dikelompokkan ke dalam latent variabel yang sama. Analisis faktor konfirmatori akan mencocokan model indikator terhadap model laten dari sebuah model laten. Oleh sebab itu, analisis faktor konfirmatori biasanya digunakan terlebih dahulu sebelum dilakukan analisis model struktural (Structural Equation Modelling). Kemampuannya dalam memproduksi nilai skor untuk variabel laten membuat analisis faktor konfirmatori banyak digunakan untuk membantu analisis regresi yang memiliki beberapa indikator. Misalkan dalam variabel pengeluaran atau konsumsi, kita dihadapkan pada lebih dari satu indikator. Bagaimana mereduksi berbagai macam variabel ini tanpa mengurangi informasi yang ada, maka analisis faktor konfirmatori solusinya.

Bagaimana mekanisme analisis faktor konfirmatori mengelompokkan sekian set item menjadi kelompok yang lebih kecil? Hal itu dilakukan berdasarkan variabilitas antar item itu sendiri. Secara matematis, hubungan antara item dalam satu faktor dimodelkan dalam bentuk fungsi persamaan linier. Secara perhitungan, tekniknya adalah dengan menggunakan matrik kemiripan nilai varians. Sekali lagi, analisis faktor konfirmatori bertujuan untuk mereduksi jumlah set pertanyaan yang banyak menjadi kelompok yang lebih sedikit dengan tanpa kehilangan kandungan informasinya.

Analisis faktor konfirmatori memiliki kemiripan dengan beberapa teknik analisis statistik lain diantaranya adalah Analisis Komponen Utama (principal component analysis), Analisis Klaster (claster analysis) dan Analisis Regresi (regression analysis). Dibandingkan dengan analisis Komponen Utama, analisis faktor konfirmatori memiliki kesamaan dalam hal mereduksi sekian set item indikator/pertanyaan menjadi beberapa kelompok/faktor. Perbedaan keduanya terletak pada analisis komponen utama adalah analisis deskriptif, outcome nya hanya berupa skor dari beberapa kelompok tanpa melakukan konfirmasi. sementara analisisi faktor konfirmatori bersifat statistik inferensial, yaitu melakukan konfirmasi apakah kelompok yang terbentuk sudah sesuai dengan laten variabel atau tidak. Lebih jauh lagi menjelaskan berapa gap/ error diantara keduanya. Analisis faktor konfirmatori dibandingkan dengan analisis klaster memiliki kemiripan dalam hal mengelompokkan sekian banyak observasi menjadi beberapa klaster / kelompok observasi. Perbedaannya yang dikelompokkan adalah subjek penelitian /unit analisis/responden. Bukan item pertanyaan/indikator/varibel. Analisis faktor konfirmatori dibandingkan dengan analisis regresi memiliki kemiripan dalam hal penggunaan model persamaan linier. keduanya sama-sama menggunakan funsi persamaan linier untuk menjelaskan hubungan antara indikator/pertanyaan/variabel. Perbedaannya terletak pada Jumlah modelnya. Analisis faktor akan menghasilkan beberapa model tergantung kepada jumlah faktor yang terbentuk. Sementara analisis faktor konfirmatori hanya akan menghasilkan satu model yang akan diuji kelayakannya.

http://en.wikipedia.org/wiki/Factor_analysis

http://www.statsoft.com/Textbook/Principal-Components-Factor-Analysis

Perbedaan Analisis Faktor Eksploratori dan Konfirmatori dengan SPSS

cfa

Artikel ini akan membahas apa perbedaan analisis faktor eksploratori dengan analisis faktor konfirmatori. Dalam bahasa inggris analisis faktor konfirmatori adalah exploratory factor analysis (EFA), sedangkan analisis faktor konfirmatori dikenal dengan confirmatory factor analysis (CFA).

Tentang Exploratory Factor Analysis (EFA)

adalah metode statistik yang digunakan untuk membangun model struktur yang terdiri dari satu set atau banyak variabel. EFA adalah salah satu metode analisis faktor untuk mengidentifikasi hubungan antara variabel manifest atau variabel indikator dalam membangun sebuah konstruk. EFA digunakan dalam kondisi dimana peneliti tidak memiliki informasi awal atau hipotesis harus dikelompokkan ke dalam variabel mana saja sekumpulan indikator yang telah dibuat. jadi peneliti berangkat dari indikator (manifest) kemudian membentuk variabel. EFA juga digunakan dalam kondisi dimana variabel laten memiliki indikator yang belum jelas. indikator satu variabel laten dimungkinkan overlap dengan indikator variabel laten lainnya.

Peneliti dapat menggunakan software SPSS untuk menganalisis EFA. Input yang digunakan adalah data dari variabel-variabel indikator. Oleh karena belum ada asumsi ke mana saja indikator-indikator akan mengelompok maka biasanya dalam analisis EFA belum diketahui berapa faktor atau variabel laten yang akan terbentuk. Walaupun diperbolehkan peneliti menentukan berapa jumlah faktor yang diharapkan.

Ukuran-ukuran yang menunjukkan bahwa suatu indikator masuk ke dalam indikator tertentu dalam EFA adalah nilai faktor loading. Ketika nilai faktor loading suatu indikator lebih besar terhadap satu faktor tertentu, maka indikator tersebut dapat dikelompokkan ke dalam faktor tersebut.

Tentang Confirmatori Factor analysis (CFA)

Merupakan salah satu bentuk analisis faktor juga khususnya dalam penelitian sosial. Tujuan utamanya adalah untuk menguji apakah indikator-indikator yang sudah dikelompokkan berdasarkan variabel latennya (konstruknya) konsisten berada dalam konstruknya tersebut atau tidak. pada CFA,  peneliti menguji apakah data fit dengan model yang dibentuk sebelumnya atau tidak. Perbedaan yang mendasar antara CFA dan EFA adalah pada CFA peneliti sudah memiliki asumsi awal bahwa indikator-indikator masuk ke dalam variabel laten tertentu. Di awal, peneliti telah mengembangkan model hipotesis berdasarkan kerangka teoritis atau penelitian sebelumnya yang dijadikan acuan.

Oleh karena sudah ada model konstruk yang dibentuk dan akan diujikan, maka CFA menggunakan software lisrel atau amos untuk mengujinya. CFA dipandang sebagai partial Structural Equation Modelling (SEM).

Ukuran-ukuran yang digunakan dalam CFA sama halnya dengan yang digunakan dalam SEM yaitu ukuran kesesuaian model dengan data (fitness index). Chi Square, RMSEA, GFI, AGFI adalah beberapa contoh ukuran kesesuaian model yang akan digunakan di luar nilai bobot setiap indikator.

Kesamaan EFA dan CFA

Satu hal yang serupa dengan kedua metode statistik ini adalah keduanya menggunakan varians dari masing-masing variabel manifest sebagai representasi ukuran kontribusi terhadap variabel konstruknya.

Olah data SEM dengan LISREL, AMOS atau SMART PLS?

olah-data-sem

Structural Equation Modelling atau lebih dikenal dengan SEM merupakan suatu metode analisis statistik multivariat. Melakukan olah data SEM berbeda dengan melakukan olah data regresi atau analisis jalur. Olah data SEM lebih rumit, karena sem dibangun oleh model pengukuran dan model struktural.

Untuk melakukan olah data sem dengan lebih mudah, tentu kita membutuhkan bantuan software statistik. Saat ini sudah tersedia berbagai macam softareuntuk olah data SEM diantaranya adalah Lisrel, AMOS dan Smart PLS. Diantara software-software statistik tersebut, mana yang cocok untuk digunakan. Berikut ulasan singkatnya:

Kelebihan Lisrel

Lisrel dikembangkan oleh Karl Jöreskog and Dag Sörbom. Lisrel adalah software statistik yang digunakan paling meluas dikalangan peneliti maupun praktisi. Kelebihan dari software lisrel adalah kemampuannya mengidentifikasi hubungan antara variabel yang kompleks. Cara mengoperasikannya yang terdiri dari bebagai pilihan, baik dengan syntax maupun dengan program sederhana, menjadikannya lebih banyak digunakan berbagai kalangan. Syntax tentu akan disukai bagi pengguna yang memang faham dengan bahasa pemograman. Sementara Simplis atau simple lisrel merupakan alternatif bagi mereka yang awam dengan bahasa pemograman.

Pilihan berbagai metode estimasi sudah tersedia di Lisrel, sehingga tidak terpaku kepada satu metode estimasi Maximum Likelihood. Itu tergantung kondisi data, metode estimasi mana yang akan kita gunakan.

Kekurangan Lisrel

Satu hal kekurangan dari software lisrel ini adalah ketidakmampuannya mengolah data sem dengan jumlah sampel yang sedikit. Ketika kita memiliki sampel kurang dari 200, sementara modelnya kompleks, maka terkadang hasil estimasi tidak sesuai dengan harapan kitan.

Kelebihan Amos

Sama halnya dengan SPSS, AMOS merupakan software statistika yang dikembangkan oleh IBM. Sofware amos memang dikhususkan untuk membantu menguji hipotesis hubungan antar variabel. Melalui software ini, kita dapat mengetahui tingkat kekuatan hubungan antara variabel baik antara variabel laten maupun dengan variabel manifest. Seberapa signifikan hubungan antara variabel, dan seberapa fit model hipotesis dibandingkan dengan data riil lapangan.

Kelebihan Amos adalah kita tidak memerlukan syntax atau bahasa pemograman yang rumit untuk mengoperasikan software ini. Bagi pemula, atau yang awam dengan bahasa pemograman tentu ini merupakan keuntungan tersendiri. Melalui amos, kita cukup menggambarkan variabel laten dan variabel manifest, lalu menghubungkannya melalui panah-panah yang tersedia.

Kekurangan Amos

Kelebihan amos sekaligus menjadi kekurangan Amos. membuat gambar yang sangat banyak ketika model sudah kompleks, tentu menjadi pekerjaan yang sangat membosankan. Padahal, pekerjaan tersebut dapat dilakukan dengan lebih sederhana melalui bahasa pemograman. Kita tinggal copy syntax dan mengganti beberapa variabel, kemudan running, maka selesailah sekompleks apapun model yang hendak dibuat.

Kelebihan Smart PLS

Smart PLS atau Smart Partial Least Square adalah software statistik yang sama tujuannya dengan Lisrel dan AMOS yaitu untuk menguji hubungan antara variabel, baik sesama variabel latent maupun dengan variabel indikator, atau manifest.

Penggunaan Smart PLS sangat dianjutkan ketika kita mememiliki keterbatasan jumlah sampel sementara model yang dibangung kompleks. hal ini tidak dapat dilakukan ketika kita menggunakan kedua software di atas. mereka membutuhkan kecukupan sampel.

Kelebihan lainnya dai Smart PLS adalah kemampuannya mengolah data baik untuk model SEM formatif ataupun reflektif. model SEM formatif memiliki ciri-ciri diantaranya adalah variabel latent atau konstruk dibangun oleh variabel indikator dimana panah mengarah dari variabel konstruk ke variabel indikator. Model SEM reflektif adalah model SEM dimana variabel konstruk merupakan refleksi dari variabel indikator, sehingga panahnya mengarah dari variabel indikator ke variabel latent. Secara statistik, konsekuensinya adalah tidak akan ada nilai error pada variabel indikator.

Kekurangan Smart PLS

Oleh karena software ini dkhususkan untuk melakukan olah data sem dengan sampel kecil, maka tidak cocok digunakan untuk penelitian dengan sample besar

Definisi dan MANFAAT STATISTIK

Definisi Statistika

Statistika adalah ilmu yang mempelajari mulai dari pengumpulan data, pengolahan data sampai kepada pengambilan kesimpulan berdasarkan data tersebut.

Manfaat Statistika

1. Mendapatkan gambaran mengenai suatu fenomena tertentu dengan lebih sederhana melalui ukuran-ukuran statistik.
2. Mampu mengambil kesimpulan dengan tingkat kepercayaan tertentu berdasarkan sampel dari populasi.
3. Dapat melakukan efisiensi biaya melalui sampling.
4. Dapat membuat pemodelan dari sebuah permasalahan.
5. dapat mengetahui apa saja faktor yang berhubungan dengan sebuah permasalahan.
6. dapat mengetahui efek dari sebuah variabel
7. Dapat melakukan peramalan data untuk masa mendatang.

Peran Statisika dalam berbagai bidang

1. Dalam bidang politik dan pemerintahan dapat memprediksi calon yang akan terpilih dalam pemilihan umum melalui quick count.

2. Dalam bidang marketing, dapat mengetahui apa saja yang mempengaruhi penjualan

3. Dalam bidang keuangan dan ekonomi makro, dapat mengetahui pengaruh kebijakan makro pemerintah terhadap inflasi, peningkatan kesejahteraan dan lain-lain.

4. Dalam bidang kedokteran dan farmasi, dapat mengetahui efek suatu obat terhadap penyakit tertentu.

5. Dalam bidang pertanian, dapat mengetahui bibit yang unggul yang dapat menghasilkan produktivitas lebih tinggi melalui desain eksperimen.

6. Dalam bidang Sejarah, sastra, dan budaya dapat mengetahui efek dari suatu budaya asing terhadap budaya lokal.

Istilah-istilah penting dalam statistik

  • Data atau datum adalah kumpulan fakta, seperti nilai atau pengukuran, data dalam berupa angka atau kata-kata.
  • Informasi adalah hasil dari data yang sudah dianalisis.
  • Populasi adalah sekelompok manusia, komunitas, atau subjek lainnya yang diteliti dan memiliki karakteristik tertentu.
  • Sampel adalah sebagian subjek yang diteliti yang diambil dari populasi.
  • Parameter adalah ukuran populasi seperti rata-rata populasi, standar deviasi populasi.
  • Statistik adalah ukuran sampel seperti rata-rata sampel, standar deviasi sampel.
  • Sampling adalah proses pengambilan sampel dari propulasi dengan teknik tertentu.
  • Variabel adalah sebuah simbol (yang biasanya ditandakan dengan huruf alfabet) yang mencakup nilai yang berubah-ubah dari sebuah permasalahan yang diteliti.

Pembagian Statistik

1. Statistik deskriptif

statistik deskriptif adalah statistik yang bertujuan hanya untuk menggambarkan sesuau melalui ukuran-ukuran statistik dan grafik. sebagai contoh seorang peneliti ingin mengetahui gambaran mengetahui mengenai nilai hasil ujian di satu kelas A.

2. Statistik inferentif

statistik infrerentif adalah statistik yang bertujuan untuk mengambil kesimpulan data populasi berdasarkan sebagian data yang disebut sample. sebagai contoh seorang peneliti ingin mengetahui hasil ujian satu universitas berdasarkan data yang diambil dari beberapa kelas saja.

Sumber Data

1. Data Primer adalah data/informasi yang diperoleh dari sumber pertama misalnya melalui survei atau wawancara langsung.

2. Data Sekunder adalah data/informasi yang diperoleh dari sumber lain misalnya dari laporan keuangan atau kajian pustaka.

 

Skala Pengukuran

a. skala nominal

skala nominal yang sering juga disebut skala kualitatif adalah skala data yang berfungsi hanya untuk membedakan dan tidak ada tingkatan diantaranya.

b. skala ordinal

skala ordinal adalah skala pengukuran kualitatif dimana data diklasifikasikan ke dalam kelompok tertentu kemudian diberi kode, dan kode tersebut memiliki hierarki.

c. skala interval

skala interval adalah skala yang menunjukkan derajat perbedaan diantara item. Skala interval memiliki titik nol yang didefinisikan dengan bebas. sebagai contoh adalah suhu. dalam skala interval memungkinkan jarak antara angka tidak memiliki perbandingan yang sama. sebagai contoh 20 derajat celcius tidak berarti dua kali lipat panasnya dibandingkan 10 derajat celcius

d. skala ratio

ciri utama dari skala ratio adalah memiliki nilai nol yang mutlak dan tidak didefinisikan secara bebas. nilai nol tersebut benar-benar nol, sebagai contoh adalah rentang usia penduduk suatu negara dari 0 sampai dengan 80 tahun. hal lainnya adalah terdapat perbandingan yang sama antara data. berat badan kelompok balita antara 0 sampai dengan 15 kg. bayi 10 kg memiliki berat dua kali lipat dibandingkan dengan bayi 5 kg. skala-skala pengukuran dalam ilmu pengetahuan alam sebagian besar adalah menggunakan skala ratio. keunggulan dari skala ratio dibandingkan interval adalah kita dapat membandingkan suatu data dengan mudah.

Jenis-jenis Variabel

1. Variabel bebas (independent variable) adalah variabel yang mempengaruhi variabel lain.

2. Variabel terikat (dependent variable) adalah variabel yang dipengaruhi oleh variabel bebas.

Untuk bantuan analisa / olah data statistik dengan SPSS, Lisrel Amos dapat 081318082288 atau Order Online.

Cara Menganalisis Menggunakan SEM dengan Amos atau Lisrel

Mungkin diantara pembaca ada yang sudah banyak yang mengetahui bagaimana cara menganalisis data menggunakan SEM. SEM atau Structural Equation modelling memang saat ini sudah dikenal luas di kalangan akademisi dan peneliti, terutama. Mengapa, karena alat analisis ini sangat powerful digunakan untuk menganalisis variabel-variabel laten.

Apa yang dimaksud dengan variabel laten? variabel laten adalah variabel yang tidak terlihat langsung sehingga kita perlu menjabarkan indikator-indikator dari variabel tersebut. Sebagai contoh ketika kita ingin mengukur variabel motivasi, apakah seseorang memiliki motivasi yang tinggi atau rendah. Bagaimana mengukurnya? tentu tidak mudah. karena variabel motivasi merupakan variabel laten. Berbeda halnya jika kita mengukur tinggi badan, misalnya. Kita hanya perlu menarik meteran dan mengukurkannya. Hanya ada satu ukuran untuk mengukur tinggi badan yaitu meter. Begitu juga ketika kita hendak mengukur berat badan. Mudah, ambilkan timbangan, ukur, dapatlah ukuran untuk berat badan seseorang.

Variabel seperti motivasi, kinerja, sikap, perilaku, merupakan variabel-variabel yang tidak langsung ada satu ukurannya. Sehingga kita perlu melakukan pendekatan melalui indikator-indikatornya. Nah, metode analisis data yang demikian adalah structural equation modelling atau dikenal dengan SEM. Dari istilahnya saja sudah structural, artinya akan ada persamaan structural. Persamaan structural adalah persamaan yang menggambarkan hubungan kausalitas antara variabel-variabel laten tadi.

Di samping persamaan structural, ada yang disebut dengan persamaan pengukuran. Persamaan pengukuran adalah persamaan antara variabel laten dengan indikator-indikatornya. Seberapa terwakili variabel laten tersebut oleh indikator-indikatornya. Tentunya semakin mendekati 100% semakin sempurna. Mengingat proses penjabaran variabel laten tersebut juga melalui proses yang menduga-duga maka dimungkinkan akan adanya error dalam persamaan pengukuran.

Jika dibandingkan dengan metode analisis klasik seperti regresi atau korelasi, SEM sendiri memiliki persamaan. Secara matematis, SEM merupakan gabungan dari analisis regresi dan analisis faktor. yang dimaksud dengan analisis faktor dapat terlihat pada model pengukuran antara variabel indikator dengan varibel laten. Sedangkan Analisis regresi terlihat pada persamaan struktural antara variabel laten.

Analisis SEM memerlukan perangkat software untuk memudahkan proses perhitungan. Mengapa? karena SEM ini melakukan proses perhitungan yang iteratif. Artinya proses perhitungan yang dilakukan berulang-ulang sehingga dihasilkan sebuah model yang konvergen atau memiliki hasil yang akurat. Saat ini, Lisrel dan Amos merupakan dua software yang dikenal luas di kalangan pengguna. Diantara kedua software ini tidak terdapat perbedaan yang signifikan dalam hal hasil. Yang membedakan adalah cara mengoperasikannya. Jika kita menggunakan Lisrel, maka sedikitnya kita harus mengerti logika pemrograman. Walaupun memang tidak sulit. Sementara pada amos, sama sekali tidak diperlukan kemampuan untuk memahami logika bahasa pemrograman. Pengguna hanya tinggal menggambarkan model teoritisnya, maka Amos akan melalukan perhitungan dengan sendirinya.

Secara singkat dapat dirangkum bahwa Amos cenderung user friendly, sementara lisrel cenderung dapat mempercepat proses pengarjaan melalui sintax-sintax nya.

Demikian.

JASA Analisis Data Statistik

Jasa analisis data statistik merupakan jasa yang biasanya ditawarkan oleh pihak ketiga kepada peneliti yang sedang kesulitan mengolah data yang sudah terkumpul. Proses analisa data biasanya dimulai dari proses entri data, validasi data sampai dengan analisa data dan penarikan kesimpulan.

Tujuan utama dari analisis data sendiri adalah untuk mengolah data mentah yang masih berupa angka-angka atau pun data kualitatif menjadi sebuah informasi yang berguna bahkan lebih tinggi lagi menjadi pengetahuan.

Dalam dunia riset, proses statistik sendiri dimulai dari pekerjaan fieldwork atau proses lapangan dalam pencarian dan pengumpulan data. Data mungkin dikumpulkan melalui data primer ataupun sekunder. pada proses pengumpulan data diperlukan teknik pengambilan sampel dan penentuan jumlah sampel melalui perhitungan statistika.

Setelah data terkumpul, tahap selanjutnya adalah data entry atau dikenal dengan data punching yaitu memasukan data ke dalam komputer. Jika penelitian dilakukan melalui survey dengan bantuan kertas kuesioner, maka data entri mutlak dilakukan. Namun jika data diperoleh dari sumber sekunder dan sudah dalam bentuk file excel, maka proses punching tidak perlu dilakukan.

Selanjutnya adalaha validasi data atau screening data. Validasi data kuesioner dapat dilakukan melalui metode validitas dan reliabilitas. Sementara data sekunder dapat divalidasi melalui outlier dan normalitas data. setelah proses validasi selesai, maka proses selanjutnya adalah analisis data.

Peneliti perlu menelaah kembali apa sebenarnya yang menjadi tujuan utama penelitian agar proses analisa data tidak melebar sehingga tidak menyentuh inti permasalahan. Secara garis besar analisis data berdasarkan tujuan penelitian dibagi ke dalam beberapa kelompok sebagaimana berikut:

1. Analisis Data Deskriptif

Pada tujuan yang pertama ini, peneliti hanya menggambarkan fenomena apa adanya melalui ukuran-ukuran statistik seperti mean, median, modus, standar deviasi dan sebaran data lainnya. Di sini, tidak ada pengujian hipotesis. Analisis deskriptif biasanya disebut juga dengan penelitian eksploratori. Yaitu penelitian untuk melakukan eksplorasi bukan menguji hipotesis tertentu.

2. Analisis Data Komparatif

Pada analisis statistik komparasi, peneliti sudah melakukan statistik inferentif atau pengujian hipotesis dengan cara membandingkan beberapa populasi. peneliti dapat membandingkan dua kelompok populasi atau lebih. ukuran yang dibandingkan bisa rata-rata, proporsi atau variansnya.

3. Analisis Data Asosiasif

Dikenal juga dengan analisis korelasi. Peneliti mencoba menghubungkan dua variabel yang diduga memiliki hubungan. sebagai contoh peneliti mencoba menghubungkan antara sosial ekonomi masyarakat dengan preferensi terhadap kandidat presiden tertentu. disini ingin diketahui apakah ada hubungan antara sosial ekonomi yang direpresentasikan oleh pendapatan dengan kencenderungan memilih kandidat A, misalnya.

4. Analisis Data Kausatif

Perbedaan mencolok antara analisis data kausatif atau kausalitas dengan analisis data asosiatif adalah arah hubungan sebab akibat yang jelas. Jika kedua variabel memiliki arah sebab akibat yang jelas maka dikategorikan ke dalam analisis kausatif. sebagai contoh aktivitas promosi menyebabkan meningkatnya omset, bukan sebaliknya. dalam dunia kedokteran misalnya, pengaruh dosis obat tertentu terhadap kesembuhan pasien. Tidak masuk akal jika kita balik, kesembuhan mempengaruhi dosis obat.

Tentunya setelah memperhatikan tujuan-tujuan dari sebuah penelitian seperti tertera di atas, diharapkan peneliti dapat memilih metode statistik yang tepat. Metode statistik itu ibaratnya sebuah alat pemotong, mungkin boleh gergaji, pisau dapur, gunting, pedang, golok, atau mesin pemotong. Alat-alat tersebut akan lebih efektif jika digunakan dengan memperhatikan tujuannya. Tentunya tidak efektif mengiris bawang menggunakan golong, walaupun memungkinkan untuk dilakukan. Begitupun dengan metode statistik. Semua metode memungkinkan untuk digunakan tapi apakah efektif atau tidak dengan tujuannya.

Konsultan Statistik Di Jakarta dan Bandung

Globalstats merupakan konsultan statistik yang berdiri di Bandung pada tahun 2006. Pada tahun 2011 kami membuka kantor di Jakarta. Jasa kami berfokus pada konsultasi dan jasa statistik untuk kepentingan akademik. Klien kami adalah mahasiswa tingkat sarjana, program magister serta doktor yang sedang melakukan riset baik untuk kepentingan akhir studi maupun untuk publikasi ilmiah.

Selain mahasiswa, biasanya dosen juga memerlukan kami sebagai konsultan statistik untuk memperdalam ilmu statistik. Oleh karena itu, kami juga sering mengadakan training statistika.

Latar belakang kami membuka perusahaan konsultan statistik adalah karena kami melihat masih jarang sekali hasil karya ilmiah dari indonesia yang dipublikasikan dalam jurnal internasional. Salah satu penyebabnya adalah lemahnya pemahaman mengenai metode penelitian baik kuantitatif maupun kualitatif. Meneliti menjadi hal yang sulit. Banyak dari akademisi tidak memiliki pemahaman yang komprehensif mengenai metode penelitian.

Materi training statistik yang kami adakan adalah: Analisis
Regresi, menguji dan mengatasi asumsi klasik normalitas, linieritas, heteroskedastisitas, multikolotieritas, dan auto korelasi, Analisis regresi logistik, Analisis Korelasi, Structural equation modelling (SEM), partial least square (PLS), Analisis Multivariate, Rancangan Percobaan.

Sofware yang digunakan: SPSS, Lisrel, Amos, PLS, Eviews, Stata.

Pengalaman kami dalam berbagai bidang keilmuan:

1. Ilmu Ekonomi:
Model-model ekonometrik, model data panel, Uji hausman, model OLS (Ordinary Least Square), model TSLS (Two Stage Least Square), Model ARCH/GARCH, model VAR (Vector Auto Regression)/ VECM (Vector Error Correction Model).

2. Ilmu Manajemen, Akuntansi, Bisnis:
Regresi berganda, Multivariat, analisis cluster, analisis perceptual mapping, service quality, Importance performance analysis, Structural Equation Modelling, Customer Satisfaction, SWOT/TOWS analysis, Analisis portofolio, Analisis resiko, Monte Carlo, value at risk.

3. Ilmu kedokteran dan kesehatan lainnya: Odds ratio, Analisis regresi logistik, Chi square, Analisis case control.

4. Pertanian: rancangan percobaan, Rancangan acak lengkap, rancangan acak blok, rancangan tersarang, dll.

5. Berbagai disiplin ilmu lainnya.

Jasa Kami Meliputi:
1. Konsultansi, meliputi: metode penelitian, teknik sampling, menghitung metode analisis yang cocok.

2. Jasa analisis data, membantu mengolah data mulai dari entri data, mengolah melalui software statistik, menginterpretasi hasil output dan mengajarkan prosesnya.

3. Jasa interview kuesioner lapangan, menyediakan tenaga surveyor, melakukan interview dan mencarikan responden.

Jika anda membutuhkan konsultan statistik untuk wilayah Bandung dan Jakarta, anda dapat datang langsung ke kantor kami. Bagi anda yang di luar bandung dan jakarta, anda dapat mendaftarkan diri secara online. Bentuk konsultasi akan dilakukan secara online melalui email, telepon, chatting.