ROLES OF STATISTICAL ANALYSIS CONSULTING FIRMS / COMPANY

ROLES OF STATISTICAL ANALYSIS CONSULTING FIRMS / COMPANY

Statistical analysis consulting firms / company, as a third party to help researchers or students gaining a master’s degree or doctoral degree. It has multiple roles and tasks as well as restrictions of providing services. Why should be some restrictions? Obviously, there is task of consultant and task of student. main idea of the research is student task. The consultant can not replace its task. Otherwise,the main task of consultant is to assist technical tasks. The task as follows:

Data Analytics Consultant Give Consider Methods

Due to lake of statistical analysis knowledge, student need help of data analytics consulting. They can assist a researcher to provide appropriate methodology and research design, rightly. Whether quantitative or qualitative research methods are suitable the research. Prospective research design or retrospective. Is it necessary observational studies, surveys, or even experimental design? Furthermore, they can assist technical task to input the data into computer. In term of  research methodology, the consultant has comprehensive overview. He can give alternative view of some research methods and its advantages. Indeed, the researcher has to choose appropriate one.

Statistical Data Analysis Services

Researchs use consultant when they have to time to running the data. Commonly, they use statistical software such as: SPSS, EVIEW, Amos, PLS, Lisrel. Hence, they would need to technically assist in the work of running data. It should not be lost is that researchers stay understand the processes and procedures of data processing. The reason to choose a particular software and reason to use certain analytical methods. Technical matters related to the running of data can be done by the consultant.

Provide Consultation of Data Analysis

One of the most important in research is to interpret the data. Without interpretation, statistical results only numbers without meaning. Researchers will discuss with data analytics consulting to find any figures. They may explain the data meaning on the software output.

Actually, consultant expected able to help researchers writing better research. Better use appropriate research methodology. Researchers, actually can just use a random method of statistical analysis and statistical software like SPSS and the output would be come.

Secondly, statistical consulting firms / company can give time efficiency to the researchers. Researcher could save time one or two weeks or even months. To learn various methods of research is not an easy thing. Moreover, statistical analysis methods are many kinds. Researchers who do not have background in mathematics or statistics may be difficult to learn strange terminology.

Restrictions of Data Analytics Consulting Task

Eventually, there are some limitations in using the services of consultants.

  • Researchers should not use the services of consultants to find main ideas of the research.
  • Researchers should not ask for the help of consultants to do plagiarism.
  • Researchers should not use consultants to replace the role of researchers.
  • Finally, Researchers should not assume that the consultants’ work is theirs
Data Analysis Services

Data Analysis Services

Our main service is Data analysis service. This service is intended for undergraduate, master or doctoral studests and for those who require data processing services and consultancy.

Interviewer

Interviewer

We provide resource to conduct interviews and field surveys around Indonesia are. This service is provided to clients who do not have the time to conduct interviews and distributing questionnaires to the respondents.

Bank of Data

Bank of Data

We Help in searching, collecting and arranging data from a secondary sources. Currently our services are only limited on secondary data from the financial statements of Indonesia listed company.

Statistics Training

Statistics Training

We regularly conduct training statistics . Training is packaged in a workshop held on a specific schedule . Beyond that , we can organize in-house training with a certain number of participants and time are flexible

Regresi Data Panel dengan Eviews 7

Regresi data panel dapat dilakukan dengan eviews atau dengan eviews versi 7 atau versi sebelumnya. Analisis data panel memang lebih cocok menggunakan software eviews dibandingkan sofware lain seperti SPSS. SPSS lebih cocok digunakan untuk menganalisis bukan data panel (time series saja atau cases saja). Analisis data panel adalah pengamatan mengenai data yang berupa multiple kasus (perusahaan, kota, negara, dll) yang dianalisis lebih dari saru serial waktu. analisis data panel lebih dikenal juga sebagai cross-sectional time series data.

Mengingat data terdiri dari dua dimensi, maka analisis regresi data panel yang digunakan juga perlu mempertimbangkan data multiple cases. EViews versi 7 atau versi sebelumnya juga sudah menyediakan menu yang mengakomodasi untuk keperluan model seperti ini. Sebagai contoh ketika kita menggunakan multiple cases beberapa negara, maka dalam model yang kita analisis juga perlu mempertimbangkan beberapa negara.

Berikut adalah langkah-langkah analisis regresi data panel dengan eviews 7 atau versi sebelumnya:

  1. Model Pool atau Model Common

Dalam regresi panel data ada yang namanya model pool . Model pool atau model common digunakan untuk menguji hipotesa model penelitian tanpa membedakan waktu dan kelompok data. Dalam hal ini tidak membedakan tahun dan tidak membedakan parent company dari perusahaan-perusahaan yang diujikan.

  1. Uji Asumsi Klasik

Uji asumsi klasik dilakukan untuk menguji model pool bukan regresi data panel. Mengingat model pool dilakukan dengan menggunakan pendekatan ordinary least square, maka model pool perlu memenuhi asumsi klasik (normalitas, multikolinieritas, autokorelasi dan heteroskedastisitas).

  1. Running Model Fixed Effect

Model Fix Effect : Yit = β0 + β1X1ij+ β2X2ij3D3 + β4D4+ β5D5 +  eit

Model fixed effect pada regresi data panel dilakukan mengingat parent company dari perusahaan yang dijadikan sample berbeda. Sehingga perlu melihat efek apakah terdapat pengaruh dari parent company yang berbeda. Pendekatan ini mengizinkan intercept bervariasi antar unit cross-section  namun tetap mengasumsikan bahwa slope koefisien adalah konstan antar unit cross-section. Penambahan variabel dummy ini dapat mengurangi banyaknya degree of freedom yang pada akhirnya akan mempengaruhi koefisien dari parameter yang diestimasi

  1. Uji Chow

Uji ini digunakan salah satu untuk memilih model pada regresi data panel, yaitu antara model efek tetap (fixed effect model) dengan model koefeisien tetap (pooled regression). Hipotesis awal dari uji adalah model efek tetap (fixed effect). sama bagusnya dengan model koefisien tetap.

  1. Model Random Effect

Berbeda dengan regresi metode OLS, regresi data panel memungkinkan Intersep menjadi perbedaan responden (crossectional) β0i diganti dengan intersep yang menunjukan rata-rata intersep populasi. Error model (Vit) terdiri dari Error karena Crossectional perbedaan perusahaan (µi) dan karena Error total kombinasi antara Corssectional dan Time Series (eit).

Pendekatan ini mengasumsikan unobservable individual effects (ui) tidak berkorelasi dengan regressor (X) atau dengan kata lain ui diasumsikan bersifat random. Sebelum model diestimasi dengan model yang tepat, terlebih dahulu dilakukan uji spesifikasi apakah fixed effect atau random effect atau keduanya memberikan hasil yang sama.

  1. Uji Hausman

Pada regresi data panel, melakukan uji hausman adalah hal yang penting. Eviews versi 7 sudah menyediakannya. Setelah tahapan signifikansi diperoleh informasi bahwa model fixed effect lebih baik dibandingkan dengan model pool, maka tahapan selanjutnya perlu dilakukan pengujian apakah model random effect merupakan model yang lebih baik dibandingkan model fixed effect. Uji tersebut dilakukan dengan uji hausman. Hipotesis awal dari uji hausman adalah model random effect sama baiknya dengan model fixed effect.

Uji Hipotesis Statistik Penelitian

Uji hipotesis statistik penelitian adalah proses pengambilan keputusan mengenai sebuah klaim terhadap populasi. Artinya dalam uji hipotesis, peneliti menguji apakah dugaan sementara terbukti atau tidak berdasarkan data. Sebagai contoh, dalam sebuah pemilu presiden, seorang peneliti menduga bahwa kandidat presiden A akan unggul 20% dibandingkan dengan kandidat presiden B. Dugaan peneliti disebut dengan hipotesis. Hipotesis perlu dibuktikan melalui data apakah akan sesuai dengan kenyataan (data populasi) atau tidak.

Dalam uji hipotesis statistik penelitian, peneliti perlu mendefinisikan apa populasi penelitiannya. mengapa? karena populasi adalah nilai rujukan yang akan dibuktikan. Melanjutkan contoh di atas, populasinya adalah seluruh jumlah pemilih yang telah ditetapkan. selanjutnya peneliti perlu membuat pernyataan hipotesis. Tidak hanya dinyatakan dalam bahasa penelitian, peneliti pun harus mampu menyatakan dalam bahasa statistik yang biasa disebut dengan hipotesis statistik. Perbedaan proporsi pemilih kandidat A lebih besar 20% dibandingkan proporsi pemilih kandidat B merupakan contoh hipotesis yang cocok untuk kasus pilpres di atas. Peneliti perlu mengumpulkan data-data pendukung melalui pengambilan sebagian data dari populasi yang disebut dengan sampel. data sampel yang akan dijadikan judgement apakah hipotesis peneliti akan terbukti atau tidak. Melalui tingkat kepercayaan tertentu, data sampel perlu dibandingkan dengan suatu nilai norma yang terdapat pada tabel statistik. Kesimpulan apakah hipotesis diterima atau ditolak dapat dilihat dari perbandingan data sampel terhadap norma distribusi apakah masih dalam toleransi batas penerimaan atau tidak.

Secara sistematis, pengujian hipotesis dapat dinyatakan melalui langkah-langkah berikut:

1. Nyatakan hipotesis, dan apa klaim peneliti

2. Temukan nilai kritis (norma) dengan tingkat kepercayaan tertentu pada tabel statistik.

3. Hitunglah nilai statistik data sampel

4. Buatlah keputusan apakah hipotesis diterima atau ditolak dengan membandingkan nilai statistik sampel dengan norma pada tabel statistik.

5. Buatlah kesimpulan.

 

Norma statistik yang dijadikan pembanding adalah tabel statistik yang berisi distribusi tertentu dari populasi. Tabel norma statistik yang biasa digunakan adalah tabel distribusi t, tabel distribusi Z, tabel F, tabel Chi kuadrat. di luar tabel-tabel tersebut sebenarnya masih ada beberapa tabel distribusi lainnya. Tabel tersebut digunakan disesuaikan dengan pola distribusi data sampel dan jumlah sampel. Tabel distribusi Z biasa digunakan untuk sampel berukuran besar (sampel lebih besar atau sama dengan 30). tabel distribusi t cocok digunakan untuk sampel kecil (kurang dari 30). Dengan jumlah sampel dan tingkat kepercayaan tertentu, peneliti akan mendapatkan suatu norma yang akan dijadikan acukan untuk pengujian hipotesis (menerima atau menolak hipotesis).

Secara statistik, pernyataan hipotesis dibagi menjadi dua kelompok yaitu hipotesis satu pihak (one-tailed) dan hipotesis dua pihak (two-tailed). pengelompokan tersebut didasarkan atas pernyataan hipotesis. Jika peneliti menyatakan hanya akan menerima rentang nilai positif maka uji hipotesis statistik tersebut dikelompokkan ke dalam hipotesis satu pihak, begitu juga sebaliknya. Namun jika peneliti menyatakan dugaannya dalam satu nilai, misalnya kandidat presiden A akan memperoleh suara sebesar 70%, maka disebut hipotesis satu pihak. Nilai yang meleset dari angka 70%, baik itu lebih besar atau lebih kecil, akan ditolak.

Dengan demikian, uji hipotesis statistik penelitian dapat dikatakan sebagai justifikasi terhadap parameter populasi yang lebih luas melalui pengambilan sampel yang lebih sedikit. Apakah nilai statistik dari sampel penelitian sudah dapat merepresentasikan nilai parameter populasinya, jawabannya ada uji hipotesis statistik. Melalui metode ini, peneliti dapat lebih efisien melakukan estimasi parameter populasi dengan jumlah sampel yang jauh lebih kecil dibandingkan jumlah populasi.

Uji Validitas Kuesioner

Uji validitas adalah sebuah ukuran yang mana sebuah alat ukur dapat mengukur apa yang ungin diukur. Ada tiga tipe validitas yang mana adalah:

1. Validitas isi

Ketika sebuah uji memiliki validitas isi, maka item-item yang dibuat seharusnya sudah mewakili semua indikator yang mungkin. item-item pertanyaan yang dibuat secara individual memungkinkan menarik item-item yang lebih luas. Dalam beberapa contoh dimana sebuah alat test digunakan untuk mengukur bakat seseorang, maka alat test tersebut akan sulit untuk didefinisikan, Sebuah judgement dari seorang ahli mungkin dapat memberikan penilaian relevasi item-item pertanyaan yang dibuat.
2. Validitas yang berhubungan dengan kriteria (criterion related validity)

Sebuah alat ukur dikatakan dapat diukur dengan uji validitas dengan kriteria jika mampu mengukur keefektifannya dalam mengukur kriteria-kriteria atau indikator-indikator yang telah ditetapkan. Pada uji validitas jenis ini sebuah pengukuran atau prosedur akan diukur dengan nilai yang sudah terbukti valid atau kenyataan di lapangan. Sebagai contoh adalah uji validitas mengenai test tertulis mengenai mengemudi, test tertulis ini dapat dikatakan valid jika memang di lapangan subjek penelitian mampu mengemudikan kendaraan dengan benar.

Uji validitas dengan kriteria dapat dibedakan menjadi dua kelompok.

a. Concurrent validity

Adalah sebuah uji validitas dimana kriteria-kriteria diukur bersamaan dengan skor test. Sebagai contoh adalah pengujian tingkat depresi, sebuah test dikatakan memiliki concurrent validity jika itu mengukur tingkat depresi yang sedang dialami oleh pengambil test depresi tersebut. Secara singkat dapat dikatakan bahwa pengukuran dilakukan pada waktu bersamaan dengan apa yang ingin diukur.

b. Predictive validity

Adalah terjadi ketika kriteria-kriteria yang diukur diperoleh setelah pengujian. Sebagai contoh adalah aptitude test, yang mana membantu mengukur kemungkinan seseorang apakah akan sukses pada bidang atau pekerjaan tertentu. Peneliti hanya akan mengetahui setelah subjek penelitian menjalani pekerjaan mereka.
3. Validitas Konstruk

Sebuah uji validitas dikatakan memiliki validitas kontruk jika mampu mengukur hubungan antara skor uji dengan prediksi dari nilai teoritisnya. ujivaliditas konstruk mengukur kesesuaian antara konsep teoritis dengan item-item pengukuran yang lebih spesifik untuk mengukur konstruk tersebut. Test kecerdasan adalah salah satu contoh yang diapat diuji dengan uji validitas konstruk. Peneliti yang melakukan pengukuruan kecerdasan perlu mendefinisikan mengenai kecerdasan kemudian membuat ukuran-ukuran spesifik yang dapat mengukur kecerdasan seseorang.

METODE Analisis Data

Metode Analisis data berbeda dengan teknik analisis data walaupun bunyinya serupa. Metode lebih merujuk kepada pendekatan yang lebih umum dan di dalamnya terdapat teknik dari pendekatan tersebut. Metode penelitian secara garis besar dibagi dua bagian yaitu metode kuantitatif dan metode kualitatif. sedangkan dalam metode kuantitatif sendiri terdapat berbagai macam teknik analisis seperti teknik korelasional, regresi, komparasi, deskriptif dan sejenisnya.  Jpeg ilustrasi: analisis data  Metode analisis data kuantitatif adalah pendekatan pengolahan data melalui metode statistik atau matematik yang terkumpul dari data sekunder ataupun data sekunder. Kelebihan dari metode ini dalah kesimpulan yang lebih terukur dan komprehensif.  Metode analisis data kuantitatif terdiri dari beberapa teknik analisis seperti:  1. Analisis Deskriptif, kita mendeskripsikan hasil data yang terkumpul apa adanya melalui ukuran-ukuran statistik seperti mean, median, modus dan standar deviasi.  2. Analisis Komparatif, kita membandingkan satu buah fenomena dengan fenomena lain, atau kita membandingkan fenomena yang sama pada kelompok subjek yang berbeda.  3. Analisis Korelasi, kita melihat keterkaitan antara satu fenomena dengna fenomena lain yang secara teori belum terbukti.  4. Analisis  Kausalitas, kita mempertanyakan lagi kausalitas antara beberapa fenomena yang secara teori sebetulnya sudah diduga saling mempengaruhi.  Metode analisis data kuantitatif lebih banyak digunakan pada bidang keilmuan eksakta, ekonomi, teknik, kedokteran. Walaupun sekarang ini banyak penelitian sosial yang merupakan aplikasi dan dampak dari ilmu-ilmu eksakta, ekonomi, teknik, kedokteran. Sehingga pendekatan metode yang digunakan pun sering menggunakan pendekatan kuantitatif.  Metode analisis data kualitatif adalah pendekatan pengolahan secara mendalam data hasil pengamatan, wawancara, data literatur. Kelebihan metode ini dalah kedalaman dari hasil kajiannya.  Metode analisis data kualitatif lebih banyak digunakan pada bidang ilmu sosial, hukum, sosiologi, politik. Walaupun  tidak mutlak bidang-bidang sosial harus menggunakan metode kualitatif. Metode kualitatif memberikan kelebihan dalam hal kedalaman analisis yang memang diperlukan pada bidang sosial. Bagaimana mungkin meneliti budaya suatu suku tertentu tanpa pengamatan yang mendalam. Bagaimana mungkin mendalami aspek filosofis dari pasal-pasal tertentu dalam bidang hukum jika tanpa kajian mendalam. Tentunya untuk hal-hal demikian diperlukan metode kualitatif.  Metode analisis data kualitatif terdiri dari berbagai teknik analisis seperti:  1. Metode analisis data ini perlu : Mengorganisir data kualitatif menjadi lebih rapi, mengapa hal ini diperlukan? karena seperti kita ketahui bahwa dalam penelitian kualitatif tidak ada yang namanya ukuran pasti, apalagi menggunakan skala baku seperti dalam penelitian kuantitatif.  2. Metode analisis data ini perlu : Koding data perlu dilakukan, karena ukuran-ukuran datanya kebanyakan dalam bentuk verbal bukan dalam bentuk angka, maka peneliti perlu melakukan koding untuk menseragamkan beberapa hal yang memiliki makna yang sama.  3. Metode analisis data ini perlu : Mengkoneksikan satu konsep dengan konsep yang lain yang mungkin saling mempengaruhi, ukuran adanya hubungan atau pengaruh tidak dapat digambarkan oleh angka.  4. Metode analisis data ini perlu : Legitimasi terhadap hasil yang ada dengan membandingkan konsep lain yang kita-kira bertentangan dengan hasil kesimpulan. Seberapa banyak konsep lain yang bertentangan dengan hasil kesimpulan.

Analisis Regresi

Analisis regresi adalah sebuah analisis statistik yang digunakan untuk menduga hubungan diantara variabel-variabel. Sebetulnya banyak metode analisis lain yang dapat digunakan mengukur hubungan diantara variabel-variabel, namun analisis regresi lebih fokus kepada hubungan antara variabel terikat (dependent variable) dengan variabel bebas (independent variable). Secara khusus, analisis regresi membantu peneliti dalam mengetahui perubahan variabel terikat yang disebabkan oleh variabel bebas, dimana variabel lainnya tidak berubah.

Analisis regresi termasuk kepada metode analisis hubungan kausalitas. Pada pola hubungan kausalitas ini, satu variabel mempengaruhi variabel lainnya. Dalam statistik variabel penyebab atau variabel bebas ini bersifat random, sedangkan variabel yang diakibatkannya atau variabel respon bersifat fixed. Analisis regresi ini berbeda dengan analisis korelasi dimana tidak ada variabel yang menjadi variabel penyebab terhadap variabel lainnya. Oleh karena itu, dalam ilmu statistika, kedua variabel dalam analisis korelasi bersifat fixed.

Secara kajian literatur, analisis korelasi digunakan pada variabel yang secara literatur tidak memiliki hubungan sebab akibat. Kedua variabel ini hanya secara kebetulan berhubungan. hubungan antara melemahnya kurs rupiah dengan menurunnya omset sebuah supermarket mungkin saja ada. Tetapi pola hubungan sepergi ini bukan pola hubungan sebab akibat. Pola hubungan yang bersifat sebab akibat contohnya adalah efek pemberian obat tertentu terhadap penyambuhan penyakit tertentu.

Dalam analisis regresi dapat melibatkan satu variabel bebas dan satu variabel terikat, yang mana biasa disebut analisis regresi sederhana, atau melibatkan banyak variabel bebas dengan satu variabel terikat yang mana biasa disebut analisis regresi berganda.

Pengertian Autokorelasi Positif dan negatif dengan SPSS

image3.jpg

ilustrasi autokorelasi

Pengertian

Autokorelasi dikenal sebagai korelasi serial, maksudnya adalah korelasi antara serial data atau antara data sebelum dengan data sesudahnya dalam data yang disusun berdasarkan urutan waktu (time series). Dalam data yang disusun secara cross section (bukan berdasarkan waktu), maka autokorelasi sebetulnya tidak relevan. Pada data yang disusun secara cross section, autokorelasi hanya indikasi dari keterkatitan antara satu subjek penelitian dengan penelitian lainnya. Atau dapat juga dikatakan sebagai kemiripian antara satu obsevasi dengan observasi lainnya. Secara matematika, autokorelasi dapat membaca pola yang berulang dari data. hal tersebut menunjukkan adanya pengaruh waktu terhadap variabel respon. Contohnya pada perubahan harga emas, semakin lama cenderung naik, artinya terdapat pengaruh waktu atau autokorelasi pada perubahan harga emas.

Autokorelasi dibagi menjadi dua yaitu autokorelasi positif dan autokorelasi negatif. seperti kita ketahui bahwa masalah autokorelasi ini merupakan masalah error, maka kedua jenis autokorelasi di atas juga akan terkait masalah error. Autokorelasi positif adalah autokorelasi dimana error yang selalu diikuti oleh error yang sama tandanya. misalnya ketika satu periode sebelumnya positif maka error berikutnya akan positif. Sebaliknya autokorelasi negatif menyebabkan error akan diikuti oleh error yang berbeda tanda. misalnya ketika errornya positif maka akan diikuti oleh error negatif pada periode selanjutnya.

Dampak autokorelasi terhadap Model

Dalam analisis regresi yang menggunakan data time series atau data yang disusun berdasarkan runtun waktu, autokorelasi merupakan syarat utama model regresi agar tidak bias. Autokorelasi merupakan salah satu masalah error. error ini biasanya disebut dengan error terms dalam ekonometrik. Autokorelasi merupakan pelanggaran atas asumsi model OLS (Ordinary Least Square) dimana mensyaratkan bahwa tidak ada korelais antara error/residual. Lalu apa efeknya  terhadap model jika asumsi ini dilanggar? Tentu yang paling terdampak adalah nilai standard error akan cenderung lebih kecil dari seharusnya. Memang kenapa jika standard error diestimasi lebih kecil? Tentu akan menyebabkan nilai t hitung membesar dari seharusnya. Pada gilirannya model menjadi overestimated.

Bagaimana Mendeteksi Autokorelasi?

Secara tradisional, cara untuk menguji ada tidaknya autokorelasi adalah melalui ukuran statistik yang disebut Durbin Watson. cara mengetahui nilai durbin watson dari model tertentu tidaklah susah. Dalam software statistik SPSS sudah tersedia menu untuk mengeluarkan angka durbin watson-nya. Nilai durbin watson tersebut tinggal dibandingkan dengan rentang norma durbin watson yang masih bisa ditolerasi. Uji lain yang tersedia adalah dengan menggunakan uji Breusch-Godfrey. Hanya saja uji ini hanya tarsedia di software Eviews.

Selain cara di atas, sebetulnya terdapat cara yang sederhana untuk mendeteksi apakah terdapat autokorelasi atau tidak. Cara tersebut adalah dengan menggunakan grafik plot error atau residual. Caranya mudah, pertama kita running model regresi Y = a + b1X1 +b2X2… Kemudian diperoleh nilai residualnya. nilai tersebut kita buat plot dengan sumbu horizontal adalah waktu dan sumbu vertikal adalah nilai residual. Jika grafik tersebut membentuk pola tertentu maka artinya terdapat pola yang sistematis atau terdapat korelasi antara error. Hal ini menunjukkan adanya gejala autokorelasi yang harus ditanggulangi.  Jika setiap angka error atau residual diikuti oleh residual pada periode berikutnya dengan tanda yang sama maka kemungkinan adanya autokorelasi positif.

Bagaimana mengatasi Autokorelasi?

Salah satu cara untuk mengatasi autokorelasi adalah dengan membuat model GLS (Generalized Linear Square). Prinsip dari model GLS adalah menghilangkan efek korelasi time series dengan cara mentrasformasi model menjadi model GLS. Model GLS adalah model dengan selisih antara data pada periode t dikurang periode t-1 yang dikalikan dengan nilai Rho. Nilai Rho dianggap sebagai representasi autokorelasi.

 

Pengertian Uji Heteroskedastisitas dan SPSS

Pengertian heteroskedastisitas

Gambar A

Gambar B

Jika kita menggunakan metode analisis regresi dalam penelitian kita, maka kita tidak akan asing lagi dengan yang namanya uji heteroskedastisitas. uji heteroskedastisitas adalah suatu uji asumsi yang harus dipenuhi agar model regresi yang kita akan gunakan tidak bias.

Ah apa sih heteroskedastisitas itu? Jika kita lihat pada gambar A di atas, terlihat bahwa penyebaran data dari waktu ke waktu selalu konsisten. nah itu yang diharapakan. kondisi seperti itu adalah kondisi data yang homoskedastis. Jika kita perhatikan pada gambar B, terlhat bahwa penyebaran dara dari waktu ke waktu terus berubah. Kondisi demikian disebut dengan keadaan data heteroskedastis. Tentunya keadaan demikian tidak diharapkan dalam model. mengapa? karena kita akan mengalami kesulitan untuk mengestimasi model yang tepat akibat varian data yang tidak konsisten.

Sebetulnya selain dalam ananalisis regresis, heteroskedastisitas merupakan permasalahan yang sering muncul dalam Analisis Varians (Anova).

Dampak penyakit heteroskedastisitas

Sebetulnya heteroskedastisitas ini tidak menyebabkan estimasi koefisien regresi pada metode ols (ordinary least square) menjadi bias. Kita tentunya masih dapat menggunakan model regresi dengan baik. Namun, heteroskedastisitas ini akan berpengaruh kepada penaksiran standar error yang bias. penaksiran standar error yang bias tentu akan menyebabkan nilai t hitung menjadi bias. t hitung yang bias tentu akan menyebabkan pengambilan keputusan melalui pengujian hipotesis menjadi bias juga. Kita dapat menjadi salah dalam mengambil kesimpulan, walaupun modelnya tetap benar.

Bagaimana mendeteksi adanya heteroskedastisitas

Banyak cara untuk mendeteksi adanya heteroskedastisitas. dalam beberapa software statistik seperti e views, spss, stata sudah tersedia menu untuk mendeteksi apakah ada penyakit heteroskedastisitas atau tidak.

Dalam analisis regresi, disebutkan beberapa test sebagai berikut:

Park test (1966)
Glejser test (1969)
White test
Breusch–Pagan test
Goldfeld–Quandt test
Cook–Weisberg test
Harrison–McCabe test
Brown–Forsythe test
Levene test

Sebetulnya ada satu cara yang mudah untuk mendeteksi ada tidaknya heteroskedastisitas yaitu dengan mengkorelasikan antara variabel bebas dengan nilai residualnya melalui korelasi rank spearman. logikanya sederhana, jika ada korelasi yang signifikan antara nilai residual dengan variabel bebas dalam regresi, artinya residual tersebut sistematis atau mengganggu model.

Bagaimana cara mengatasi penyakit heteroskedastisitas

Tentu, setelah kita melakukan uji heteroskedastisitas, langkah penyembuhan perlu segera dilakukan. berikut merupakan beberapa cara penyembuhan penyekit heterskedastisitas yang dapat dilakukan:

Terlebih dahulu mentransformasi data menjadi bentuk logariitma (log) atau logaritma natural (ln), terutama untuk data-data yang tumbuh secara eksponensial seiring dengna berjalananya waktu, seperti data jumlah penduduk dan data kredit atas bunga majemuk.

Selanjutnya adalah dapat juga dengan membuat model spesifikasi diferensialnya. maksudnya adalah model selisih antara t dengan t-1. cara ini juga biasanya sekaligus dapat mengatasi masalah multikolinieritas.

Mengganti model penaksiran dari ols menjadi wls (weighted least square). prinsip sederhanya adalah kita membuat pembobotan atas nilai pada variabel x dan Y.

Nah, jika cara-cara di atas masih belum ampuh juga, kita dapat menempuh cara heteroscedasticity-consitent standard errors (HCSE), cara ini biasanya lebih ampuh, karena alur berpikirnya diubah, alih-alih mencoba-coba model yang memiliki varian error yang tetap, kita mulai dengan menetapkan error varians yang konsisten.

 

 

Teknik Analisis Data Penelitian Tesis

analisis data penelitian

Teknik analisis data penelitian adalah proses mengolah data mentah menjadi informasi bahkan ilmu pengetahuan. Data mentah hanyalah menjadi angka-angka jika tanpa ada proses analisis data. Semua proses analisis data relatif sama baik dalam skrispi, tesis, ataupun disertasi. Analisis data dimulai dari pengambilan data ke lapangan, setelah terkumpul data dilakukan cleaning, apakah data yang terkumpul sudah cukup valid atau belum. Bagian dari cleaning data adalah mengidentifikasi apakah terdapat missing value atau tidak. Bagaimana memperlakukan missing value atau data yang hilang. Setelah data terkumpul maka proses selanjutnya adalah dengan melihat distribusi data. Data harus terdistribusi normal atau mengikuti distribusi lainnya. Analisis data dilakukan sesuai dengan berbagai teknik statistik yang tepat. Secara garis besar terdapat 3 metode analisis data sesuai tujuan dari sebuah penelitian. Apakah tujuannya adalah untuk menggambarkan, membandingkan, atau mencari hubungan atau pengaruh.

Analisis Gambaran /desktiptif

Teknik analisis data penelitian gambaran atau desktiprif bertujuan untuk mengeksplorasi data, menyajikan data menjadi mudah dipahami sehingga dapat diambil kesimpulan yang berguna. Analisis data deskriptif lebih banyak bermain dengan tabel dan grafik-grafik. Tujuannya adalah tentu untuk menyajikan data agar lebih mudah difahami secara visual. Tabel-tabel distribusi frekuensi merupakan banyak digunakan untuk menyajikan data ordinal dan nominal.

Ukuran statistik untuk analisis data desktiptif secara sederhana dibagi menjadi dua ukuran. Ukuran yang pertama adalah untuk mengukur pemusatan data. Sedangkan ukuran kedua adalah untuk mengukur penyebaran data. Untuk data numerik, ukuran gejala pusat yang cocok adalah mean dan ukuran penyebarannya adalah standar deviasi.

Analisis Perbandingan

Teknik analisis data penelitian untuk tujuan tentu berbeda dengan analisis data untuk gambaran. Bedanya di mana? Bedanya adalah jika analisis gambaran hanya bertujuan untuk menyajikan data apa adanya tanpa menghubungkan dengan variabel lainnya. Pada analisis perbandingan justeru berbeda. Di sini kita membandingkan antara kelompok. Yang dibandingkan tentu lebih dari satu kelompok. Mungkin dua kelompok, tiga kelompok atau lebih.

Sebagai akademisi tentu kita semua pernah mendengar dengan analisis data dengan uji anova. Uji anova digunakan untuk menganalisis perbedaan rata-rata antara lebih dari dua kelompok. Misalnya kita hendak membandingkan antara rata-rata pendapatan masyarakat di kota Jakarta, Bandung dan Surabaya. analisis lainnya untuk membandingkan dua kelompok adalah Uji T. Sebagai contoh kita hendak membandingkan antara rata-rata berat produk A dan produk B, mana yang lebih tinggi penjualannya.

Analisis Hubungan

Teknik analisis data hubungan adalah bertujuan untuk melihat seberapa besar hubungan antara dua variabel atau lebih apakah memiliki keterkaitan atau tidak. Analisis data ini dilakukan terhadap variabel yang secara teoritis belum tentu memiliki keterkaitan. Contoh, belakangan ini ramai-ramai diberitakan bahwa harga indeks di pasar saham naik ketika salah satu pasangan calon presiden dinyatakan menang dalam quick count. Nah, analisis yang cocok untuk melihat keterkaitan fenomena ini adalah analisis hubungan.

Teknik analisis data penelitian yang digunakan untuk menjawab permasalah hubungan adalah korelasi. Korelasi yang paling dikenal adalah korelasi pearson dan product moment. Perbedaan antara korelasi pearson dan product moment adalah pada skala data yang digunakan. Skala data ordinal cocok dianalisis dengan menggunakan korelasi spearman. Sedangkan untuk mengukur hubungan pada data interval atau rasio maka korelasi product moment lebih cocok digunakan.

Analisis Pengaruh

Teknik analisis data pengaruh bertujuan untuk mencari pengaruh satu atau lebih variabel terhadap variabel lainnya. Analisis data ini bersifat kausalitas, atau sebab akibat. Jadi peneliti harus meyakini atau ada landasan teori bahwa terdapat hubungan kausalitas antara kedua variabel ini. Sebagai contoh, dalam bidang ekonomi pengaruh pendatapatan terhadap tingkat konsumsi, apakah konsumsi masyarakat yang meningkat disebabkan oleh pendapatan yang meningkat atau bukan. Jawabannya bisa iya atau tidak. Dalam bidang marketing misalnya seorang manajer bertanya apakah biaya promosi yang dikeluarkan selama ini berdampak kepada peningkatan penjualan perusahaan atau tidak. Jika meningkat seberapa signifikan tingkat peningkatannya.

Metode analisis data dalam statistik yang biasa digunakan untuk mengukur pengaruh satu variabel terhadap variabel yang lainnya adalah dengan menggunakan analisis regresi. Analisis regresi merupakan fungsi matematis dari variabel bebas terhadap variabel terikat. Selain analisis regresi sebetulnya masih terdapat metode analisis data yang lain untuk melihat pengaruh satu variabel terhadap variabel yang lainnya yaitu Analisis Jalur dan Struktural Equation Modelling atau SEM. Lebih lanjut akan dibahas pada artikel berikutnya.

Simulasi Data Distribusi Normal dan Tidak normal

distribusi normal

sumber:Fonlinecourses.science.psu.edu

Dalam penelitian, kadang kita dihadapkan pada jumlah data yang terbatas. sedangkan secara statistik mensyarakan data yang banyak atau minimal 30 data untuk memenuhi prasyarat parametrik. Pertanyaannya apakah memungkinkan kita melakukan simulasi data dengan jumlah terbatas sehingga menjadi lebih banyak. Jawabannya sangat memungkinkan. Bahkan jika kita hanya mengetahui nilai mean (rata-rata) dan standar deviasi dari suatu data, maka kita dapat melakukan simulasi sampai 1000 data atau lebih.  Misalnya kita mengetahui nilai mean = 20 dan standar deviasinya adalah 5, dari sebuah sampel yang berasal dari populasi yang berdistribusi normal. Untuk mendapatkan angka acak yang berdistribusi normal atau distribusi tertentu kita dapat menggunakan simulasi Monte Carlo dengan bantuan berbagai software yang tersedia.

Adapun langkah-langkah melakukan simulasi data untuk data terbatas yang mengikuti pola distribusi tertentu adalah sebagai berikut:

1.Tentukan nilai starting point

starting point diperlukan untuk mendapatkan angka acak selanjutnya. Walaupun demikian, angka starting point tidak terlalu berpengaruh terhadap simulasi data, dikarenakan angka starting point ini hanyalah satu angka diantara ribuan angka yang akan diperoleh berdasarkan hasil simulasi.

simulasi monte carlo 1

 

2. Tentukan distribusi populasi yang diharapkan

Sebelum melakukan simulasi data, kita harus menentukan asumsi distribusi dari populasi data yang kita harapkan. Misalnya kita berasumsi bahwa data akan mengikuti pola distribusi normal.

Kita perlu mengetahui berbagai distribusi sesuai dengan tipe skala datanya.

Jika skala datanya adalah numerik maka distribusi yang memungkinkan adalah: distribusi normal, log normal, exponential, dan lainnya.

Sedangkan, jika skala datanya adalah kategorik maka distribusi data yang memungkinkan adalah: distribusi binomial, distribusi uniform, distribusi multinomial, distribusi hipergeomertrik dan sebagainya.

simulasi monte carlo 2

 

3. Tentukan asumsi yang dibutuhkan untuk distribusi populasi

Setiap distribusi tentu memiliki parameter statistik tertentu. sebagai contoh, jika kita mengasumsikan data berdistribusi normal, maka minimal kita harus mengetahui dua parameter yaitu mean dan standar deviasi. kedua parameter ini akan digunakan untuk menggenerate data yang lainnya.

simulasi monte carlo 3

 

4. Running data berdasarkan asumsi

Setelah menentukan asumsi yang dibutuhkan, maka proses selanjutnya adalah running data tersebut. Kita dapat melakukan proses running/iterasi sampai 1000 bahkan sampai lebih dari 1000 kali. Jika kita melakukan running 1000 kali maka kita akan mendapatkan 1000 angka acak yang mengikuti pola distribusi yang kita pilih.

simulasi monte carlo 4

 

5. Buatlah laporan

Setelah data selesai dirunning, maka untuk menampilkan outputnya dapat mengklik laporan output apa saja yang diperlukan

simulasi monte carlo 5

Hasilnya adalah kita akan mendapatkan angka acak 1000 data yang mengikuti pola distribusi tertentu, misalnya distribusi normal. Tentunya parameter mean (rata-rata) dan standar deviasi akan mengikuti 1000 data hasil simulasi di atas. Diharapkan dengan semakin banyak proses iterasi, maka akan menghasilkan data yang smooth yang mendekati data populasi.

Demikian proses simulasi data terbatas menjadi simulasi monte carlo yang lebih banyak dengan menggunakan software Crystal ball dari oracle.

Cara Menguji dan Mengatasi Multikolinieritas dengan SPSS

Multikolinieritas adalah fenomena statistik yang ditemui dalam pemodelan regresi linier berganda dimana terdapat hubungan yang tinggi antara dua atau lebih variabel prediktor. Karena multikolinieritas melihat seberapa erat hubungan antara variabel prediktor, maka uji multikolinieritas hanya diperlukan pada model regresi linier berganda, tidak untuk regresi linier sederhana. Hal ini artinya terdapat pola hubungan linier juga diantara variabel prediktor dalam satu model. Jika terjadi demikian, tentunya menyebabkan model regresi menjadi bias. Jika kita memasukan variabel prediktor yang memiliki hubungan yang erat antara variabel tersebut dalam satu model, maka model tersebut menjadi redundant. Sebetulnya berapa nilai korelasi antara variabel prediktor yang masih dapat ditoleransi? Beberapa teori mengatakan dibawah 0,9 masih dapat ditoleransi, namun beberapa teori lain mengatakan harus kurang dari 0,8 bahkan 0,7.

Mendeteksi Multikolinieritas di dalam model

1. Jika dalam model terdapat multikolinieritas, maka akan terjadi perubahan yang besar pada nilai koefisien regresi ketika kita mengeluarkan satu variabel prediktor dari dalam model.

2. Jika dalam model regresi linier berganda, koefisien variabel prediktor tidak signifikan secara statistik, namun ketika kita mencobanya satu persatu variabel prediktor dalam analisis regresi linier sederhana hasilnya menjadi signifikan. Kondisi tersebut juga menunjukkan kemungkinan adanya multikolinieritas.

3. Kita mendapati nilai F hitung yang begitu besar atau signifikan secara statistik, namun ketika diuji secara parsial dengan uji t tidak ada satupun yang signifikan.

3. Ketika terdapat koefisien regresi yang negatif padahal secara teori seharusnya positif. Atau sebaliknya.

4. Untuk memastikan agar lebih yakin terdapat multikolinieritas di dalam model, sebaiknya uji dengan menggunakan nilai VIF menggunakan SPSS atau Eviews. Beberapa ahli mengatakan nilai VIF harus kurang dari 5 dan beberapa ahli lainnya mengatakan cukup dibawah 10.

Bagaimana mengatasi multikolinieritas dalam model

1. Jika kita menjumpai terdapat variabel prediktor yang memiliki nilai VIF lebih dari 5 atau 10, maka kita perlu untuk mengeluarkan salah satu variabel tersebut dari model. Tujuannya adalah untuk mengeluarkan informasi yang redundant yang sebenarnya sudah diwakili oleh variabel prediktor yang lain. Namun jangan khawatir, mengeluarkan salah satu variabel prediktor tidak akan menurunkan nilai R kuadrat secara drastis, jika memang terdapat multikolinieritas dalam model.

2. Untuk menghasilkan kombinasi variabel prediktor yang menghasilkan R kuadrat tertinggi, gunakanlah metode regresi stepwise dalam SPSS.

3. Lakukanlah transformasi data misalnya menjadi bentuk logaritma atau bentuk diferensarialnya. Tansformasi data ke dalam diferensial lebih cocok untuk data time series. Sementara untuk data-data penelitian survei sosial kurang cocok karena akan sulit menginterpretasikan model diferensialnya.

3. Gunakanlah Principal Component Analysis (PCA). Prinsipnya adalah menyederhanakan atau menggabungkan jumlah variabel prediktor menjadi lebih sedikit jumlah variabel tanpa mereduksi satupun variabel prediktor, namun dengan menjadikannya dalam satu skor. Hasil dari pca adalah skor dari variabel prediktor baru yang memiliki korelasi yang minimum sehinggi efektif untuk mengatasi multikolinieritas.

4. Gunakanlah Partial Least Square Regression(PLS). Jika kita menggunakan PCA maka bisa dipastikan kita akan mendapatkan variabel prediktor baru yang memiliki korelasi minimum diantara variabel prediktornya. Permasalahan yang mungkin muncul adalah, variabel prediktor baru tersebut bisa saja tidak memiliki hubungan yang signifikan juga dengan variabel respon (Y). Maka kita akan menghadapi permasalahan baru berikutnya yaitu tidak signifikannya model regresi. Jalan tengahnya adalah PLS, dimana secara perhitungan masih mempertimbangkan variabel prediktor yang memiliki hubungan tinggi dengan variabel respon namun mencari kombinasi variabel prediktor yang memiliki nilai korelasi minimum diantara mereka.

Sumber referensi:
http://en.wikipedia.org/wiki/Multicollinearity
http://blog.minitab.com/blog/understanding-statistics/handling-multicollinearity-in-regression-analysis

Analisis Regresi Linier Berganda dengan SPSS atau Excel

Apa yang dimaksud dengan analisis regresi linier berganda? Seperti sudah dijelaskan pada bagian regresi linier sederhana bahwa pengertian analisis regresi adalah metode statistik yang memodelkan hubungan antara variabel bebas/prediktor dengan variabel terikat /respon melalui hubungan linier yang digambarkan dalam persamaan matematis. Perbedaan mendasar antara analisis regresi linier berganda dan analisis regresi linier sederhana terletak pada jumlah variabel independen (X). Pada regresi berganda jumlahvariabel independen lebih dari satu variabel sedangkan pada regresi sederhana hanya satu variabel.

Contoh analisis regresi linier berganda adalah hubungan antara pendapatan, tabungan terhadap konsumsi. Pendapatan dan tabungan adalah variabel prediktor untuk memprediksi jumlah konsumsi sebagai variabel respon.

Adapun persamaan analisis regresi berganda adalah sebagai berikut:

Y = B1+B2X1+B3X2+…BiXk+e

Y adalah variabel respon

X adalah variabel prediktor

B1 adalah intercept atau konstanta

Bi adalah koefisien regresi atau slope

i adalah indeks untuk koefisien regresi ke i

k adalah indeks untuk variabel prediktor ke k

Dalam analisis regresi linier berganda terdapat dua pengujian yaitu uji F dan uji t. Uji F digunakan untuk menguji seberapa signifikan pengaruh variabel prediktor/variabel independen terhadap variabel respon/variabel dependen secara simultan atau secara bersama sama. Jika nilai F hitung lebih besar dibandignkan F tabel dengan tingkat kepercayaan tertentu, maka dapat dinyatakan bahwa secara simultan variabel X memiliki pengaruh terhadap variabel Y. Uji kedua adalah uji t. Uji t digunakan untuk menguji model regresi secara parsial. Apakah masing-masing variabel prediktor memiliki pengaruh terhadap variabel respon secara parsial. Jika nilai t hitung cukup besar dan melebihi f tabel maka secara sendiri-sendiri variabel tersebut dapat dinyatakan memiliki pengaruh terhadap variabel X.

Nilai R square adjusted digunakan untuk mengukur seberapa besar pengaruh seluruh variabel prediktor yang terdapat dalam persamaan terhadap variabel respon dalam analisis regresi linier berganda. Mengapa r square yang digunakan dalam analisis regresi linier berganda adalah r square adjusted. perlu kita fahami bahwa r square adjusted adalah nilai r square yang sudah disesuaikan dengan jumlah variabel prediktor/variabel independen. Nilai adjusted R square mengkoreksi nilai R square sebenarnya yang diakibatkan penambahan nilai R square dengan bertambahnya jumlah variabel. Melalui adjusted r square kita terhindarkan dari kesalahan dengan menyangka model fit padahal itu hanya disebabkan oleh penambahan jumlah variabel yang tidak berhubungan.

Software yang digunakan untuk melakukan pemodelan analisis regresi linier berganda dewasa ini semakin beragam. Software SPSS cocok digunakan untuk data-data yang berasal dari penelitian sosial, sedangkan software E views cocok untuk menghitung pemodelan pada ilmu ekonomi dan keuangan. Walaupun sebetulnya kita pun masih dapat mengoptimalkan penggunaan Microsoft Excel untuk melakukan pemodelan analisis regresi liner berganda.

Apa saja asumsi yang harus dipenuhi dalam analisis regresi linier berganda? selain asumsi-asumsi yang sudah disebutkan pada bagian analisis regresi linier sederhana seperti, linieritas, homoskedastisitas, terbebas dari autokorelasi untuk data time series, terdapat satu asumsi yaitu asumsi multikolinieritas.

Multikolinieritas, multikolinieritas adalah hubungan yang sempurna antara variabel prediktor. Pada uji ini diharapkan model tidak memiliki masalah multikolinieritas dimana antara variabel prediktor memiliki hubungan yang sempurna. mengapa dalam model tidak diperbolehkan ada dua atau lebih variabel yang memiliki hubungan sempurna. Selain karena akan mengganggu model, tentunya dua variabel yang memiliki hubungan yang sempurna dalam satu model menjadi tidak efektif. Sebaiknya salah satu variabel dikeluarkan dari variabel lain, karena variabel tersebut sudah di-proxi-kan oleh variabel lainnya.

Sumber: http://pareonline.net/getvn.asp?n=2&v=8

Analisis Regresi Logistik dengan SPSS

Analisis Regresi logistik atau dikenal juga dengan regresi logit adalah salah satu jenis model klasifikasi statistik dengan probabilitas atau fungsi peluang. Dalam hal pemodelan, analisis regresi logistik mirip dengan analisis regresi linier yaitu sama-sama memprediksi variabel respon (Y) oleh variabel prediktor (Y). Perbedaannya terletak pada skala data pada variabel respon. Analisis regresi logistik digunakan untuk memprediksi variabel respon yang berskala kategorik. Berbeda dengan analisis regresi linier dimana semua skalanya berskala numerik. Untuk memudahkan perhitungan, berbagai software seperti SPSS, minitab, eviews dapat digunakan untuk menghitung regresi logistik.

Sebagai contoh Ketua tim sukses calon presiden tertentu ingin mengetahui apakah terdapat pengaruh status sosial ekonomi (pendapatan) dan tingkat pendidikan terhadap pilihan calon presiden tertentu. Hasil dari analisis ini akan digunakan untuk bahan masukan dalam membuat strategi pemenangan. Pada contoh seperti ini, skala pengukuran pada variabel respon adalah kategorik yaitu pilihan kandidat presiden misalnya Kandidat A dan Kandidat B. Karena kita dihadapkan pada kondisi dimana skala ukur untuk variabel respon bersifat kategorik maka metode statistik yang tepat untuk kondisi di atas adalah analisis regresi logistik. Berbeda halnya jika kita hendak memprediksi pengaruh variabel prediktor (X) terhadap variabel respon (Y) yang berskala numerik, misalnya pengaruh pendapatan terhadap konsumsi. Konsumsi diukur dengan skala numerik yaitu Rupiah. Metode statistik yang cocok untuk contoh tersebut adalah analisis regresi linier.

Berdasarkan jumlah kategori atau kelompok pada variabel respon, analisis Regresi Logistik dapat dibagi menjadi analisis Regresi Logistik Biner (binary), atau binomial, dan analisis regresi logistik multinomial. Jika jumlah kategori pada variabel respon berjumlah dua, maka disebut Regresi Logistik Biner. Contoh, kandidat presiden A dan Kandidat Presiden B, ya atau tidak, sukses atau gagal. Namun, jika jumlah kategori pada variabel respon berjumlah lebih dari dua, maka disebut regresi logistik multinomial. Contoh, Kandidat A, kandidat B atau kandidat C, pilihan A, pilihan B, atau pilihan C, seterusnya.

Dalam hal fungsi persamaan, Regresi logistik berbeda dengan analisis regresi linier. Regresi logistik melakukan estimasi nilai probabilitas setiap kategori pada variabel respon yang diakatkan oleh perubahan pada variabel prediktor. Maka hasil akhir dari estimasi model adalah seberapa besar peluang kategori 1 akan berubah seiring dengan perubahan variabel prediktor. Sementara dalam analisis regresi linier, model melakukan estimasi terhadap nilai respon itu sendiri bukan probabilitas/peluang. Berikut merupakan fungsi persamaan regresi logistik:

P : adalah probabilitas atau peluang terjadinya suatu kejadian

e : adalah exponensial atau basis dari logaritma natural

a : adalah konstanta

B: adalah koefisien regresi untuk variabel independen atau prediktor, peluang perubahaan variabel respon akibat perubahaan variabel prediktor 1 unit.

Jika digambarkan dalam sebuah grafik probabilitas, maka fungsi logistik dengan eksponensial akan terlihat sebagai berikut:

Garis horisontal menunjukkan perubahan pada koefisien regresi, sedangkan garis vertikal menunjukkan akumulasi peluang. Grafik tersebut menunjukkan peluang terjadinya respon yang diakibatkan oleh perubahan pada variabel prediktor.

Sebagai perbandingan, berikut merupakan grafik untuk persamaan regresi lineri.

Linear regression.svg

Grafik di atas menunjukkan perubahan nilai variabel respon (Y) yang diakibatkan oleh perubahan variabel prediktor (X). Nilai koefisien pada regresi linier menunjukkan perubahan nilai respon yang diakibatkan oleh perubahan pada variabel prediktor. Sementara pada regresi logistik menunjukkan nilai peluang terjadinya suatu kejadian yang diakibatkan oleh perubahan nilai prediktor.

Sumber Referensi:

http://en.wikipedia.org/wiki/Logistic_regression
http://www.strath.ac.uk/aer/materials/5furtherquantitativeresearchdesignandanalysis/unit6/whatislogisticregression/

Cara Pengolahan Data Kuesioner

Cara pengolahan data kuesioner harus melewati berbagai tahap, mulai dari entri data ke dalam komputer lewat program SPSS atau cukup Excel, pengujian validitas dan reliabilitas, analisis deskriptif sampai pengujian hipotesis. Berikut merupakan ulasannya:

1. Uji Validitas dan Reliabilitas

Hal yang membedakan antara cara pengolahan data kuesioner dengan data sekunder adalah uji validitas. Ketika kita melakukan penelitian dengan kuesioner maka kita perlu melakukan uji validitas dan reliabilitas terhadap kuesioner tersebut. Mengapa perlu dilakukan? karena kuesioner dibuat oleh peneliti sedangkan yang mengisi kuesioner adalah responden. Uji ini dilakukan untuk meminimalkan gap miss interpretasi dari kuesioner.
Kuesioner yang baik harus difahami dengan baik oleh responden sebagaimana pembuat kuesioner memahami. Kuesioner yang baik harus memiliki tingkat konsistensi jika diisi pada waktu yang berbeda.

Pada data sekunder, kita tidak perlu melakukan uji validitas dan reliabilitas.

2. Entry Data

Setelah kuesioner terkumpul, anda memiliki tugas selanjutnya yaitu melakukan entri data dari kertas kuesioner ke dalam komputer. Software yang paling umum untuk
Entry data adalah excel. Tentunya excel sudah familiar diantara kita semua. Caranya bagaimana? Kita susun data dalam bentuk matriks. Baris untuk responden dan kolom untuk semua item. Pada baris entri lah mulai dari responden satu sampai responden sejumlah sampel anda. Sedangkan pada kolom, entri lah data berdasarkan item pertanyaan sejumlah pertanyaan dalam kuesioner.
Untuk pertanyaan tertutup yang harus anda entri adalah skor untuk setiap jawaban dari pertanyaan anda. Misalnya jawaban pertanyaan kuesioner adalah sangat teruji = 5, setuju = 4, netral = 3, tidak setuju = 2, dan sangat tidak setuju = 1. Maka yang harus anda entry ke dalam kuesioner adalah skor tersebut.
Bagaimana jika ada ada pertanyaan negatif dalam kuesioner kita? Jika ada kondisi demikian, maka anda ubah skor 5 menjadi 1, 4 jadi 2 dan seterusnya.

3. Analisis Deksriptif

Hasil pengolahan data kuesioner sering ditampilkan dalam bentuk deskriptif. Apa saja tampilan yang cocok untuk data sekunder. Format distribusi frekuensi merupakan format yang ping umum untuk menampilkan data deskriptif distribusi frekuensi. Dal tampilan tersebut disajikan berapa jumlah responden yang menjawab setuju, berapa yang menjawab tidak setuju dan seterusnya.
Jika diperlukan kita juga dapat menampilkan ukuran statistik deskriptif lainnya dalam bentuk mean dan standar deviasi. Namun, perlu dicatat bahwa ketika kita menampilkan data ordinal dalam mean dan standar deviasi, sesungguhnya kita sedang memperlakukan data tersebut menjadi data numerik.

4. Pengujian Hipotesis

Apakah pada data kuesioner dapat dilakukan pengujian hipotesis? Jawabannya tentu saja. Sebetulnya, data kuesioner berskala likert merupakan data ordinal. Memang teknik statistik yang paling cocok adalah teknik non parametrik. Namun karena keterbatasan alat statistik dalam analisis non parametrik, ma kadang orang melakukan transformasi terlebih dahulu data tersebut dari data ordinal ke dalam skala numerik. Atau bahkan ada yang tidak melakukan transformasi terlebih dahulu, mereka langsing melakukan analisis parametrik seperti regresi, dengan menganggap data sudah berskala numerik.

Bermasalah di pengolahan data kuesioner? kontak kami di 081321898008

Uji Validitas Point Biserial, Ini Rumusnya

Uji validitas yang akan digunakan dengan menggunakan teknik korelasi point biserial, seperti dijelaskan dalam Brown (1988,p.150) koefisien korelasi point biserial adalah ukuran statistik yang digunakan untuk mengestimasi tingkat hubungan antara data yang memiliki skala dikotomus dan yang memiliki skala interval/ratio. Dalam hal ini peneliti ingin meneliti tingat pengetahuan yang memiliki skala dikotomus dan total dari item yang berupa skor yang mana adalah berskala interval.

Untuk menghitung koefisien korelasi point biserial berikut merupakan formula yang digunakan:

rumus uji validitas point biserial

r = koefisien korelasi point biserial

Mp= jumlah responden yang menjawab benar

Mq= jumlah responden yang menjawab salah

St= standar deviasi untuk semua item

P=proporsi responden yang menjawab benar

Q= proporsi responden yang menjawab benar

Bila koefisien korelasi untuk seluruh item telah dihitung, perlu ditentukan angka terkecil yang dapat dianggap cukup “ tinggi ” sebagai indikator adanya konsistensi antara skor item dan skor keseluruhan. Dalam hal ini tidak ada batasan yang tegas. Prinsip utama pemilihan item dengan melihat koefisien korelasi adalah mencari harga koefisien yang setinggi mungkin dan menyingkirkan setiap item yang mempunyai korelasi negatif (-) atau koefisien yang mendekati nol (0,00).

Menurut Friedenberg (1995) biasanya dalam pengembangan dan penyusunan skala-skala psikologi, digunakan harga koefisien korelasi yang minimal sama dengan 0,30. Dengan demikian, semua item yang memiliki korelasi kurang dari 0,30 dapat disisihkan dan item-item yang akan dimasukkan dalam alat test adalah item-item yang memiliki korelasi diatas 0,30 dengan pengertian semakin tinggi korelasi itu mendekati angka satu (1,00) maka semakin baik pula konsistensinya (validitasnya).

Analisis Data Panel dengan Eviews dan Stata

Definisi Data Panel

Dalam statistik dan ekonometrik, terminologi data panel digunakan untuk menggambarkan data yang memiliki dimensi yang banyak dan dalam bentuk runtun waktu (time series). data panel adalah gabungan data cross section atau data yang disusun berdasarkan objek penelitian seperti responden, perusahaan, kota yang dikombinasikan dengan runtun waktu (bulan, triwulan, semester, atau tahun). Mengapa kita perlu mempanelkan data? Dalam bidang ekonomi dan bisnis terutama, objek penelitian tentu tidak terlepas dari rangkaian waktu yang panjang. Penelitian akan lebih komprehensif jika meneliti perusahaan, kabupaten, responden, atau objek apapun, jika dirangkaikan dengan runtun waktunya. Sehingga dapat terlihat pengaruh waktu terhadap data yang kita teliti.

Dalam analisis data panel, kita akan menjumpai dua kondisi yaitu ketika datanya lengkap, artinya setiap objek dalam penelitian lengkap untuk setiap tahunnya, kondisi demikian disebut balanced panel (lihat gambar 1). Pada gambar 1 terlihat bahwa semua objek berada pada semua tahun. Sebaliknya mungkin juga kita menjumpai dimana data tidak lengkap di mana setiap objeknya tidak tersedia datanya untuk semua tahun atau unbalanced panel (lihat gambar 2). Pada gambar 2 terlihat bahwa semua objek tidak lengkap pada semua tahun.

\begin{matrix}<br /><br /><br /><br /><br /><br /><br /> \mathrm{person} & \mathrm{year} & \mathrm{income} & \mathrm{age} & \mathrm{sex}\\<br /><br /><br /><br /><br /><br /><br /> 1 & 2001 & 1300 & 27 & 1 \\<br /><br /><br /><br /><br /><br /><br /> 1 & 2002 & 1600 & 28 & 1 \\<br /><br /><br /><br /><br /><br /><br /> 1 & 2003 & 2000 & 29 & 1 \\<br /><br /><br /><br /><br /><br /><br /> 2 & 2001 & 2000 & 38 & 2 \\<br /><br /><br /><br /><br /><br /><br /> 2 & 2002 & 2300 & 39 & 2 \\<br /><br /><br /><br /><br /><br /><br /> 2 & 2003 & 2400 & 40 & 2<br /><br /><br /><br /><br /><br /><br /> \end{matrix}

Gambar 1. Ilustrasi Balanced panel (Sumber: Wikipedia)

\begin{matrix}<br /><br /><br /><br /><br /><br /><br /> \mathrm{person} & \mathrm{year} & \mathrm{income} & \mathrm{age} & \mathrm{sex}\\<br /><br /><br /><br /><br /><br /><br /> 1 & 2001 & 1600 & 23 & 1 \\<br /><br /><br /><br /><br /><br /><br /> 1 & 2002 & 1500 & 24 & 1 \\<br /><br /><br /><br /><br /><br /><br /> 2 & 2001 & 1900 & 41 & 2 \\<br /><br /><br /><br /><br /><br /><br /> 2 & 2002 & 2000 & 42 & 2 \\<br /><br /><br /><br /><br /><br /><br /> 2 & 2003 & 2100 & 43 & 2 \\<br /><br /><br /><br /><br /><br /><br /> 3 & 2002 & 3300 & 34 & 1<br /><br /><br /><br /><br /><br /><br /> \end{matrix}

Gambar 1. Ilustrasi Unbalanced panel (Sumber: Wikipedia)

Jika datanya sudah lengkap tentu kita dapat langsung memilih metode balanced panel. Sebaliknya jika datanya kurang lengkap, kita dapat menggunakan teknik unbalanced panel atau terlebih dahulu melakukan interpolasi data dan kembali menggunakan balanced panel ketika semua data telah terisi melalui metode interpolasi. Metode interpolasi adalah metode untuk mengisi data yang kosong dengan pendekatan data pada tahun sebelum dan sesudahnya.

Model Data Panel

Untuk menggambarkan model persamaan data panel sebagai berikut:

y_{it} = X_{it}\mathbf{\beta}+\alpha_{i}+u_{it}

Y menggambarkan variabel respon, sedangkan X menggambarkan variabel penyebab atau bariabel bebas. alpha menggambarkan konstanta dan u menggabarkan nilai residu atau error atau kekeliruan.

Jika kita perhatikan model persamaan di atas, terdapat sedikit perbedaan dengan model regresi seperti biasanya. Perbedaan tersebut tertera pada indeks it. i menggamarkan jumlah cross section atau objek pengamatan atau perusahaan atau responden. sedangkan t menggambarkan runtun waktu (time series). Sehingga dengan jelas terlihat data panel adalah kombinasi antara data cross section dan time series.

Perbedaan Model Fixed Effect dan Random Effect

Dua model utama yang dikenal dalam data panel adalah model fixed effect dan model random effect. Model fixed effect adalah model dimana variabel bebas dalam model diasumsikan bersifat fixed. Artinya individu atau unit cross section masih memiliki hubungan antara variabel bebasnya. Sementara model random effect adalah model dimana variabel bebas dalam model bersifat random, atau dengan kata lain diasumsikan tidak ada korelasi antara individu dengan variabel bebasnya.

Untuk memilih mana model yang cocok dalam data panel, perlu melakukan sebuah uji yang disebut dengan Uji Hausman. Uji spesifikasi Hausman menguji dengan Ho: Model random effect lebih efisien dibandingkan model fixed effect. Sedangkan H1: Model fixed effect lebih efisien dibandingkan model random effect. Artinya jika hipotesis nol diterima maka model yang paling cocok adalah random effect.

Software Statistik untuk Data Panel

Software yang paling populer yang digunakan untuk menganalisis data panel adalah Eview dan Stata, walaupun disamping itu banyak software-software yang lain. Kedua software ini mampu mengidentifikasi model yang cocok untuk data panel apakah fixed effect atau random effect. Kedua software ini paling sering digunakan para peneliti untuk menganalisis data time series. Melalui software ini data dipandang dari dua dimensi yaitu dimensi objek dan dimensi waktu.

Tutorial Menghitung validitas Data Nominal dengan SPSS

Menghitung validitas data ordinal atau data interval dapat dilakukan dengan menggunakan SPSS karena sudah tersedia di menu utama. Sedangkan untuk data numerik, tidak ada menu spss yang khusus menyediakan perhitungan validitas dengan rumus point biserial ini. Kita dapat melakukannya dengan menambahkan syntax khusus pada SPSS.

 

Berikut syntax yang harus di save di spss:

langhah1: Buka SPSS

langkah 2: buka File –> New –> Syntax–> kemudian save di directory D komputer anda dengan nama file: “r_bis”.

syntax pertama:

/* —————————————————– */
/*                  SPSS-Macro r_bis                     */
/*                                                       */
/*          (Version 2.1; D. Enzmann, 2002)              */
/*                                                       */
/* r_bis computes the biserial correlation of a dicho-   */
/* tomous variable with a continuous variable and its    */
/* significance. The biserial correlation computed is    */
/* restricted to upper and lower bounds of 1.0 and -1.0, */
/* respectively.                                         */
/*                                                       */
/* The dichotomous variable need not to be coded as 0/1. */
/* If one of the variable is a constant or if both       */
/* variables have more than two valid categories r_bis   */
/* will issue an error message. If both variables are    */
/* dichotomous, r_bis  may produce meaningless results   */
/* (a tetrachoric correlation coefficient should be      */
/* computed, instead).                                   */
/*                                                       */
/* If the number of cases is more than 12,0000 you have  */
/* to increase the default value of MXLOOPS to the       */
/* the number of cases in your current working file      */
/* after you installed the macro via INCLUDE.            */
/*                                                       */
/* Example:                                              */
/* One variable x is coded ‘1’ for ‘no/false’ and ‘2’    */
/* for ‘yes/true’, the other variable y is continuous.   */
/* Your data file consists of about 22800 cases. First,  */
/* use the SET MXLOOP command once to increase the       */
/* default value of 12000 to at least 22800:             */
/* SET MXLOOP=23000.                                     */
/* Next, you can call r_bis with x and y as parameters   */
/* r_bis x y .                                           */
/*                                                       */
/* A full example can be found in the file EXAMP_R.SPS . */
/*                                                       */
/* —————————————————– */.

set printback on
/mxloops=120000.
PRESERVE.
set printback off.

define r_bis ( !positional !tokens(1)
/!positional !tokens(1))

matrix.
get raw
/file=*
/variables=!1 !2
/names = vname
/missing omit.
compute tmpvars=make(1,5,0).
compute errmsg={‘ ‘}.
compute minmaxx=0.
compute minmaxy=0.

compute min=mmin(raw(:,1)).
compute max=mmax(raw(:,1)).
compute x0=0.
compute x1=0.
loop #i=1 to nrow(raw).
do if (raw(#i,1)=min).
+ compute x0=x0+1.
else if (raw(#i,1)=max).
+ compute x1=x1+1.
end if.
end loop.
compute xn = x0+x1.
do if min=max.
+ compute minmaxx=1.
end if.

compute min=mmin(raw(:,2)).
compute max=mmax(raw(:,2)).
compute tmpvars(1,1) = nrow(raw).
compute y0=0.
compute y1=0.
loop #i=1 to nrow(raw).
do if (raw(#i,2)=min).
+ compute y0=y0+1.
else if (raw(#i,2)=max).
+ compute y1=y1+1.
end if.
end loop.
compute yn = y0+y1.
do if min=max.
+ compute minmaxy=1.
end if.

do if yn=tmpvars(1,1).
+ compute tmpvars(1,2)=y0.
+ compute tmpvars(1,3)=y1.
else if xn=tmpvars(1,1).
+ compute tmpvars(1,2)=x0.
+ compute tmpvars(1,3)=x1.
end if.
do if minmaxx or minmaxy.
+ compute tmpvars(1,2)=0.
+ compute tmpvars(1,3)=0.
end if.
do if (xn=yn).
+ compute tmpvars(1,5)=1.
end if.

do if (tmpvars(1,2) > 0) and (tmpvars(1,3) > 0)
and not(minmaxx or minmaxy).
+ compute SSCPMat=SSCP(raw-(make(tmpvars(1,1),1,1))
*csum(raw)/tmpvars(1,1)).
+ compute tmpvars(1,4) = SSCPMat(1,2)/sqrt(SSCPMat(1,1)*SSCPMat(2,2)).
+ compute probn0n = tmpvars(1,2)/tmpvars(1,1).

/* compute idfnormal(n0/n,0,1) */

/* ALGORITHM AS241  APPL. STATIST. (1988) VOL. 37, NO. 3        */
/*                                                              */
/* Produces the normal deviate Z corresponding to a given lower */
/* tail area of P; Z is accurate to about 1 part in 10**16.     */.

compute SPLIT1 = 0.425.
compute SPLIT2 = 5.
compute CONST1 = 0.180625.
compute CONST2 = 1.6.

/* Coefficients for P close to 0.5  */

compute A = {3.3871328727963666080,
1.3314166789178437745E+2,
1.9715909503065514427E+3,
1.3731693765509461125E+4,
4.5921953931549871457E+4,
6.7265770927008700853E+4,
3.3430575583588128105E+4,
2.5090809287301226727E+3}.
compute B = {1.0,
4.2313330701600911252E+1,
6.8718700749205790830E+2,
5.3941960214247511077E+3,
2.1213794301586595867E+4,
3.9307895800092710610E+4,
2.8729085735721942674E+4,
5.2264952788528545610E+3}.

/* Coefficients for P not close to 0, 0.5 or 1 */

compute C = {1.42343711074968357734,
4.63033784615654529590,
5.76949722146069140550,
3.64784832476320460504,
1.27045825245236838258,
2.41780725177450611770E-1,
2.27238449892691845833E-2,
7.74545014278341407640E-4}.
compute D = {1.0,
2.05319162663775882187,
1.67638483018380384940,
6.89767334985100004550E-1,
1.48103976427480074590E-1,
1.51986665636164571966E-2,
5.47593808499534494600E-4,
1.05075007164441684324E-9}.

/* Coefficients for P near 0 or 1 */

compute E = {6.65790464350110377720,
5.46378491116411436990,
1.78482653991729133580,
2.96560571828504891230E-1,
2.65321895265761230930E-2,
1.24266094738807843860E-3,
2.71155556874348757815E-5,
2.01033439929228813265E-7}.
compute F = {1.0,
5.99832206555887937690E-1,
1.36929880922735805310E-1,
1.48753612908506148525E-2,
7.86869131145613259100E-4,
1.84631831751005468180E-5,
1.42151175831644588870E-7,
2.04426310338993978564E-15}.

compute zpn0n=-7.9414444931916800.
do if probn0n <= 10E-16.
+ compute probn0n = 10E-16.
else if 1-probn0n <= 10E-16.
+ compute probn0n = 1 – 10E-16.
end if.
compute exitf=0.

compute ifault = 0.
compute q = probn0n – 0.5.
do If (Abs(q) <= SPLIT1).
+ compute r = CONST1-q*q.
* compute zpn0n = q*(((((((A7*r+A6)*r+A5)*r+A4)*r+A3)*r+A2)*r+A1)*r+A0).
* compute zpn0n = zpn0n/(((((((B7*r+B6)*r+B5)*r+B4)*r+B3)*r+B2)*r+B1)*r+1).
+ compute t1=A(8).
+ compute t2=B(8).
+ loop #i=-7 to -1.
–   compute t1=r*t1+A(-#i).
–   compute t2=r*t2+B(-#i).
+ end loop.
+ compute zpn0n=q*t1/t2.
/* Exit Function */
+ compute exitf=1.
end if.
do If (q < 0) and not exitf.
+ compute r = probn0n.
Else if not exitf.
+ compute r = 1 – probn0n.
End If.
do If (r <= 0) and not exitf.
+ compute ifault = 1.
+ compute zpn0n = 0.
/* Return */
End If.
do if not exitf.
+ compute r = sqrt(-ln(r)).
end if.
do If (r <= SPLIT2) and not exitf.
+ compute r = r – CONST2.
* compute zpn0n = (((((((C7*r+c6)*r+c5)*r+c4)*r+c3)*r+c2)*r+c1)*r+C0).
* compute zpn0n = zpn0n/(((((((D7*r+D6)*r+d5)*r+d4)*r+d3)*r+d2)*r+d1)*r+1).
+ compute t1=C(8).
+ compute t2=D(8).
+ loop #i=-7 to -1.
–   compute t1=r*t1+C(-#i).
–   compute t2=r*t2+D(-#i).
+ end loop.
+ compute zpn0n=t1/t2.
Else if not exitf.
+ compute r = r – SPLIT2.
* compute zpn0n = (((((((E7*r+E6)*r+E5)*r+E4)*r+E3)*r+E2)*r+E1)*r+E0).
* compute zpn0n = zpn0n/(((((((F7*r+F6)*r+F5)*r+F4)*r+F3)*r+F2)*r+F1)*r+1).
+ compute t1=E(8).
+ compute t2=F(8).
+ loop #i=-7 to -1.
–   compute t1=r*t1+E(-#i).
–   compute t2=r*t2+F(-#i).
+ end loop.
+ compute zpn0n=t1/t2.
End If.
do If (q < 0) and not exitf.
+ compute zpn0n = -zpn0n.
End If.

release a, b, c, d, e, f.

* ——————————————— .

+ COMPUTE d = EXP(-.5 * zpn0n**2)/sqrt(8*artan(1)).
+ compute rb = sqrt(tmpvars(1,2)*tmpvars(1,3))*tmpvars(1,4)/
(d*tmpvars(1,1)).
+ do if rb > 1.0.
–   compute rb = 1.0.
+ end if.
+ do if rb < -1.0.
–   compute rb = -1.0.
+ end if.
+ compute sigm_rb=sqrt(tmpvars(1,2)*tmpvars(1,3))/
(d*tmpvars(1,1)*sqrt(tmpvars(1,1))).
+ compute z = rb/sigm_rb.
+ compute p = (1-cdfnorm(abs(z)))*2.
+ print {vname(1),’ with ‘,vname(2)}
/title ‘Biseral correlation:’
/format A8.
+ print {tmpvars(1,1),rb,p}
/title ‘ ‘
/clabels = ‘N’,’r’,’p(2-sided)’
/formats F13.5.
+ do if tmpvars(1,5)=1.
–   print errmsg
/title ‘> warning: both variables are dichotomous’
/format A1.
+ end if.
else if (tmpvars(1,2)=0) and (tmpvars(1,3)=0)
and not(minmaxx or minmaxy).
+ print {vname(1),’ with ‘,vname(2)}
/title ‘Biseral correlation:’
/format A8.
+ print {tmpvars(1,1)}
/title ‘ ‘
/rlabels = ‘N = ‘
/formats F8.0.
+ print errmsg
/title ‘> error: there is no dichotomous variable’
/format A1.
else.
+ print {vname(1),’ with ‘,vname(2)}
/title ‘Biseral correlation:’
/format A8.
+ print {tmpvars(1,1)}
/title ‘ ‘
/rlabels = ‘N = ‘
/formats F8.0.
+ print errmsg
/title ‘> error: at least one variable is a constant’
/format A1.
end if.
end matrix.

!enddefine.
restore.

/* ———————————————- */.
/* r_bis is called by:                            */.
/*                                                */.
/* R_BIS var1 var2.                               */.
/*                                                */.
/* Remember to set the MXLOOP setting to the      */.
/* number of cases in your data file the first    */.
/* time you call R_BIS by using                   */.
/* SET MXLOOP=nnn.                                */.
/* (with nnn >= number of cases)                  */.
/* ———————————————- */.

 

Langkah Ketiga: buka File –> New –> Syntax–> kemudian save di directory komputer anda.

syntax kedua:
include ‘d:\r_bis.sps’.

/* Dibawah ini anda sedang menghitung KORELASI BISERIAL item-total        */
/* Nama variabel di SPSS harus disesuaikan dengan nama di syntax        */
/* a1,a2 dst untuk nama variabel dan tot untuk nama total       */
/* anda bisa menambahkan aitem sesuai dengan jumlah aitem alat ukur anda          */

r_bis item1 total.
r_bis item2 total.
r_bis item3 total.
r_bis item4 total.
r_bis item5 total.
r_bis item6 total.
r_bis item7 total.
r_bis item8 total.
r_bis item9 total.
r_bis item10 total.
r_bis item11 total.
r_bis item12 total.
r_bis item13 total.
r_bis item14 total.
r_bis item15 total.
r_bis item16 total.
r_bis item17 total.
r_bis item18 total.
r_bis item19 total.
r_bis item20 total.

/* Dibawah ini anda sedang menghitung KORELASI POINT BISERIAL item-total        */
/* Nama variabel di SPSS harus disesuaikan dengan nama di syntax        */
/* a1,a2 dst untuk nama variabel dan tot untuk nama total       */
/* anda bisa menambahkan aitem sesuai dengan jumlah aitem alat ukur anda          */
corr item1 total.
corr item2 total.
corr item3 total.
corr item4 total.
corr item5 total.
corr item6 total.
corr item7 total.
corr item8 total.
corr item9 total.
corr item10 total.
corr item11 total.
corr item12 total.
corr item13 total.
corr item14 total.
corr item15 total.
corr item16 total.
corr item17 total.
corr item18 total.
corr item19 total.
corr item20 total.

Pengolahan Data Penelitian

Pengolahan data penelitian secara umum diartikan sebagai operasi yang dilakukan terhadap satu set data sehingga menghasilkan informasi yang berguna. proses pengolahan data dimulai dari data mentah menjadi informasi yang berguna bahkan menjadi ilmu pengetahuan. Tanpa proses pengolahan data, maka data hanya dalam bentuk angka-angka yang tidak memiliki makna. Sebagai contoh angka 10%, 20%, 30%, 40%, dan 50% hanya merupakan angka-angka atau data yang tidak bermakna. namun, ketika peneliti mengolahnya, data tersebut dapat menjadi informasi. misalnya, tingkat kemiskinan di sebuah kota di negara A adalah sebesar 30%. dari sini kita mendapatkan informasi bahwa tingkat kemiskinan di kota tersebut masih cukup tinggi.

Lebih jauh lagi, pengolahan data penelitian dapat memproses data mentah menjadi ilmu pengetahuan. Data kemiskinan di kota A adalah 30% pada tahun 2010. Melalui sebuah kebijakan pemerintah untuk mengentaskan kemiskinan, tingkat kemiskinan di kota A menjadi 20%, misalnya. Setelah dilakukan proses pengolahan data dari sekian banyak data yang dikumpulkan, kebijakan B dapat mengurangi tingkat kemiskinan sebesar 10%. Hal tersebut bukan lagi sebatas informasi, tetapi pengetahuan. Untuk mengurangi kemiskinan maka kebijakan B perlu dilakukan oleh pemerintah.

Input dari pengolahan data penelitian adalah sekumpulan data yang akan diproses. Input tersebut dapat dalam bentuk data sekunder atau data primer. Data sekunder adalah data yang dikumpulkan dari pihak ketiga atau pihak lain. Contohnya data laporan BPS, data BPK dan data dari sumber sekunder lainnya. Data primer adalah data yang diperoleh secara langsung oleh peneliti. misalnya melalui proses wawancara, survei atau pengamatan langsung. Kedua jenis data ini sama-sama dapat diproses menjadi informasi yang berguna.

Proses pengolahan data dapat dilakukan secara otomatis dengan bantuan software atau dapat juga melalui penghitungan manual. output pengolahan data dapat berupa sajian deskriptif seperti diagram.

Analisis Jalur (Path Analysis)

Dalam statistik, analisis jalur atau biasa lebih dikenal dengan Path Analysis digunakan untuk mengetahui hubungan ketergantungan langsung diantara satu set variabel. Path Analysis adalah model yang serupa dengan model analisis regresi berganda, analisis faktor, analisis korelasi kanonik, analisis diskriminan dan kelompok analisis multivariat yang lebih umum lainnya seperti analisis anova, manova, anacova.

Dalam hal kausalitas, Path Analysis dapat dipandang sebagai analisis yang mirip dengan analisis regresi. Keduanya sama-sama menganalisis model kausalitas. Perbedaannya terletak pada tingkat kerumitan model. Model analisis regresi lebih banyak menganalisis variabel dependent sebagai dampak dari variabel independent. Variabel dependent tersebut tidak memberikan dampak terhadap variabel lainnya. Ketika peneliti dihadapkan pada model dimana variabel dependent menyebabkan variabel dependent lainnya, maka analisis jalur lebih cocok digunakan.

Dalam hal lainnya, analisis jalur juga dapat dilihat sebagai SEM (Structural Equation Modeling) dimana analisis jalur adalah SEM yang hanya memiliki satu indikator, atau model stuktural dari analisis SEM. Perbedaannya adalah analisis jalur hanya menganalisis variabel konstruk, sedangkan pada SEM semua variabel baik variabel indikator maupun variabel konstruk dianalisis secara bersama-sama dalam satu model.

Pemodelan Path Analysis

Pada model di bawah, model terdiri atas EX1 dan EX2 sebagai variabel eksogen yang mana satu sama lain berkorelasi. Kedua variabel ini memiliki pengaruh langsung terhadap En2 atau secara tidak langsung melalui variabel En1. En1 dan En2 disebut sebagai variabel endogen. Dalam model riil, variabel eksogen dimungkinkan dipengaruhi oleh variabel lain diluar EX1 dan EX2. Variabel lain diluar kedua variabel ini disimbolkan sebagai e (variabel eror).

path analysis

Keunggulan Path Analysis dibandingkan analisis regresi berganda adalah:

1. Peneliti dapat secara simultan mengukur pengaruh variabel eksogen terhadap variabel endogen.

2. Peneliti dapat menguji apakah model sudah cukup fit dengan data.

3. Peneliti dapat menguji model yang memiliki permasalahan multikolinieritas (korelasi yang tinggi antara variabel eksogen).

4. Peneliti dapat melakukan pebandingan pengaruh langsung dan tidak langsung dari variabel eksogen terhadap variabel endogen.

Analisis SEM Lisrel

Analisis SEM atau Structural Equation Modeling dapat dipermudah dengan Lisrel dan Amos. Namun, sebelum membahas mengenai software apa yang cocok digunakan untuk analisis SEM, saya akan membahas secara ringkas bagaimana konsep mengenai SEM itu sendiri. SEM adalah salah satu teknik analisis statistik yang bertujuan untuk menguji hubungan kausalitas antara satu atau lebih variabel laten eksogen terhadap satu atau lebih variabel laten endogen. Apa yang dimaksud dengan variabel laten eksogen dan Endogen? Variabel laten eksogen adalah variabel penyebab yang tidak dapat diamati secara langsung. Sedangkan variabel laten endogen adalah variabel akibat yang tidak dapat diamati secara langsung. mengapa disebut laten atau tidak dapat diamati secara langsung? Memang kita tidak dapat mengukur secara langsung variabel tersebut. Sebagai contoh adalah variabel motivasi. Kita  tidak dapat mengukur secara langsung motivasi seseorang itu seperti apa, kecuali melalui indikatornya. Berbeda halnya jika kita ingin mengukur berat badan, kita dapat mudah mengukurnya melalui ukuran kilogram dan itu hanya memiliki satu ukuran.

Analisis SEM cocok digunakan untuk mengukur hubungan kausalitas variabel yang tidak dapat diukur secara langsung seperti motivasi, kinerja, sikap, persepsi dan variabel-variabel sosial lainnya. Melalui analisis SEM baik melalui Lisrel maupun melalui Amos dapat memetakan pola hubungan antar variabel ini. Kedua software ini dapat mengukur pola hubungan antara variabel laten dan pola hubungan antara variabel laten dengan indikatornya. Koefisien bobot antara variabel laten menunjukkan pengaruh sebuah variabel laten terhadap variabel laten lainnya. Sementara hubungan antara variabel laten dengan indikator dapat dilihat melalui koefisien bobotnya. Ini menunjukkan seberapa besar indikator-indikator yang ada mampu merepresentasikan variabel latennya.

Software Lisrel dan Amos tidak memiliki perbedaan yang signifikan dalam melakukan analisis SEM. Keduanya sama-sama powerful dalam meng-generate model SEM. Perbedaannya hanya pada masalah pengoperasian secara teknis. Jika peneliti hendak menggunakan lisrel setidaknya diperlukan kemampuan dasar logika pemograman. Namun jangan khawatir dahulu karena pada program Lisrel ini, kita dapat mengoperasikannya melalui menu yang sudah ada. Walaupun jika dibandingkan dengan sintax, maka pengoperasian lisrel akan menjadi lebih singkat. Sofware lisrel akan langsung memunculkan gambar model lisrel secara otomatis ketika syntax di-running dengan benar. Sementara pada software Amos, seorang penguna tidak perlu memahami dasar-dasar logika pemrograman karena memang tidak ada sama sekali syntax pemograman yang dibutuhkan untuk me-running sebuah model. Pengguna cukup menggambar model secara manual. Kemudahan ini dapat sekaligus menjadi kekurangan sofware Amos. Menggambar model yang complicated dapat menjadi pekerjaan yang cukup membosankan. Telebih pengguna harus mendefinisikan nama indikator dan error yang menyertainya.

Pada akhir output kedua software Lisrel dan Amos ini, akan disajikan fitness analisis model SEM apakah model hipotesis yang diajukan sesuai dengan data sampel atau tidak. ukuran-ukuran yang ditampilkan yaitu Chi Square, RMSEA, GFI dan ukuran kecocokan lainnya. Ukuran-ukuran ini menjelaskan gap antara model hipotesis dengan data sampel. Beberapa ukuran lainnya menunjukkan tingkat estimasi yang dimanifestasikan melalui error. Model yang baik adalah yang gap antara model hipotesis dengan model data sampelnya tidak sangat berbeda. Namun demikian, jika pun model hipotesis memiliki gap yang jauh dengan data lapangan, maka Lisrel dan Amos mampu melakukan analisis eksploratori melalui rekomendasi model SEM yang paling mendekati data lapangan.

Demikian penjelasan singkat mengenai penggunaan software Lisrel dan Amos pada analisis SEM. Semoga bermanfaat!

Bermasalah dengan SEM? kontak kami di 081318082288

Pengertian dan Perbedaan Statistik Parametrik dan Non parametrik

Dalam terminologi ilmu statistika, statistik parametrik dan non parametrik merupakan dua hal yang sering digunakan. Lantas apa perbedaan keduanya? Secara sederhana sebetulnya antara statistik parametrik dan non parametrik mudah dibedakan dari istilahnya saja. Statistik non parametrik adalah statistik yang ditidak mendasarkan pada parameter-parameter statistik. apa itu parameter-parameter statistik? jika anda melakukan penelitian, tentu anda melakukan pengukuran-pengukuran, nah ukuran-ukuran tersebut diistilahkan dengan parameter. dalam statistik kita mengenal mean, median, modus dan standar deviasi. itulah parameter-parameter statistik. dalam statistik non parametrik, parameter tersebut tidak dijadikan acuan. Mengapa? ketika kita menggunakan skala data nominal atau ordinal, parameter-parameter tersebut menjadi tidak relevan. itu lebih kepada membuat ranking pada data. selain itu, statistik non parametrik tidak mendasakan pada distribusi data tertentu.

Penggunaan statistik non parametrik

Statistik non parametrik banyak digunakan pada kondisi di mana peneliti dihadapkan pada data yang berupa ranking, misalnya data untuk menilai peringkat mana yang lebih penting diantara beberapa atribut produk. Begitupun ketika hendak menganalisis data berupa data nominal atau data dikotomus, misalnya kita hanya menggunakan skala 1 dan 2 untuk membedakan jenis kelamin laki-laki dan perempuan. Parameter-parameter statistik seperti rata-rata dan standar deviasi menjadi tidak relevan. Jika kita paksakan untuk menggunakannya maka tentu rata-rata data hanya menyebar di antara angka 1 dan 2.

Ketika peneliti menggunakan skala ordinal dalam mengukur suatu variabel, statistik non parametrik merupakan metode yang cocok untuk menganalisis data tersebut. Namun, kebanyakan peneliti menggunakan statistik parametrik melalui penghitungan parameter mean dan standar deviasi terlebih dahulu. Memang, dalam hal interpretasi, statistik parametrik lebih mudah dipahami dibandingkan statistik non parametrik. Kita tentu akan lebih mudah membaca rata-rata atau penyimpangan suatu data dibandingkan ranking dari data itu sendiri. Alasan kemudahan membaca hasil inilah yang sering dijadikan justifikasi untuk menghindari statistik non parametrik.

Alasan kedua penggunaan statistik non parametrik adalah ketika data peneliti dihadapkan pada data yang tidak berdistribusi normal atau peneliti tidak memiliki cukup bukti yang kuat data berasal dari distribusi data seperti apa. Kita sering dihadapkan pada kondisi di mana data tidak berdistribusi normal, misalnya distribusi data terlalu miring ke kiri atau ke kanan. Berbagai usaha dapat dilakukan dengan mereduksi data outlier atau data ekstrim. Namun, jika hal tersebut tidak merubah distribusi data menjadi terdistribusi normal, maka metode non parametrik dapat dilakukan.

Contoh metode analisis non parametrik

Kedua metode ini tentu memiliki konsekuensi terhadap pendekatan analisis yang digunakan. Untuk menganalisis pengaruh suatu variabel penyebab terhadap variabel respon, biasanya kita menggunakan analisis regresi linier sederhana atau berganda. Dalam metode non parametrik, metode tersebut tidak lagi relevan. Pendekatan yang cocok adalah regresi non parametrik.

Begitu pun ketika kita menganalisis hubungan antara dua variabel. Biasanya kita menggunakan analisis korelasi Pearson Product Moment. Namun, dalam metode non parametrik analisis korelasi lebih dikenal dengan korelasi Rank spearman. Teknik perhitungannya berbeda. Dalam Rank spearman, kita terlebih dahulu membuat ranking dari data yang akan dikorelasikan sementara dalam Pearson product moment tidak dilakukan. Metode korelasi non parametrik populer lainnya adalah Kendall Tau.

Ketika kita hendak melakukan uji perbandingan antara kelompok, maka metode analisis yang digunakan dalam statistik parametrik adalah uji t (ketika yang kita bandingkan 2 kelompok), atau uji anova (ketika kelompok yang kita bandingkan lebih dari 2). Berbeda dengan statistik parametrik, dalan non parametrik ada uji Kruskall wallis yang sebaiknya digunakan.

Pengertian STATISTIK DESKRIPTIF dan STATISTIK INFERENSIAL

Pengertian statistik deskriptif berbeda dengan statistik inferensial. Pada statistik deskriptif penelitian hanya menggambarkan keadaan data apa adanya melalui parameter-parameter seperti mean, median, modus, distribusi frekuensi dan ukuran statistik lainnya. Pada statistika deskriptif, yang perlu disajikan adalah:

1. Ukuran pemusatan data (measures of central tendency). Ukuran pemusatan data yang sering digunakan adalah distribusi frekuensi. Ukuran statistik ini cocok untuk data nominal dan data ordinal (data kategorik). Sementara nilai mean adalah ukuran pemusatan data yang cocok untuk data continuous. Ukuran deskriptif lain untuk pemusatan data adalah median (nilai tengah) dan modus (nilai yang paling sering muncul).

2. Ukuran penyebaran data (measures of spread). Ukuran penyebaran data yang sering digunakan adalah standar deviasi. Ukuran penyebaran data ini cocok digunakan untuk data numerik atau continuous. Sementara untuk data kategorik, nilai range merupakan ukuran yang cocok.

Sedangkan penelitian inferensial adalah proses pengambilan kesimpulan-kesimpulan berdasarkan data sampel yang lebih sedikit menjadi kesimpulan yang lebih umum untuk sebuah populasi. Penelitian inferensial diperlukan jika peneliti memiliki keterbatasan dana sehingga untuk lebih efisien penelitian dilakukan dengan mengambil jumlah sampel yang lebih sedikit dari populasi yang ada. Pada penelitian inferensial, dilakukan prediksi. Statistik inferensial membutuhkan pemenuhan asumsi-asumsi. Asumsi paling awal yang harus dipenuhi adalah sampel diambil secara acak dari populasi. Hal tersebut diperlukan karena pada statistika inferensial perlu keterwakilan sampel atas populasi. Asumsi-asumsi lain yang perlu dipenuhi mengikuti alat analisis yang digunakan. Jika yang digunakan adalah analisis regresi, maka asumsi-asumsi data harus memenuhi asumsi analisis regresi.

Metode analisis statistik yang digunakan dalam statistik inferensial adalah T-test, Anova, Anacova, Analisis regresi, Analisis jalur, Structural equation modelling (SEM) dan metode analisis lain tergantung tujuan penelitian. Dalam statistik inferensial harus ada pengujian hipotesis yang bertujuan untuk melihat apakah ukuran statistik yang digunakan dapat ditarik menjadi kesimpulan yang lebih luas dalam populasinya. Ukuran-ukuran statistik tersebut dibandingkan dengan pola distribusi populasi sebagai normanya. Oleh sebab itu, mengetahui pola distribusi data sampel menjadi penting dalam statistik inferensial.

Contoh yang baik untuk statistik inferensial adalah pada pemilu presiden 2014. Berbagai lembaga survei melakukan quick count untuk mengetahui secara cepat kandidat presiden mana yang akan mendapatkan suara rakyat lebih banyak. Lembaga survei tersebut mengambil sebagian sampel TPS (Tempat Pemungutan Suara) dari total TPS populasi. Hasil sampel TPS tersebut digunakan untuk generalisasi terhadap keseluruhan TPS. Katakanlah diambil 2.000 sampel TPS dari 400.000 populasi TPS yang ada. Hasil dari 2.000 TPS adalah statistik deskriptif. Sedangkan jika kita mengambil kesimpulan terhadap 400.000 TPS adalah statistik inferensial.Kekuatan statistik inferensial tergantung pada teknik pengambilan sampel dan proses randomisasi. Jika proses randomisasi dilakukan dengan benar, maka sampel yang lebih sedikit dapat memprediksi nilai populasi dengan baik. Dengan demikian dapat menghemat anggaran pengambilan / pengumpulan data.

Di industri manufaktur, statistik inferensial sangat berguna. Manajemen dapat mengetahui dan mengontrol berapa produk yang di luar standar atau cacat dengan hanya mengambil beberapa sampel produk. Bayangkan jika manajemen perusahaan harus memeriksa semua produk hanya untuk mengetahui berapa yang cacat. Tentu akan menghabiskan waktu dan biaya yang tidak sedikit. Terlebih jika harus memeriksa semua produk yang dikemas. Tentu tidak efektif dan efisien. Untunglah ada Six Sigma, salah satu tool yang digunakan terkait hal ini. Prinsip Six Sigma menggunakan statistik inferensial yaitu mengambil sampel produk dan mengukur sigma atau standar deviasi (ukuran keragaman) dari produk. Jumlah produk yang cacat tidak boleh melebihi standar yang ditetapkan.

 

Sumber referensi:

1. http://www.socialresearchmethods.net/kb/statinf.php
2. https://statistics.laerd.com/statistical-guides/descriptive-inferential-statistics.php

Untuk bantuan analisa / olah data statistik dengan SPSS, Lisrel Amos dapat 081318082288 atau Order Online

Order Online

Analisis Faktor Konfirmatori dengan SPSS

Analisis faktor konfirmatori adalah sebuah metode statistik yang digunakan untuk menggambarkan variabilitas diantara variabel-variabel yang secara potensial dapat mengelompok menjadi jumlah kelompok yang disebut dengan faktor. Software yang paling sering belakangan ini untuk menghitung analisis faktor konfirmatori adalah SPSS, Lisrel atau Amos. Sebagai contoh misalnya kita memiliki 20 set indikator atau item pertanyaan. 20 set item pertanyaan tersebut dapat dikelompokkan menjadi kelompok yang lebih sedikit misalnya menjadi 4 kelompok.

Pada awalnya analisis faktor konfirmatori dikembangkan di bidang psikometri. namun, dewasa ini analisis faktor telah luas digunakan di berbagai bidang keilmuan seperti ilmu-ilmu sosial, ilmu perilaku, ilmu marketing, dan berbagai keilmuan yang sering melibatkan banyak indikator-indikator sehingga diperlukan untuk menyederhanakan hanya menjadi beberapa faktor. Memang analisis faktor sangat berguna bagi permasalahan penelitian dimana kita dihadapkan kepada banyak set indikator/ pertanyaan/ variabel. Untuk menghadapi kondisi tersebut maka analisis faktor sangat membantu. Terlebih analisis faktor pun dapat mengkonfirmasi apakah item-item yang masuk ke dalam faktor sudah cocok dengan model teoritis atau tidak.

Analisis faktor konfirmatori juga dapat digunakan untuk menguji validitas dan reliabilitas item-item pertanyaan yang dibuat oleh peneliti. Setiap item pertanyaan akan diketahui berapa faktor loading-nya dan apakah item tersebut sudah cocok dikelompokkan ke dalam latent variabel yang sama. Analisis faktor konfirmatori akan mencocokan model indikator terhadap model laten dari sebuah model laten. Oleh sebab itu, analisis faktor konfirmatori biasanya digunakan terlebih dahulu sebelum dilakukan analisis model struktural (Structural Equation Modelling). Kemampuannya dalam memproduksi nilai skor untuk variabel laten membuat analisis faktor konfirmatori banyak digunakan untuk membantu analisis regresi yang memiliki beberapa indikator. Misalkan dalam variabel pengeluaran atau konsumsi, kita dihadapkan pada lebih dari satu indikator. Bagaimana mereduksi berbagai macam variabel ini tanpa mengurangi informasi yang ada, maka analisis faktor konfirmatori solusinya.

Bagaimana mekanisme analisis faktor konfirmatori mengelompokkan sekian set item menjadi kelompok yang lebih kecil? Hal itu dilakukan berdasarkan variabilitas antar item itu sendiri. Secara matematis, hubungan antara item dalam satu faktor dimodelkan dalam bentuk fungsi persamaan linier. Secara perhitungan, tekniknya adalah dengan menggunakan matrik kemiripan nilai varians. Sekali lagi, analisis faktor konfirmatori bertujuan untuk mereduksi jumlah set pertanyaan yang banyak menjadi kelompok yang lebih sedikit dengan tanpa kehilangan kandungan informasinya.

Analisis faktor konfirmatori memiliki kemiripan dengan beberapa teknik analisis statistik lain diantaranya adalah Analisis Komponen Utama (principal component analysis), Analisis Klaster (claster analysis) dan Analisis Regresi (regression analysis). Dibandingkan dengan analisis Komponen Utama, analisis faktor konfirmatori memiliki kesamaan dalam hal mereduksi sekian set item indikator/pertanyaan menjadi beberapa kelompok/faktor. Perbedaan keduanya terletak pada analisis komponen utama adalah analisis deskriptif, outcome nya hanya berupa skor dari beberapa kelompok tanpa melakukan konfirmasi. sementara analisisi faktor konfirmatori bersifat statistik inferensial, yaitu melakukan konfirmasi apakah kelompok yang terbentuk sudah sesuai dengan laten variabel atau tidak. Lebih jauh lagi menjelaskan berapa gap/ error diantara keduanya. Analisis faktor konfirmatori dibandingkan dengan analisis klaster memiliki kemiripan dalam hal mengelompokkan sekian banyak observasi menjadi beberapa klaster / kelompok observasi. Perbedaannya yang dikelompokkan adalah subjek penelitian /unit analisis/responden. Bukan item pertanyaan/indikator/varibel. Analisis faktor konfirmatori dibandingkan dengan analisis regresi memiliki kemiripan dalam hal penggunaan model persamaan linier. keduanya sama-sama menggunakan funsi persamaan linier untuk menjelaskan hubungan antara indikator/pertanyaan/variabel. Perbedaannya terletak pada Jumlah modelnya. Analisis faktor akan menghasilkan beberapa model tergantung kepada jumlah faktor yang terbentuk. Sementara analisis faktor konfirmatori hanya akan menghasilkan satu model yang akan diuji kelayakannya.

http://en.wikipedia.org/wiki/Factor_analysis

http://www.statsoft.com/Textbook/Principal-Components-Factor-Analysis

Perbedaan Analisis Faktor Eksploratori dan Konfirmatori dengan SPSS

cfa

Artikel ini akan membahas apa perbedaan analisis faktor eksploratori dengan analisis faktor konfirmatori. Dalam bahasa inggris analisis faktor konfirmatori adalah exploratory factor analysis (EFA), sedangkan analisis faktor konfirmatori dikenal dengan confirmatory factor analysis (CFA).

Tentang Exploratory Factor Analysis (EFA)

adalah metode statistik yang digunakan untuk membangun model struktur yang terdiri dari satu set atau banyak variabel. EFA adalah salah satu metode analisis faktor untuk mengidentifikasi hubungan antara variabel manifest atau variabel indikator dalam membangun sebuah konstruk. EFA digunakan dalam kondisi dimana peneliti tidak memiliki informasi awal atau hipotesis harus dikelompokkan ke dalam variabel mana saja sekumpulan indikator yang telah dibuat. jadi peneliti berangkat dari indikator (manifest) kemudian membentuk variabel. EFA juga digunakan dalam kondisi dimana variabel laten memiliki indikator yang belum jelas. indikator satu variabel laten dimungkinkan overlap dengan indikator variabel laten lainnya.

Peneliti dapat menggunakan software SPSS untuk menganalisis EFA. Input yang digunakan adalah data dari variabel-variabel indikator. Oleh karena belum ada asumsi ke mana saja indikator-indikator akan mengelompok maka biasanya dalam analisis EFA belum diketahui berapa faktor atau variabel laten yang akan terbentuk. Walaupun diperbolehkan peneliti menentukan berapa jumlah faktor yang diharapkan.

Ukuran-ukuran yang menunjukkan bahwa suatu indikator masuk ke dalam indikator tertentu dalam EFA adalah nilai faktor loading. Ketika nilai faktor loading suatu indikator lebih besar terhadap satu faktor tertentu, maka indikator tersebut dapat dikelompokkan ke dalam faktor tersebut.

Tentang Confirmatori Factor analysis (CFA)

Merupakan salah satu bentuk analisis faktor juga khususnya dalam penelitian sosial. Tujuan utamanya adalah untuk menguji apakah indikator-indikator yang sudah dikelompokkan berdasarkan variabel latennya (konstruknya) konsisten berada dalam konstruknya tersebut atau tidak. pada CFA,  peneliti menguji apakah data fit dengan model yang dibentuk sebelumnya atau tidak. Perbedaan yang mendasar antara CFA dan EFA adalah pada CFA peneliti sudah memiliki asumsi awal bahwa indikator-indikator masuk ke dalam variabel laten tertentu. Di awal, peneliti telah mengembangkan model hipotesis berdasarkan kerangka teoritis atau penelitian sebelumnya yang dijadikan acuan.

Oleh karena sudah ada model konstruk yang dibentuk dan akan diujikan, maka CFA menggunakan software lisrel atau amos untuk mengujinya. CFA dipandang sebagai partial Structural Equation Modelling (SEM).

Ukuran-ukuran yang digunakan dalam CFA sama halnya dengan yang digunakan dalam SEM yaitu ukuran kesesuaian model dengan data (fitness index). Chi Square, RMSEA, GFI, AGFI adalah beberapa contoh ukuran kesesuaian model yang akan digunakan di luar nilai bobot setiap indikator.

Kesamaan EFA dan CFA

Satu hal yang serupa dengan kedua metode statistik ini adalah keduanya menggunakan varians dari masing-masing variabel manifest sebagai representasi ukuran kontribusi terhadap variabel konstruknya.

Olah data SEM dengan LISREL, AMOS atau SMART PLS?

olah-data-sem

Structural Equation Modelling atau lebih dikenal dengan SEM merupakan suatu metode analisis statistik multivariat. Melakukan olah data SEM berbeda dengan melakukan olah data regresi atau analisis jalur. Olah data SEM lebih rumit, karena sem dibangun oleh model pengukuran dan model struktural.

Untuk melakukan olah data sem dengan lebih mudah, tentu kita membutuhkan bantuan software statistik. Saat ini sudah tersedia berbagai macam softareuntuk olah data SEM diantaranya adalah Lisrel, AMOS dan Smart PLS. Diantara software-software statistik tersebut, mana yang cocok untuk digunakan. Berikut ulasan singkatnya:

Kelebihan Lisrel

Lisrel dikembangkan oleh Karl Jöreskog and Dag Sörbom. Lisrel adalah software statistik yang digunakan paling meluas dikalangan peneliti maupun praktisi. Kelebihan dari software lisrel adalah kemampuannya mengidentifikasi hubungan antara variabel yang kompleks. Cara mengoperasikannya yang terdiri dari bebagai pilihan, baik dengan syntax maupun dengan program sederhana, menjadikannya lebih banyak digunakan berbagai kalangan. Syntax tentu akan disukai bagi pengguna yang memang faham dengan bahasa pemograman. Sementara Simplis atau simple lisrel merupakan alternatif bagi mereka yang awam dengan bahasa pemograman.

Pilihan berbagai metode estimasi sudah tersedia di Lisrel, sehingga tidak terpaku kepada satu metode estimasi Maximum Likelihood. Itu tergantung kondisi data, metode estimasi mana yang akan kita gunakan.

Kekurangan Lisrel

Satu hal kekurangan dari software lisrel ini adalah ketidakmampuannya mengolah data sem dengan jumlah sampel yang sedikit. Ketika kita memiliki sampel kurang dari 200, sementara modelnya kompleks, maka terkadang hasil estimasi tidak sesuai dengan harapan kitan.

Kelebihan Amos

Sama halnya dengan SPSS, AMOS merupakan software statistika yang dikembangkan oleh IBM. Sofware amos memang dikhususkan untuk membantu menguji hipotesis hubungan antar variabel. Melalui software ini, kita dapat mengetahui tingkat kekuatan hubungan antara variabel baik antara variabel laten maupun dengan variabel manifest. Seberapa signifikan hubungan antara variabel, dan seberapa fit model hipotesis dibandingkan dengan data riil lapangan.

Kelebihan Amos adalah kita tidak memerlukan syntax atau bahasa pemograman yang rumit untuk mengoperasikan software ini. Bagi pemula, atau yang awam dengan bahasa pemograman tentu ini merupakan keuntungan tersendiri. Melalui amos, kita cukup menggambarkan variabel laten dan variabel manifest, lalu menghubungkannya melalui panah-panah yang tersedia.

Kekurangan Amos

Kelebihan amos sekaligus menjadi kekurangan Amos. membuat gambar yang sangat banyak ketika model sudah kompleks, tentu menjadi pekerjaan yang sangat membosankan. Padahal, pekerjaan tersebut dapat dilakukan dengan lebih sederhana melalui bahasa pemograman. Kita tinggal copy syntax dan mengganti beberapa variabel, kemudan running, maka selesailah sekompleks apapun model yang hendak dibuat.

Kelebihan Smart PLS

Smart PLS atau Smart Partial Least Square adalah software statistik yang sama tujuannya dengan Lisrel dan AMOS yaitu untuk menguji hubungan antara variabel, baik sesama variabel latent maupun dengan variabel indikator, atau manifest.

Penggunaan Smart PLS sangat dianjutkan ketika kita mememiliki keterbatasan jumlah sampel sementara model yang dibangung kompleks. hal ini tidak dapat dilakukan ketika kita menggunakan kedua software di atas. mereka membutuhkan kecukupan sampel.

Kelebihan lainnya dai Smart PLS adalah kemampuannya mengolah data baik untuk model SEM formatif ataupun reflektif. model SEM formatif memiliki ciri-ciri diantaranya adalah variabel latent atau konstruk dibangun oleh variabel indikator dimana panah mengarah dari variabel konstruk ke variabel indikator. Model SEM reflektif adalah model SEM dimana variabel konstruk merupakan refleksi dari variabel indikator, sehingga panahnya mengarah dari variabel indikator ke variabel latent. Secara statistik, konsekuensinya adalah tidak akan ada nilai error pada variabel indikator.

Kekurangan Smart PLS

Oleh karena software ini dkhususkan untuk melakukan olah data sem dengan sampel kecil, maka tidak cocok digunakan untuk penelitian dengan sample besar

Definisi dan MANFAAT STATISTIK

Definisi Statistika

Statistika adalah ilmu yang mempelajari mulai dari pengumpulan data, pengolahan data sampai kepada pengambilan kesimpulan berdasarkan data tersebut.

Manfaat Statistika

1. Mendapatkan gambaran mengenai suatu fenomena tertentu dengan lebih sederhana melalui ukuran-ukuran statistik.
2. Mampu mengambil kesimpulan dengan tingkat kepercayaan tertentu berdasarkan sampel dari populasi.
3. Dapat melakukan efisiensi biaya melalui sampling.
4. Dapat membuat pemodelan dari sebuah permasalahan.
5. dapat mengetahui apa saja faktor yang berhubungan dengan sebuah permasalahan.
6. dapat mengetahui efek dari sebuah variabel
7. Dapat melakukan peramalan data untuk masa mendatang.

Peran Statisika dalam berbagai bidang

1. Dalam bidang politik dan pemerintahan dapat memprediksi calon yang akan terpilih dalam pemilihan umum melalui quick count.

2. Dalam bidang marketing, dapat mengetahui apa saja yang mempengaruhi penjualan

3. Dalam bidang keuangan dan ekonomi makro, dapat mengetahui pengaruh kebijakan makro pemerintah terhadap inflasi, peningkatan kesejahteraan dan lain-lain.

4. Dalam bidang kedokteran dan farmasi, dapat mengetahui efek suatu obat terhadap penyakit tertentu.

5. Dalam bidang pertanian, dapat mengetahui bibit yang unggul yang dapat menghasilkan produktivitas lebih tinggi melalui desain eksperimen.

6. Dalam bidang Sejarah, sastra, dan budaya dapat mengetahui efek dari suatu budaya asing terhadap budaya lokal.

Istilah-istilah penting dalam statistik

  • Data atau datum adalah kumpulan fakta, seperti nilai atau pengukuran, data dalam berupa angka atau kata-kata.
  • Informasi adalah hasil dari data yang sudah dianalisis.
  • Populasi adalah sekelompok manusia, komunitas, atau subjek lainnya yang diteliti dan memiliki karakteristik tertentu.
  • Sampel adalah sebagian subjek yang diteliti yang diambil dari populasi.
  • Parameter adalah ukuran populasi seperti rata-rata populasi, standar deviasi populasi.
  • Statistik adalah ukuran sampel seperti rata-rata sampel, standar deviasi sampel.
  • Sampling adalah proses pengambilan sampel dari propulasi dengan teknik tertentu.
  • Variabel adalah sebuah simbol (yang biasanya ditandakan dengan huruf alfabet) yang mencakup nilai yang berubah-ubah dari sebuah permasalahan yang diteliti.

Pembagian Statistik

1. Statistik deskriptif

statistik deskriptif adalah statistik yang bertujuan hanya untuk menggambarkan sesuau melalui ukuran-ukuran statistik dan grafik. sebagai contoh seorang peneliti ingin mengetahui gambaran mengetahui mengenai nilai hasil ujian di satu kelas A.

2. Statistik inferentif

statistik infrerentif adalah statistik yang bertujuan untuk mengambil kesimpulan data populasi berdasarkan sebagian data yang disebut sample. sebagai contoh seorang peneliti ingin mengetahui hasil ujian satu universitas berdasarkan data yang diambil dari beberapa kelas saja.

Sumber Data

1. Data Primer adalah data/informasi yang diperoleh dari sumber pertama misalnya melalui survei atau wawancara langsung.

2. Data Sekunder adalah data/informasi yang diperoleh dari sumber lain misalnya dari laporan keuangan atau kajian pustaka.

 

Skala Pengukuran

a. skala nominal

skala nominal yang sering juga disebut skala kualitatif adalah skala data yang berfungsi hanya untuk membedakan dan tidak ada tingkatan diantaranya.

b. skala ordinal

skala ordinal adalah skala pengukuran kualitatif dimana data diklasifikasikan ke dalam kelompok tertentu kemudian diberi kode, dan kode tersebut memiliki hierarki.

c. skala interval

skala interval adalah skala yang menunjukkan derajat perbedaan diantara item. Skala interval memiliki titik nol yang didefinisikan dengan bebas. sebagai contoh adalah suhu. dalam skala interval memungkinkan jarak antara angka tidak memiliki perbandingan yang sama. sebagai contoh 20 derajat celcius tidak berarti dua kali lipat panasnya dibandingkan 10 derajat celcius

d. skala ratio

ciri utama dari skala ratio adalah memiliki nilai nol yang mutlak dan tidak didefinisikan secara bebas. nilai nol tersebut benar-benar nol, sebagai contoh adalah rentang usia penduduk suatu negara dari 0 sampai dengan 80 tahun. hal lainnya adalah terdapat perbandingan yang sama antara data. berat badan kelompok balita antara 0 sampai dengan 15 kg. bayi 10 kg memiliki berat dua kali lipat dibandingkan dengan bayi 5 kg. skala-skala pengukuran dalam ilmu pengetahuan alam sebagian besar adalah menggunakan skala ratio. keunggulan dari skala ratio dibandingkan interval adalah kita dapat membandingkan suatu data dengan mudah.

Jenis-jenis Variabel

1. Variabel bebas (independent variable) adalah variabel yang mempengaruhi variabel lain.

2. Variabel terikat (dependent variable) adalah variabel yang dipengaruhi oleh variabel bebas.

Untuk bantuan analisa / olah data statistik dengan SPSS, Lisrel Amos dapat 081318082288 atau Order Online.

Cara Menganalisis Menggunakan SEM dengan Amos atau Lisrel

Mungkin diantara pembaca ada yang sudah banyak yang mengetahui bagaimana cara menganalisis data menggunakan SEM. SEM atau Structural Equation modelling memang saat ini sudah dikenal luas di kalangan akademisi dan peneliti, terutama. Mengapa, karena alat analisis ini sangat powerful digunakan untuk menganalisis variabel-variabel laten.

Apa yang dimaksud dengan variabel laten? variabel laten adalah variabel yang tidak terlihat langsung sehingga kita perlu menjabarkan indikator-indikator dari variabel tersebut. Sebagai contoh ketika kita ingin mengukur variabel motivasi, apakah seseorang memiliki motivasi yang tinggi atau rendah. Bagaimana mengukurnya? tentu tidak mudah. karena variabel motivasi merupakan variabel laten. Berbeda halnya jika kita mengukur tinggi badan, misalnya. Kita hanya perlu menarik meteran dan mengukurkannya. Hanya ada satu ukuran untuk mengukur tinggi badan yaitu meter. Begitu juga ketika kita hendak mengukur berat badan. Mudah, ambilkan timbangan, ukur, dapatlah ukuran untuk berat badan seseorang.

Variabel seperti motivasi, kinerja, sikap, perilaku, merupakan variabel-variabel yang tidak langsung ada satu ukurannya. Sehingga kita perlu melakukan pendekatan melalui indikator-indikatornya. Nah, metode analisis data yang demikian adalah structural equation modelling atau dikenal dengan SEM. Dari istilahnya saja sudah structural, artinya akan ada persamaan structural. Persamaan structural adalah persamaan yang menggambarkan hubungan kausalitas antara variabel-variabel laten tadi.

Di samping persamaan structural, ada yang disebut dengan persamaan pengukuran. Persamaan pengukuran adalah persamaan antara variabel laten dengan indikator-indikatornya. Seberapa terwakili variabel laten tersebut oleh indikator-indikatornya. Tentunya semakin mendekati 100% semakin sempurna. Mengingat proses penjabaran variabel laten tersebut juga melalui proses yang menduga-duga maka dimungkinkan akan adanya error dalam persamaan pengukuran.

Jika dibandingkan dengan metode analisis klasik seperti regresi atau korelasi, SEM sendiri memiliki persamaan. Secara matematis, SEM merupakan gabungan dari analisis regresi dan analisis faktor. yang dimaksud dengan analisis faktor dapat terlihat pada model pengukuran antara variabel indikator dengan varibel laten. Sedangkan Analisis regresi terlihat pada persamaan struktural antara variabel laten.

Analisis SEM memerlukan perangkat software untuk memudahkan proses perhitungan. Mengapa? karena SEM ini melakukan proses perhitungan yang iteratif. Artinya proses perhitungan yang dilakukan berulang-ulang sehingga dihasilkan sebuah model yang konvergen atau memiliki hasil yang akurat. Saat ini, Lisrel dan Amos merupakan dua software yang dikenal luas di kalangan pengguna. Diantara kedua software ini tidak terdapat perbedaan yang signifikan dalam hal hasil. Yang membedakan adalah cara mengoperasikannya. Jika kita menggunakan Lisrel, maka sedikitnya kita harus mengerti logika pemrograman. Walaupun memang tidak sulit. Sementara pada amos, sama sekali tidak diperlukan kemampuan untuk memahami logika bahasa pemrograman. Pengguna hanya tinggal menggambarkan model teoritisnya, maka Amos akan melalukan perhitungan dengan sendirinya.

Secara singkat dapat dirangkum bahwa Amos cenderung user friendly, sementara lisrel cenderung dapat mempercepat proses pengarjaan melalui sintax-sintax nya.

Demikian.

JASA Analisis Data Statistik

Jasa analisis data statistik merupakan jasa yang biasanya ditawarkan oleh pihak ketiga kepada peneliti yang sedang kesulitan mengolah data yang sudah terkumpul. Proses analisa data biasanya dimulai dari proses entri data, validasi data sampai dengan analisa data dan penarikan kesimpulan.

Tujuan utama dari analisis data sendiri adalah untuk mengolah data mentah yang masih berupa angka-angka atau pun data kualitatif menjadi sebuah informasi yang berguna bahkan lebih tinggi lagi menjadi pengetahuan.

Dalam dunia riset, proses statistik sendiri dimulai dari pekerjaan fieldwork atau proses lapangan dalam pencarian dan pengumpulan data. Data mungkin dikumpulkan melalui data primer ataupun sekunder. pada proses pengumpulan data diperlukan teknik pengambilan sampel dan penentuan jumlah sampel melalui perhitungan statistika.

Setelah data terkumpul, tahap selanjutnya adalah data entry atau dikenal dengan data punching yaitu memasukan data ke dalam komputer. Jika penelitian dilakukan melalui survey dengan bantuan kertas kuesioner, maka data entri mutlak dilakukan. Namun jika data diperoleh dari sumber sekunder dan sudah dalam bentuk file excel, maka proses punching tidak perlu dilakukan.

Selanjutnya adalaha validasi data atau screening data. Validasi data kuesioner dapat dilakukan melalui metode validitas dan reliabilitas. Sementara data sekunder dapat divalidasi melalui outlier dan normalitas data. setelah proses validasi selesai, maka proses selanjutnya adalah analisis data.

Peneliti perlu menelaah kembali apa sebenarnya yang menjadi tujuan utama penelitian agar proses analisa data tidak melebar sehingga tidak menyentuh inti permasalahan. Secara garis besar analisis data berdasarkan tujuan penelitian dibagi ke dalam beberapa kelompok sebagaimana berikut:

1. Analisis Data Deskriptif

Pada tujuan yang pertama ini, peneliti hanya menggambarkan fenomena apa adanya melalui ukuran-ukuran statistik seperti mean, median, modus, standar deviasi dan sebaran data lainnya. Di sini, tidak ada pengujian hipotesis. Analisis deskriptif biasanya disebut juga dengan penelitian eksploratori. Yaitu penelitian untuk melakukan eksplorasi bukan menguji hipotesis tertentu.

2. Analisis Data Komparatif

Pada analisis statistik komparasi, peneliti sudah melakukan statistik inferentif atau pengujian hipotesis dengan cara membandingkan beberapa populasi. peneliti dapat membandingkan dua kelompok populasi atau lebih. ukuran yang dibandingkan bisa rata-rata, proporsi atau variansnya.

3. Analisis Data Asosiasif

Dikenal juga dengan analisis korelasi. Peneliti mencoba menghubungkan dua variabel yang diduga memiliki hubungan. sebagai contoh peneliti mencoba menghubungkan antara sosial ekonomi masyarakat dengan preferensi terhadap kandidat presiden tertentu. disini ingin diketahui apakah ada hubungan antara sosial ekonomi yang direpresentasikan oleh pendapatan dengan kencenderungan memilih kandidat A, misalnya.

4. Analisis Data Kausatif

Perbedaan mencolok antara analisis data kausatif atau kausalitas dengan analisis data asosiatif adalah arah hubungan sebab akibat yang jelas. Jika kedua variabel memiliki arah sebab akibat yang jelas maka dikategorikan ke dalam analisis kausatif. sebagai contoh aktivitas promosi menyebabkan meningkatnya omset, bukan sebaliknya. dalam dunia kedokteran misalnya, pengaruh dosis obat tertentu terhadap kesembuhan pasien. Tidak masuk akal jika kita balik, kesembuhan mempengaruhi dosis obat.

Tentunya setelah memperhatikan tujuan-tujuan dari sebuah penelitian seperti tertera di atas, diharapkan peneliti dapat memilih metode statistik yang tepat. Metode statistik itu ibaratnya sebuah alat pemotong, mungkin boleh gergaji, pisau dapur, gunting, pedang, golok, atau mesin pemotong. Alat-alat tersebut akan lebih efektif jika digunakan dengan memperhatikan tujuannya. Tentunya tidak efektif mengiris bawang menggunakan golong, walaupun memungkinkan untuk dilakukan. Begitupun dengan metode statistik. Semua metode memungkinkan untuk digunakan tapi apakah efektif atau tidak dengan tujuannya.

Konsultan Statistik Di Jakarta dan Bandung

Globalstats merupakan konsultan statistik yang berdiri di Bandung pada tahun 2006. Pada tahun 2011 kami membuka kantor di Jakarta. Jasa kami berfokus pada konsultasi dan jasa statistik untuk kepentingan akademik. Klien kami adalah mahasiswa tingkat sarjana, program magister serta doktor yang sedang melakukan riset baik untuk kepentingan akhir studi maupun untuk publikasi ilmiah.

Selain mahasiswa, biasanya dosen juga memerlukan kami sebagai konsultan statistik untuk memperdalam ilmu statistik. Oleh karena itu, kami juga sering mengadakan training statistika.

Latar belakang kami membuka perusahaan konsultan statistik adalah karena kami melihat masih jarang sekali hasil karya ilmiah dari indonesia yang dipublikasikan dalam jurnal internasional. Salah satu penyebabnya adalah lemahnya pemahaman mengenai metode penelitian baik kuantitatif maupun kualitatif. Meneliti menjadi hal yang sulit. Banyak dari akademisi tidak memiliki pemahaman yang komprehensif mengenai metode penelitian.

Materi training statistik yang kami adakan adalah: Analisis
Regresi, menguji dan mengatasi asumsi klasik normalitas, linieritas, heteroskedastisitas, multikolotieritas, dan auto korelasi, Analisis regresi logistik, Analisis Korelasi, Structural equation modelling (SEM), partial least square (PLS), Analisis Multivariate, Rancangan Percobaan.

Sofware yang digunakan: SPSS, Lisrel, Amos, PLS, Eviews, Stata.

Pengalaman kami dalam berbagai bidang keilmuan:

1. Ilmu Ekonomi:
Model-model ekonometrik, model data panel, Uji hausman, model OLS (Ordinary Least Square), model TSLS (Two Stage Least Square), Model ARCH/GARCH, model VAR (Vector Auto Regression)/ VECM (Vector Error Correction Model).

2. Ilmu Manajemen, Akuntansi, Bisnis:
Regresi berganda, Multivariat, analisis cluster, analisis perceptual mapping, service quality, Importance performance analysis, Structural Equation Modelling, Customer Satisfaction, SWOT/TOWS analysis, Analisis portofolio, Analisis resiko, Monte Carlo, value at risk.

3. Ilmu kedokteran dan kesehatan lainnya: Odds ratio, Analisis regresi logistik, Chi square, Analisis case control.

4. Pertanian: rancangan percobaan, Rancangan acak lengkap, rancangan acak blok, rancangan tersarang, dll.

5. Berbagai disiplin ilmu lainnya.

Jasa Kami Meliputi:
1. Konsultansi, meliputi: metode penelitian, teknik sampling, menghitung metode analisis yang cocok.

2. Jasa analisis data, membantu mengolah data mulai dari entri data, mengolah melalui software statistik, menginterpretasi hasil output dan mengajarkan prosesnya.

3. Jasa interview kuesioner lapangan, menyediakan tenaga surveyor, melakukan interview dan mencarikan responden.

Jika anda membutuhkan konsultan statistik untuk wilayah Bandung dan Jakarta, anda dapat datang langsung ke kantor kami. Bagi anda yang di luar bandung dan jakarta, anda dapat mendaftarkan diri secara online. Bentuk konsultasi akan dilakukan secara online melalui email, telepon, chatting.

Descriptive Statistics Definition and Examples

Descriptive Statistics Definition and Examples

Descriptive statistics definition and examples will be discussed in this article. The definition is a method of statistical analysis that only describe the condition of the data examples. Descriptive statistics do not draw conclusions larger than the sample. For example: Researcher conducts a research with 100 students as sample size. The conclusions drawn only for 100 students, no more. An example of a descriptive statistics in the health subject: A study measures the prevalence of TB in certain areas. It measures the effectiveness of a drugs in healing a disease. Necessarily, its conclusion only cover for that area. Other example of descriptive statistics in economic research: Average movement of stock prices on the stock exchange. The volatility of commodity price indexes on the futures exchange.

Commonly, Descriptive statistics describes a variable. Possibly, it also illustrate between two or more variables. For example, study on gender towards blood pressure in a hospital. The variable only blood pressure and gender as control variable. We may increase the number of variable such as age or life style. In political study, gender, age range, educational level to be important variable in choosing a candidate for leader in the election. Descriptive statistics does not merely involve only one variable. Two or more variables are possible. Essentially, the conclusions only cover the sample size.

Descriptive statistics is different with inferential statistics. In inferential statistics, the conclusion can be drawn beyond the sample size. For example, a research using 100 students as sample size, but the conclusion draws for whole college. Researcher want to examine the study habits of students in a college that has a total of 20 thousand students. Researchers certainly don’t need to interview 20 thousand students. It is enough to interview 100 to 300 students  to get the conclusion of all college. 

Descriptive VS Inferential Statistics

Inferential statistical examples in health and medicine subject:  we want to examine effectiveness of anti-hypertensive drugs A compared to drugs B. It takes 50 sample size for control and 50 sample for treatment. In inferential statistics, the conclusion was not only for 100 samples but can be greater. Another example in economics: the effect of fiscal policy toward economic growth in a country. The study uses time series data samples for 5 years. In inferential statistics, conclusions can be more than 5 years or more.

Key word of inferential research is testing the hypothesis. we temporarily test the allegations of researchers by using little data or samples of the real situation. hypothesis testing is what distinguishes descriptive statistics and inferential statistics. In descriptive statistics, there is no hypothesis testing.

The similarity of descriptive and inferential statistics is both methods are quantitative method. They use statistical measurements as conclusions. Mean, median, mode and standard deviation are the statistical measurements. Merely, In a descriptive statistics,  mean, median and mode and standard deviation only describes the sample size. whereas, in inferential statistics, there is a standard error which is the gap of mean median and mode in between sample and the population.

Furthermore, we discuss descriptive a statistics definition and me examples, we need to analysis the software. SPSS is a familiar tools widely used in various field of science. In the next article, it will be peeled out.

Linear Regression Analysis Definition

Linear Regression analysis is a statistical analysis method predicting the relationship between the independent and dependent variables. Actually many other analytical methods that can to measure the relationship between variables, but the regression analysis focuses on the relationship between the dependent variable (dependent variable) with independent variable (independent variable). In particular, regression analysis helps researchers to determine changes in the dependent variable caused by the independent variable, where other variables is constant.

Linear Regression analysis includes in group of causality analysis. In causality relationship, one variable affects other variables. independent variable is random, while dependent variable is fix. Regression analysis is different with the correlation analysis where no variable that becomes the cause variable to another variable. Therefore, in statistics, the correlation between the two variables in the analysis are constant.

Theoretically, correlation analysis figures the relationship between variables that does not have a causal relationship. Both of these variables are related only by chance. For example, the relationship between weight and height’s student. The body weight and height is probably related but the weight, certainly not cause the height or vice verca. The relationship pattern is not the same as pattern on causal relationship. The effect of certain drugs against diseases is a good sample for causality relationship.

In Linear Regression analysis, we can involve one independent variable and one dependent variable, which is commonly called a simple regression analysis. We can also involve more than one independent variables with the dependent variable which is commonly called multiple regression analysis.

Linear Regression Analysis Formula

Simply, Regression has formula as follows:

Y = a+bx+e

Y represents the independent variable. it is the response variable that will change when the x variable changes. a represents a constant/ intercept. It is a basic value that is not influenced by X variabel. Meanwhile, b represents the regression coefficient. It shows the influence value of x variabel to y. e for error is the gap between population model and sample model.

Data Analysis in Quantitative Research Proposal

Data Analysis in Quantitative Research Proposal

Definition of Data Analysis

Data analysis in quantitative research proposal is one part of the chapter that researchers need in the beginning of writing a research proposal. Whereas in the research, it is an activity after the data from all collected. Activities in data analysis are: grouping data based on variables and types of respondents, tabulating data based on variables from all respondents, presenting data for each variable studied, doing calculations to answer the problem formulation, and doing calculations to test the proposed hypothesis.

Quantitative Data Analysis Techniques

In a research proposal, it must be clear what method of analysis is capable of answering the research hypothesis. Hypothesis is a temporary answer to the research problem. Data analysis techniques in quantitative research commonly use statistics. There are two kinds of statistical data analysis in research. These are descriptive statistics and inferential statistics. Inferential statistics include parametric and non-parametric statistics.

Descriptive statistics

In preparing research proposals, researchers need to explain what is descriptive research. Descriptive statistic is a method to analyze data by describing data without intending to make generalizations. Descriptive statistics only describes the sample data and does not make conclusions that apply to the population. While, conclusion that applies to the population, then the data analysis technique is inferential statistics.
In addition descriptive statistics also function to present information in such a way that data generated from research can be utilized by others in need.

Inferential Statistics

When researchers want to generalize broader conclusions in the research proposal, it is necessary to write inferential statistics. Inferential statistics (often also commonly inductive statistics or probability statistics) are statistical techniques used to analyze sample data and the results are applied to populations. It requires a random sampling process.


Inferential research involves statistical probability. Using of probability theory is to approach sample to the population. A conclusion applying to the population has a chance of error and truth level. If the chance of error is 5%, then the truth level is 95%. While the chance of error is 1%, then the truth level is 99%. This opportunity for error and truth is the level of significance. Statistical tables are useful for carrying out tests of the significance of this error. For example, t-test will use table-t. in each table provides significance level of what percentage of the results. For example the correlation analysis found a correlation coefficient of 0.54 and for a significance of 5% it means that a variable relationship of 0.54 can apply to 95 out of 100 samples taken from a population.

Inferential statistics is a higher level then descriptive statistics. To that in the research proposal, the flow of conclusions becomes clear. Data Analysis is to make general conclusions (conclusions), make a prediction (prediction), or make an estimate (estimation).

Quantitative Research Method Definition

Quantitative Research Method Definition

Quantitative research method defines as a scientific approach that views a reality. It should be classified, concrete, observable and measurable the relationship of variables. Commonly, the data presents in the form of numbers and uses statistics method as a tool of analysis.

Quantitative research process begins with an activity of exploring the problems. Therefore, formulating research problems must be clearly. Even though, research problem in quantitative research is still temporary but it will develop after along the process. Relevant theories are to design research models and research parameters as well as the basis for making hypotheses. Theory will be the basis in the preparation of variables. In survey research, questionnaires/instruments are arranged based on research variables. The instrument need to test whether is valid and reliable. Data analysis which leads to examine the hypothesis.

Basically, quantitative analysis consists of several stages. Approximately, formulating the problem, constructing a model, obtaining data, finding solutions, testing the hypothesis, analyzing the data, and interpreting the results.

Method of analysis should refer to the purpose of study. Previously, researcher needs to identify whether the data meets the basic assumptions. While using questionnaire, data checking needs to support analysis. It need to clean the data, extreme values ​​(outliers), completeness the data.

Selection of Quantitative Methods

Format of quantitative research in social science depends on the problem and purpose of the research. There are two quantitative research formats: descriptive format and explanatory format.

The quantitative approach is deductive (from general to specific). It starts from a theory. This approach aims to test hypotheses and establish the facts or truths of a theory. The theories put forward as a standard to state whether or not a phenomenon occurs. Hypothesis is as a reinforcement of the assumption that quantitative research intends to see the relationship between variables. The final orientation is to make a conclusion that can be generalized more broadly. At the beginning, it has to be clear objections, and clearly design. For example, clarity of design, subject, variables, data, and analysis techniques. Hence, the quantitative approach is more stable. It does not allow re-designing the research procedure.

Quantitative research Characteristics

Certainly, Quantitative research has characteristics as follows:

Using deductive thinking patterns that try to understand a phenomenon by using general concepts to explain specific phenomena .
The logic of thought used is the logic of positivism and avoiding things that are subjective.
The aim of quantitative research is to compile nomothetic science, that is science that seeks to make laws from generalizations.
Data collection measures objective and use standard tools.
Contrarily, researchers position separately from the object of research. so the researcher does not emotionally involve with the research subject. Otherwise, qualitative research depends on the researcher.
In data analysis, researchers require to understand statistical techniques. It is able to analyze data after collected.
The quantitative research process follows a planned procedure involving numbers and data quantification.
The results of the study are generalizations and predictions. It is free of the context of time and situation.

Advantages of Qualitative Research Methods

Advantages of Qualitative Research Methods

A qualitative research methods is a process of research and understanding based on methodologies that investigate social phenomena and human problems. In this approach, the researcher makes a complex picture, examines words, detailed reports from the respondents’ views, and conducts studies in natural situations. Bogdan and Taylor (Moleong, 2007: 3) suggest that qualitative methodology is a research procedure that produces descriptive data in the form of written and oral words from people and observed behavior. Hence, this is the advantages of qualitative research methods. Researchers don’t need to use complicated statistical methods. it just use descriptive analysis.

Moreover, Qualitative research conducts natural conditions and discovery. In qualitative research, researchers are key instruments. Therefore, researchers must have the provision of theory and broad insights. So they can ask questions, analyze, and construct the object under study to be clearer. This research emphasizes the meaning and bound values. Qualitative research is powerful if problems are not yet clear. Even more, It finds out hidden meanings, understand social interactions, develop theories, ascertain data truths, and to examine developmental history.

Characteristics of Qualitative Research

Simply, Qualitative research is different from other studies. To find these differences, there are come characteristics of qualitative research:

  1. In qualitative research, a researcher collects data in original or natural conditions.
  2. Particularly, qualitative research concerns with the process than the results. It means in data collection often pay attention to the results and consequences of various variables influencing each other.
  3. The background of behavior or deeds search for meaning. Thus, what is behind human behavior is central to qualitative research. Prioritizing direct data or “first hand”. Qualitative research demands as much as possible for researchers to conduct their own research activities.
  4. Furthermore, the triangulation method is extensively both triangulation methods and triangulation of data sources.
  5. Concern on contextual details. The researcher collects and records very detailed data about things in the study.
  6. The subject under study is the same position as the researcher, so it is not an object or a lesser position.
  7. Prioritizing the emic perspective, meaning that the respondent’s views are concerned, namely how he views and interprets the world and its standpoint.
  8. Verification. The application of this method is through conflicting or negative cases.
  9. Use the “Audit trail”. The method in question is to include the method of data collection and analysis.
  10. Theory is basic. With data obtained from research in the field, formulate conclusions or theories.

Advantages of Qualitative Research

  1. Purposive sampling. The qualitative method uses a small sample and is chosen according to the purpose of the study. Less data means less cost.
  2. Since the beginning of the study. The data obtained are immediately analyzed until considered adequate results. it does not require a long process of data analysis.
  3. The researcher as a research tool, means that the researcher as the main tool for collecting data is the data collection method based on observations and interviews. It has flexibility in data collection
  4. In qualitative research, descriptive data collection write in the report. Data obtained from this research are in the form of words, images, and not numbers. it does not require complicated statistical methods.

Validity and Reliability of Survey Instruments

In this article, we will discuss theory about the validity and reliability of survey instrument prior to reliability. The validity is a test to measure the questionnaire content. There are three types of validity of which is:

1. The validity of contents

When a test use content validity, the items designed in a survey instrument should represent all possible indicators. The items designed as individually question allows other items broadly. Instantly, where a test tool to measure a person’s aptitude, the test tool will be difficult to define, a judgment of an expert may be able to provide an assessment of the relevance of the question items.

2. The validity related to criterion (criterion-related validity)

A measuring survey instrument is valid when it is able to measure its effectiveness in measuring criteria or indicators. In such validity, measurement or procedure will be measured by the value that has been proven valid or reality on the ground. An example, the test validity of written test for a driver, the test can be valid if the driver able to drive properly in the reality.

Test the validity of the criteria can be divided into two groups.

a. Concurrent validity

Is a validity test for survey instrument in which the criteria is similar with the benchmark. An example examines level of depression: a test has concurrent validity if it is to measure the level of depression that is being experienced by the participant. Simply, it able to measure the object in different time.

b. Predictive validity

While, predictive validity measures after testing. An example is the aptitude test, which helps measure the likelihood that someone is going to be successful on a carrier or a particular job. Researchers will only know after the study subjects underwent their work.

3. Construct Validity

Meanwhile, A validity test of survey instrument has construct validity if it is able to measure the relationship between predictions of the theoretical and empirical value.This construct validity measures the fit between the theoretical concept with more specific measurements items to measure the construct. While, Test intelligence is one example for testing the construct validity test. Finally, Researchers need to define variable then make specific measurements reflecting its latent variable.

Reliability

Reliability is consistency of research instrument when measured in different times or different subjects. Occasionally, two assessors conduct an instrument test and comparing the results. Whether it is similar, reflecting reliability. Likewise, a tools compared in different time. Consistent results mean the reliability of tool.

Difference Between Correlation vs Causation

Difference Between Correlation vs Causation

Correlation vs Causation is a common term in scientific and health research. Among which several differences can occur. Identified Finding the true cause of a phenomenon is difficult to do as scientists tell you. Sometimes, the correlation and causation are closely related, but often they are not. Basically, tend to assume that if two events have correlation, they also have causation. But this does not happen in the majority of cases. This is a problem the difference between cause and correlation. It is a mistake to assume that just because two events have correlation, both tend to cause each other. This error or tendency refer to as causal non-causal pro-causa in Latin, or simply because of the cause.

Correlation

Correlation highlights that there is a relationship between two things; but does not predict causality. Indeed, correlation and causation is similar. One event definitely leads to another thing, it’s easy to build a causal relationship. If two events occur in a phenomenon, but one does not cause the other, they are only correlated and not causal.

It is easy to say that students who watch and play video games that are full of violence, blood and gore become aggressive in nature. But it is not certain because many still remain normal even after playing in many of these games. Here it would be more appropriate to say that violent games and violent behavior has correlation. But do not always have a cause and effect relationship. Hence, there is a causal relationship between watching violent video games and subsequent aggressive behavior, every child who watches and plays this game will become abusive. The parents have to ban this game.

Sometimes researchers do not just want to know a variable correlated with other variables or not. What he wants to know more is the cause of the occurrence or emergence of dependent variables, or what independent variables are causing the emergence of dependent variables. For example, what causes employees to stress (dependent variable). Is it causes sales volume to decrease (dependent variable)? what causes consumers to be dissatisfied (dependent variable). Is it true that inappropriate advertising ( independent variable) cause the decrease in sales volume (dependent variable) ? Is it true that one’s work motivation is low (dependent variable) due to low wages or salaries (independent variable)? He wants to know is what variables are causing all the negative things (symptoms) that arise or occur. With the aim of providing solutions to existing problems (job stress, decreased sales volume, unsatisfied consumers, etc.)

Causation

The causation highlights that there is a causal relationship between two variables. Simply, this highlights that A causes B. In scientific and health studies, the problem of confusion between correlation and causation often happen. In theory, it’s easy to distinguish, but the reality is not that simple. Many events can cause another event, such as lung cancer that is only occurs due to smoking. If an event causes another event, it has correlation among others. Two events that occur together do not mean the cause, for example smoking and alcoholism go hand in hand. But it is not one other cause.

Likewise in non-social sciences, causation research able to use the influence among variables. Someone who wants to know the effect of fertilizer application on plant growth will conduct various experiments in the laboratory and in the “field”. Plant growth is not only influenced by the presence of fertilizer, in order to truly know the effect of fertilizer, other variables probably have an effect on plant growth.

When a researcher sets the title “Effect of the amount of wages on the level of employee performance”, it explicitly describes what research methods should causation research. Why? Because the word “influence has meaning” effect “or” cause “. Researchers consciously or not, have put one status variable as an independent variable (the amount of wages), and one other variable as a dependent variable (performance level).

Structural Equation Modeling Path Analysis

Structural Equation Modeling Path Analysis

Structural equation modeling (SEM) is a statistical modeling technique that is very cross-sectional, linear and general. Included in this SEM is factor analysis (factor analysis), path analysis and regression (regression). Another definition mentions structural equation modeling (SEM) is a general and very useful multivariate analysis technique that includes a number of other analytical methods as special cases.

The next definition says that Structural equation modeling (SEM) is a statistical technique to build and to test statistical models that are usually in the form of causal models. SEM is actually a hybrid technique that includes the confirmatory aspects of factor analysis, path analysis and regression.

Advantages of SEM

Slightly different from previous definitions, Structural Equation Modeling (SEM) develops and has a function similar to multiple regression. Although it seems that SEM is becoming a more powerful analytical technique. It ables to consider interaction modeling, non-linearity, correlated independent variables, measurement errors, correlated error terms, multiple latent independent variables. It has many indicators, and one or two latent dependent variables that has also several indicators. Hence, SEM can be stronger than using multiple regression, path analysis, factor analysis, time series analysis, and covariance analysis

Its ability to decipher relationships between variables and to test theoretical credibility (or models). Which uses statistical techniques based on a number of very strict assumptions (Pedhazur, 1982). Three of the assumptions are that the variables the path analysis must be without errors, errors are uncorrelated, and the variables in the model are unidirectional (not including reciprocal models).

In many studies, almost all variables are unobservable variables. Variables such as educational aspirations, anxiety tests, student perceptions are latent behavioral concepts. The use of a single indicator to fully capture something complex in a path analysis is not practical. The nature of these variables in the path analysis requires the involvement of one or several indicators to construct each latent variable.

Path Analysis

Path analysis is an extension analysis technique of the regression model, which is used to test the dependence of a number of variables in a model. This model is generally depicted in a circle image and arrow direction that shows the relationship between the independent variable, mediator variable, and the dependent variable. The model is suitable for testing research hypotheses that show direct and indirect relationships. The causal model formulated by this researcher must be based on strong theoretical considerations.

This path analysis has advantages compared other analysis techniques. It is relatively simple and easy to do. In addition, we can analyze many variables with a relatively smaller number of samples.

The Weakness

As a comparison with SEM Full model, this path analysis only uses the total score of the variables only. While the full model on the SEM is a latent score. Since, it uses total score, that there is no measurement error in one variable. Therefore it is necessary to ensure that the measuring instrument has valid and reliable. Besides, the path analysis also can not see the accuracy index of the model. Therefore between one model with another model can not be compared.

Another weakness of the path analysis is that it does not allow the possibility of a link between residual error values ​​for each endogenous variable. Testing the model with the hypothesis of a joint effect (simultaneous) is rare. It is conceivable, academic experience will not only affect student performance. There is also the possibility of student performance affecting academic experience (eg learning, participating in study groups, accessing academic resources, engaging in class discussions). Thus, the use of path analysis to overcome problems like this is inappropriate.

Quantitative Research Hypothesis Examples

Quantitative Research Hypothesis Examples

In general, a researcher arranges hypotheses based on the formulation of problems and theoretical studies. For quantitative research, the hypothesis used is a statistical hypothesis, meaning that the hypothesis must be tested using statistical rules. Whereas for qualitative research does not need to use statistical rules. In a quantitative study, the formulated statistical hypothesis has two forms, the null hypothesis (Ho) and the alternative hypothesis (Ha). In general, hypotheses for quantitative research have three types: Descriptive Hypothesis, Comparative Hypothesis, and Associative Hypothesis.

Descriptive Hypothesis

Descriptive hypotheses are temporary conjectures about the value of a variable, not expressing relationships or comparisons. Remember, only about the value of a variable. Statistics used to test descriptive hypotheses are sample mean tests or standard deviation tests. A researcher formulates hypothesis based on the problem formulation and theoretical study. Following are some examples of problem formulations (PF), hypotheses (H).
PF: What is the percentage of junior high school mathematics mastery in the subject matter of the set?
H: Junior high school mathematics teacher mastery in the subject matter reaches 70%.

PF: How good is the grade XI mastery of class XI material?
H: mastery of class X material by class XI students reaches 75%.

Comparative Hypothesis

The comparative hypothesis is a temporary construct that compares the values ​​of two variables. That is, in the comparative hypothesis, we do not determine with certainty the value of the variables we examine, but compare. Means, there are two variables that are the same, but different samples. The statistics used to test this comparative hypothesis are (assuming normality is met) using a t-test. But before that, the normality and homogeneity must be tested first.
Following are some examples of problem formulations (PF), hypotheses (H).
PF: Is there a difference in the problem-solving abilities of students who got X learning better than students who got Y learning?
H: the problem solving ability of students who get learning X is better than students who get learning Y.

PF: Are there differences in the critical thinking skills of students who study during the day are better than students who study in the morning?
H: there is no difference in the critical thinking skills of students who study in the afternoon with students who study in the morning.

The two hypothetical examples above are slightly different. In the first hypothesis, we claim that the problem solving ability of students who get learning X is better than students who get learning Y. While in the second hypothesis, there is no one-sided claim that the critical thinking skills of students who learn during the day are better or worse. We only state that there are differences. Which problem is better, it does not concern this hypothesis. The first hypothesis is a one-party test hypothesis, while the second hypothesis is called a two-party test hypothesis.

Associative Quantitative Hypothesis

The associative hypothesis is a relationship between the relationship between two variables, the dependent variable and the independent variable. The statistics are used to test this comparative hypothesis are (assuming normality is met) using Product Moment Correlation, Double Correlation, or Partial Correlation.
The following are examples of problem formulations (PF), hypotheses (H).
PF: Is there a relationship between student achievement and the level of student anxiety?
H: there is a negative relationship between student achievement with the level of student anxiety.

PF: Is there a relationship between student learning outcomes and seating arrangements?
H: there is a positive relationship between student achievement with the level of student anxiety.

In the first hypothesis there are the words ‘negative relationship’. Negative relationship means inversely proportional. That is if the level of student anxiety is high, then student achievement is low. Whereas in the second hypothesis there are the words ‘positive relationship’. Positive relationship means directly proportional. It means if the seating arrangement is good, the student learning outcomes are high.

Ordinal Scale Definition and Example

Ordinal Scale Definition and Example

Ordinal scale definition is a scale showing sequential order and also serves to group. On an ordinal scale, the difference between values does not have any meaning, but only a sequence. Ordinal scale is impossible to make statistical calculations based on average calculations and standard deviations.

This Ordinal scale is higher than the nominal scale, it is a rating scale. In the ordinal scale, the symbol of the measured numbers is to show the difference and order or level of the object according to certain characteristics. For example, level of satisfaction on the product. We can give a number with 5 = very satisfied, 4 = satisfied, 3 = less satisfied, 2 = not satisfied and 1 = very dissatisfied. Or for example in a race, the winner gets rank 1,2,3 etc. On an ordinal scale, unlike the nominal scale, to replace the numbers, we need to sort the sequence from large to small or from small to large. So, we shouldn’t make 1 = very satisfied, 2 = not satisfied, 3 = satisfied etc. Which is 1 = very satisfied, 2 = satisfied, 3 = less satisfied and so on.

Ordinal Scale More Example

In addition, although ordinal scale has a clear boundary but does not yet have a distance (difference). We do not know the distance from satisfaction from dissatisfied to less satisfied. Eventhough, very satisfied with the number 5 and very dissatisfied we give the number 1. But, we cannot say that satisfaction that is very satisfied is five times higher than that which is very dissatisfied. As on a nominal scale, it also cannot apply standard mathematical operations (arithmetic). Such as subtraction, addition, multiplication, and so on. Statistical parameters that is in accordance with ordinal scale is similar on the number and proportion. Such as mode, frequency distribution, Chi Square and several other non-parametric statistical equipment.

Ordinal Scale is a scale that is the second level of measurement, tiering into something that is ‘more’ or ‘less’ than others. This measure is to sort objects from lowest to highest and vice versa. Example: measuring sports championships, work performance, employee seniority. For example: Answer questions in the ranking. For example: strongly disagree, disagree, neutral, agree and strongly agree get symbol numbers 1, 2,3,4 and 5. These numbers are only ranking symbols, do not express numbers.

The symbol indicates the order or level of the object measured according to the characteristics. For example, we want to know the preferences of respondents towards a noodle brand. brand A, brand B, brand C, brand D and then respondents rank noodle brands by giving number 1 for the most preferred brand, number 2 for the second rank, etc. A summary of the results as follows: Brand A = 1, brand B = 2, Brand C= 3, Brand D = 4

Statistical measurement: Nominal Ordinal Interval Ratio Data

Statistical measurement: Nominal Ordinal Interval Ratio Data

In statistics we know the scale of data measurement : nominal data, ordinal data, interval, and ratio. In general it can be said that the purpose of an observation is to obtain about the condition of an object in various circumstances. Among the various measurements for objects, which are numbers, rank, length, volume, time, weight, and physical-chemical measurements.

There are four measurement scales in Statistics:

Nominal Data

Firstly nominal Scale is the simplest measurement scale. It groups objects into several groups, which have similar features will be in one group. Nominal scale measurement results not to sort but can distinguish. Common examples commonly used are gender variables. In this case the measurement results cannot be sorted (women are higher than men, or vice versa). Examples of nominal scale applications: trademarks, types of shops, sales territories.

Ordinal Data

Secondly ordinal Data describes the position or rank but do not measure the distance between ranks. Size on an ordinal scale does not give an absolute value to an object, but only a relative sequence. Furthermore, the distance between rank 1 and 2 does not have to be the same as the distance between rank 2 and 3. On an ordinal scale, the rank does not have a unit of measurement. For example: social status (high, low, medium), measurement results that classify people into high, low or medium social status. In this case, we can know the level, but the difference between social statuses (high-low, low-medium, high-medium etc.) is not necessarily the same. Example application: preference level, management position, career path.

Interval Data

Thirdly interval scale gives the numeric characteristic to objects that have nominal and ordinal scales. It has the same distance in the order of the object. Interval scale is the level of this scale above the ordinal and nominal scale. Therefore, an important feature of this scale: we can add, subtract, duplicate, and share without affecting the relative distance of the scores.

Furthermore, this scale does not have an absolute zero. We cannot interpret in full the value of a certain ratio. In interval measurement switches, the ratio between two arbitrary intervals does not depend on the value of zero and the unit of measurement, For example, measurement of temperature on a Celsius scale. If a water bath is full of 0 degrees C, 50 degrees C, and 100 degrees C, the difference between 0-50 and 50-100 degrees C is the same. We cannot say that water at 100 degrees C is twice as hot as water 50 degrees C. Example application: Employee performance appraisal (on a scale from 0-100)

Ratio Data

Further ratio scale has all the properties of the interval scale plus one trait to give information about the absolute value of the object. It aims to distinguish, sort, certain distance, and we can compare (the most complete, including all of the scales above). Example: If we want to compare the weight of two people. A weight 40 kg and B 80 kg. We can know that A is twice as heavy as A. Because the value of the numerical variable weight expresses the ratio with zero as its default. Other examples: Age, value for money, height, etc.


The measurement scale above ranks from the low level (1 nominal scale) to the highest level (4 ratio scale). Measurement Scale with a higher level of measurement can change to a lower level, but the opposite.
Knowing this measurement scale will benefit a study. In the analysis, it needs measurement and what analysis tools are fit to answer the research objectives.

Comparative Studies Definition and Statistical Analysis

Comparative Studies Definition and Statistical Analysis

Comparative analysis aims to see the difference in the average of the dependent variable between two or more groups. The comparison test (dependent variable) for the two sample groups is the T test. The test for more than two groups of samples is the F test (ANOVA). Furthermore, comparative analysis requires normal distribution. Besides the variance must be homogeneous.

T test consists of one sample sample T test and two sample t test. One sample a test to examine a group of sample against a benchmark/standard value. for example, the researcher wants to test whether one group of students has a TOEFL test score above 500 or below 500. While in the two sample T tests, the researcher compares the population mean in the two sample groups. for example, researchers will compare the average TOEFL score in class A compared with class B. Does class A have an average TOEFL score that is the same as class B?

Furthermore, 2 sample t tests consist of paired samples and independent samples. We use paired samples when we compare two groups of samples which are basically one group. For instance, we compare the TOEFL score of class A before and after training.

It’s clear that the research subjects are the same but only at different times. In this paired sample t test, the number of samples must be the same. The subject will be tested before and after.

In independent samples, the subjects is different. For example we compare class A and class B at one time. The number of samples also allows different. Since the population of class A could be different with the population of class B.

When comparing more than 2 groups, we need ANOVA test. For instance, we examine whether group A, group B and group C have the same TOEFL score. In this test, it is possible to compare the same or different subjects. For example we compare the score of TOEFL in group A group B and group C. This test is only extension of the independent sample test. Likewise comparing group A before training 1, after training 1 and after training 2. The subject is only group A.

ANOVA test is technically different in calculations with T. ANOVA test, the basis of ANOVA is not average but variance. While the basic T test is average. Essentially the purpose of both calculations is the same.

Difference Between Finite and Infinite Population

Difference Between Finite and Infinite Population

Population is a generalization area consisting of: objects / subjects that have certain qualities and characteristics determined by researchers to get conclusions.

Finite Population

A finite population is a collection of objects or individuals that are objects of research that occupy a certain area. It clear boundaries that distinguish these population groups from other populations.

For example: the population of ducks in one cage, the number of A class students, the male population in an environment, and so on.

So the population is not only people, but also objects and other natural objects. Population is also not just the amount that exists on the object / subject studied. It includes all the characteristics / properties possessed by the subject or object.

For example, doing research in college Y, then college Y is the population. College Y has a number of people / subjects and other objects. This relates to the population in terms of quantity / quantity. But college Y also has the characteristics of its people. For example: its work motivation; work discipline; leadership; organizational climate and others. Furthermore: it also has other object characteristics: such as policies, work procedures, classroom layout, graduates produced and others.

One person can be as a population. Since, one person has various characteristics: style of speech, personal discipline, hobbies, ways to get along, his leadership and others. It will conduct research on President Y’s leadership then that leadership is a sample of all the characteristics possessed by President Y.

In the medicine, one person often acts as a population but not representing the unit of analysis. The blood is unit of analysis itself. If you want to observe the blood. Certainly, the population is person due to the blood inside the person.

Infinite Population

Infinite population is a collection of objects or individuals that are no boundaries or we can not measure about the total number of individuals in the occupied territories. For example, the population of stars in space, the number of red blood cells in a person’s body, and so on.

A large population will make it difficult for researchers to conduct a research. Requiring a lot of time and money to observe all populations. For the reason that a study of only needs some elements to represent the population. That is sampling.

Basically we can change infinite populations to finite population. We only need to impose limits on the population that we will observe. For instance, infinite population of fish in the ocean. By changing the fish population space, for example we put it in a pond or aquarium. It will become a finite/limited population. Even more, limited population is able to count, rather unlimited population has a number beyond our ability to count.

Regarding population, the smallest unit in a population is an element. Element is our observation focus. In these elements we will observe the characteristics of each element. Researchers call it a variable. As a result variable is source of information of the population.

Originality Research Topics for College Students

In a scientific paper, originality of research topics is a major element when a student or researcher write paper/ thesis or research report. Originality is a novelty of the study. Good research has new findings that contribute both to science and real life. However, the challenge is how to find interesting topics while original. Since, many research topics are trapped on the plagiarism issue.

Change Research Population

If we dismantle a thesis or dissertation in the library, most of the topics refer to previous research. Whether the study whose similar topic with previous research stay original? The answer is yes. A thesis / dissertation /scientific paper has originality even though it involves previous research but different in location. For example, researchers conduct research on the effect of tariff or quota enforcement towards reducing product import in a country. Researchers in different countries can conduct research with the exact same variables. It is not plagiarism as long as researcher writes quotations with the correct rules. A study might involve the exact same variables with other studies. However, when the research location is different, it is still original paper.

In order to write a thesis / scientific research that has originality in topic, start by examining the phenomena that occur around you. Start browsing on the internet whether has similar topics of study. If there is a similar topic, begin to discover whether the conditions in the study are the same as the conditions in the phenomena you observe. If the conditions are not the same then your research topic might be original.

Combining Several Research Topics

Another way to write an original research is to combine several research topics into your main research topic. Certainly, you must read many previous research references. Furthermore, you look for the common thread of each study. Usually, between studies have a link. among the links there is a common thread to become your research topic. This way is not plagiarism.

Example in economics subject, we read some following research topics: the impact of the rise in the economy on the domestic economy; The impact of interest rates on stock index; The impact of the global economy towards domestic economy. Based on the three research topics above, we can combine into new research paper topic. for example, the influence of the global economy on the domestic economy.

In addition, you also need to pay attention on the theoretical basis that supports so that between variables interconnected.

Descriptive vs inferential statistics

Descriptive statistics definition is different with inferential statistics. Descriptive statistics only describes condition of the data through parameters such as mean, median, mode, frequency distribution and other statistical measurements. While inferential statistics conclude hypotheses based on sample data into population conclusion. In the descriptive statistics, we need to present:

1. Central tendency. Central tendency measurement most used is frequency distribution. These statistical measures are suitable for nominal and ordinal data (categorical data). While the mean is a measurement of central tendency for continuous data. Other descriptive measurement for central tendency is median (mid value) and mode (most frequent value).

2. Dispersion. Standard deviation is a dispersion measurement to represent spread of the data. It is suitable to measure diversity of numerical or continuous data. For categorical data, Range is suitable measurement.

 

Inferential vs Descriptive Statistics

While, inferential statistics is to conclude hypothesis based on the data samples into more general conclusions as whole population. Inferential research is needed if the researcher has limited research budget more efficiently so as to research done by taking several of samples less than the whole population. In the inferential study, conducted prediction. Inferential statistics requires the fulfillment of assumptions. The first assumption must be met is randomization process in sampling. This is necessary because the inferential statistics need representative population. Other assumptions that need to be met is depend on the analysis tools used. In the multiple regression analysis, the assumptions must meet multicollinearity, heteroscedasticity, autocorrelation and normality.

Statistical analysis methods used in inferential statistics are T-test, ANOVA, Anacova, regression analysis, path analysis, Structural equation modeling (SEM) and other analysis methods depending on the purpose of research. In inferential statistics, we examine hypothesis to determine whether a statistical measurement represent broader conclusions in the population. Measurement such statistics will compared to the population distribution pattern as the norm. Therefore, knowing the pattern of sample distribution to be important in inferential statistics.

Inferential Statistics in Practice

A good example of inferential statistics is in the presidential election. Many agencies conduct quick count survey to get quickly result, therefore knowing the elected presidential more quickly. The survey agency take several polling stations called TPS  as sample of the total population. TPS sample are used to generalize the overall population. Say, taken 2,000 samples of 400,000 population. The results of 2,000 polling stations are descriptive statistics. Whereas if we take the conclusions of the 400,000 polling stations is inferensial. the strength of inferential statistics depends on sampling techniques and the randomization process. If the randomization process is done correctly, then the result able to predict the population precisely. Therefore, it can save money  and time.

In the manufacturing industry, inferential statistics are very useful. Management can determine and control how many products outside the standard or defective by taking a few samples. Imagine if the management company must check all the products just to find out the defect. Certainly will spend many time and cost. Especially if we have to check all the products are packaged. Certainly not effective and efficient. Fortunately, there are Six Sigma, one of the tools used in this regard. Six Sigma principles using inferential statistics take product samples and measuring sigma or standard deviation (a measure of diversity) of the product. The number of defective products shall not exceed the certain standards.

Source reference:

1. http://www.socialresearchmethods.net/kb/statinf.php
2. https://statistics.laerd.com/statistical-guides/descriptive-inferential-statistics.php

Exploratory factor analysis vs confirmatory factor analysis

cfa

This article will discuss differences between exploratory factor analysis and confirmatory factor analysis. Exploratory factor analysis is abbreviated wit EFA , while the confirmatory factor analysis known as CFA .

About Exploratory Factor Analysis (EFA)

EFA is a statistical method to build structural model consisting set of variables. EFA is one of the factor analysis method to identify the relationship between the manifest variables in building a construct. Researcher also mention manifest variables as indicators variable. A researcher uses EFA when he does not have a beginning information in grouping set of indicators. So researchers set of indicators (manifest) then create variables. In conditions where the latent variables does not have clear indicators, the EFA is an appropriate method. Possibly, indicators of the latent variable indicators of possible overlap with other latent variables.

Researchers can use SPSS software to analyze EFA. All data of indicator input into the software. Therefore there is no assumption group of indicators. In EFA, we do not know how many factors or latent variables will create. Although researchers allow to determine how many the expected number of factors.

Factor loading is a measurement indicating into which group an indicator will gather. When the value is greater then these, then indicators will gather in the same factors.

About Confirmatory Factor Analysis (CFA)

CFA is one of factor analysis, commonly in social research. This method examines whether statistically the indicators gather consistently in a group. In the CFA, researchers test whether the data fit to the model established previously or not. The fundamental difference between the CFA and EFA is: in the CFA, researchers have prior assumption that indicators fit into a certain latent variables. Researcher has develop a hypothetical model based on the theoretical framework or previous studies referenced.

Therefore, there is an established model to examine, then the CFA test the model. CFA is a part of Structural Equation Modeling (SEM).

Fitness Measurement in CFA is the same with SEM fitness index. Chi Square, RMSEA, GFI, AGFI are some fitness index to use beyond the weighted value of each indicator.

The similarity of EFA and CFA

One of the similarity between EFA and CFA is a variance to measure the contribution of construct variables.

Normal Distribution Generator in excel

normal distribution

source: Fonlinecourses.science.psu.edu

In a study, sometimes we face a limited amount of data and data is not normally distribution. Whereas statistical data require much or at least 30 data to meet the parametric prerequisites. The question is whether allowing to use normal distribution generator with a limited numbers. The answer is allowed. Even if we only know the value of the mean (average) and standard deviation of the data, then we can perform simulations to 1000 data or more. For example, we know the value of the mean = 20 and the standard deviation is 5, and the sample from population that is normally distributed. To obtain normally distributed random numbers or a particular distribution. we can use Monte Carlo simulation using various software available.

The steps to simulate the limited data that follow a particular distribution pattern is as follows:

1.Define value starting point

To get the next random number requires starting point. However, the numbers starting point does not significantly affect the data simulation, because the starting point of this figure is just one figure among the thousands of numbers that will be obtained based on the simulation results.

 monte carlo simulation 1

2. Determine the expected population distribution

Prior to the simulation data, we must determine the distribution assumption of population data that we expect. For example, we assume that the data will follow a normal distribution pattern.

We need to know the various types of distribution in accordance with scale of the data.

If the data is a numerical scale that allows below distribution: normal distribution, log-normal, exponential, and others.

Meanwhile, if the scale is categorical, so the distribution are: binomial distribution, uniform distribution, multinomial distribution, hiper geomertric distribution and so on.

 monte carlo simulation 2

3. Determine the required assumptions for population distribution

Every distribution has certain statistical parameters. For example, if we assume a normal distribution, then at least we should know two parameters: mean and standard deviation. these two parameters will be used to generate other data.

 monte carlo simulation 3

4. Running data based on the assumption

After determining the necessary assumptions, the next process is running data. We can process/running using iteration until 1000 and even up to more than 1000 times. If we do a running 1000 times then we will get 1000 random numbers that follow the pattern of distribution that we choose.

 monte carlo simulation 4

5. Make reports

Once the data is complete for running, then the output can be clicked to display the output of any report required

 monte carlo simulation 5

The result is that we will get random numbers 1000 data that follow certain patterns of distribution, such as the normal distribution. Obviously the parameters mean (average) and standard deviation will follow the 1000 data from the above simulation. Expected with more iterative process, it will produce a smooth data approaching population data.

Similarly, limited data into a simulation process Monte carlo simulation using Crystal Ball software by Oracle.

SEM Structural Equation Modeling with Lisrel, AMOS or SMARTPLS?

olah data sem

SEM (Structural Equation Modeling), or better known as SEM is a multivariate statistical analysis method. SEM has differences in data processing regression or path analysis. SEM data processing is more complicated because SEM built by both measurement model and structural model.

To process SEM data easily, we need a statistical software. There are many software for SEM data such as: Lisrel , AMOS and Smart PLS . Among the statistical software, which is suitable for use. below’s a short review :

Advantages of Lisrel for SEM Structural Equation Modeling

Lisrel developed by Karl Joreskog and Dag Sörbom. Lisrel statistical software is the most familiar among researchers and practitioners. The advantages of the LISREL software is its ability to identify relationships between variables are complex. How to operate it consists of a choice, either with syntax and simple lisrel, making it more widely used in various discipline. Syntax certainly be favored for users who are familiar with the programming language. While SIMPLIS or simple LISREL is an alternative for those who are unfamiliar with programming languages​.

A selection of various methods of estimation are available in lisrel, so do not cling to the Maximum Likelihood estimation method. It depends on the condition of the data, estimation methods which will be used.

Disadvantages of Lisrel

One of the disadvantages is its inability to process data with small sample size. When we have a sample of less than 200 samples, while the model is complex, it is sometimes the estimation results are not in line with our expectations.

Advantages of Amos for SEM Structural Equation Modeling

As with SPSS, AMOS is a statistical software developed by IBM. Amos software helps to examine the hypothesized relationship between variables. Through this software, we can determine the level of the strength of the relationship between both variables between the latent variables and the manifest variables. How significant relationship between the variables, and how fit model hypotheses compared with real data field.

With Amos, we do not need syntax or complicated programming language to operate the software. For beginners, or those who are unfamiliar with the programming language is an advantage. Through Amos, we simply describe the latent variables and manifest variables, and then connect it using arrows are available.

Disadvantage of Amos

Advantages of Amos as well as its disadvantages. We need to create many images when the model is complex, and it was very tedious work. Whereas in Lisrel, it is more simple with programming language. We just copy and duplicate the syntax, then running, then complete the model, as complex as any models we want.

Advantages of Smart PLS

Smart PLS or Partial Least Square is a statistical software with the same goal with lisrel and AMOS. They examines the relationship between variables, good fellow latent variables and indicator variables, or manifest.

Researcher uses Smart PLS when the subject has limited number of sample. While the model is built complex. It is not run when we use Lisrel or Amos. they require the adequacy of the sample.

Another advantage of Smart PLS is its ability to process data both the  formative and reflective SEM model. Formative SEM models is a model when the indicator variables form a construct variable. So, the arrow head to construct variable from indicator variables. Otherwise, Reflective SEM Model is a model when a construct variable reflects its indicator variables. So that the arrow heads from the construct variable to its manifest variables. Statistically, the consequence is that there will be no error in the value of the indicator variable.

Disadvantages of Smart PLS

Therefore this software only to process data in small size, it is not suitable for research with large sample.

How to analyze questionnaire data using SPSS

How to analyze questionnaire data using SPSS

How to analyze questionnaire data? It must pass through various stages, ranging from data entry into the computer processing through SPSS or Ms. Excel, testing the validity and reliability, descriptive analysis and hypothesis testing. Here is the stages:

1. Validity and Reliability

What distinguishing between questionnaire data processing method with secondary data are validity. When we conducted the study with a questionnaire, so we need to test the validity and reliability of the questionnaire. Why need to do? because the questionnaire was arranged by researcher, meanwhile answering the questionnaire is respondent. The purpose is to minimize interpretation gap between researcher and respondent.

Moreover, Good questionnaire should be well understand by respondents as good as the questionnaire maker. A Questionnaire should has high level of consistency over times.

Otherwise, in secondary data, we do not need to test the validity and reliability.

2. Entry Data

Furthermore, After the questionnaires collected, it needs to input the data into a computer. The most common software for data entry is excel. Surely, spread sheet Excel are familiar among us. How to arrange the data in spread sheet. Stacking down in the spread sheet is the respondents. Meanwhile, the column fill by the item number or questionnaire answer. Likewise, Input data into SPSS is similar with spreadsheet Excel. The data arranges on row as respondent and column as question.

For closed questions, we can give score for each answer option in your question. For example, the answer: strongly agree = 5, agree = 4, neutral = 3, disagree = 2, and strongly disagree = 1. Only the score input into spread sheet.

In certain conditions, negative questions are possible? In such conditions, reversely the score of 5 changes to 1, 4 to 2 and so on.

 3. Descriptive analysis

To present the questionnaire results, researcher need to process the data using descriptive analysis. What type of graph is suitable for secondary data? Frequency distribution format is a common to present in descriptive. The display is presented how the number of respondents who answered agree, how that answer did not agree and so on.
In descriptive statistics, common measurement need to provide such as: mean, median, mode and standard deviation. However, when we provide ordinal data as mean and standard deviation, in fact we’re treating these data into numeric data.

4. Hypothesis testing to analyze questionnaire data

Is a questionnaire research able to test a hypothesis? The answer is sure. Actually, Likert scale questionnaire data is ordinal data. It is most appropriate statistical technique is non-parametric techniques. However, due to limitations of statistical tools in non-parametric analysis, somehow data transformation is applied to transform ordinal data into a numerical scale. Even though, transformation method is not a must, as long as the data distribution is normal, then statistical parametric methods can apply.

Having trouble in questionnaire data processing? contact us at +6281321898008

Data Analysis in Research Quantitative and Qualitative

Data Analysis in Research Quantitative and Qualitative

Research method is different with research techniques although it is similar in term of word. Data analysis method refers to a more general approach and data analysis technique is part of data analysis method. Research methods broadly divided into two parts: quantitative and qualitative method. Whereas, data analysis in quantitative research has various analytic techniques such as correlation techniques, regression, comparative, descriptive and such things.

Methods of data analysis in quantitative is a data processing approach through statistical or mathematical methods from primary or secondary data. The advantages of this method is more comprehensive.

Data Analysis in Quantitative Research

Quantitative data analysis method consists of several analytic techniques such as:

1. Descriptive analysis, we describe the results of the data collected it is through statistical measures such as mean, median, mode, and standard deviation.

2. Comparative analysis, we compare the fruit phenomenon with other phenomena, or we compare the same phenomenon in different subject groups.

3. Correlation Analysis, we examine the connection between a phenomena with other phenomena which in theory previously.

4. Causality Analysis, we question again causality between several phenomena in theory actually has allegedly interplay.

Quantitative data analysis methods are familiar in science, economics, engineering, medicine. Although, today many social research method applies in exact sciences, economics, engineering, medicine. So the approach used methods often use a quantitative approach.

Data Analysis in Qualitative Research

Methods of qualitative data analysis is a data processing approach in depth observations, interviews, literature data. The advantages of this method is in depth of study results.

Qualitative data analysis methods are more widely used in social sciences, law, sociology, politics, etc. Currently, many social subjects use quantitative methods. Qualitative methods provide advantages in terms of depth of analysis that is required in the social field. How can examine the culture of a particular ethnic group without a profound observation. How can explore the philosophical aspects of specific provisions in the law if no in-depth review. Obviously for such things necessary qualitative methods.

Qualitative data analysis method consists of a variety of analytical techniques such as:

1. Method of data analysis is necessary to organize qualitative data to be more organized. Why is this necessary? because as we all know that in qualitative research there is no such thing definite measurement, moreover a standardized scale such as in quantitative research.

2. The method of data analysis is necessary: ​​Coding of data needs to do, because the measures of data mostly in the form of verbal rather than in the form of numeric, the researchers need to do coding for homogenize some things that have the same meaning.

3. The method of data analysis is necessary: ​​Connect one concept with other concepts that may influence each other, the size of the relationship or influence can not be described by numbers.

4. method of data analysis is necessary to legitimate the results by comparing another concept that we-think contrary to the conclusions. How many other concepts that are contrary to the conclusions.