no comments

SEM dengan pembolehubah tidak normal

Dalam tahun-tahun kebelakangan ini, terdapat juga perkembangan penting dalam memahami akibat pelanggaran andaian yang mendasari analisis SEM dan dalam membangunkan prosedur yang mantap yang boleh digunakan semasa pelanggaran soccur. Menyelidiki andaian normal yang mendasari kebanyakan analisis SEM yang dijalankan dalam amalan adalah contoh utama dari titik ini. Walaupun data psikologi sering kurang dicirikan oleh pengagihan biasa (Curran et al 1996, Micceri 1989), kebanyakan SEM menggunakan kaedah teori normal seperti kemungkinan maksimum (ML) dan kuadrat terkecil (GLS) – apabila menganggarkan parameter model dan ujian model kebaikan fi. Menurut Yuan & Bentler (2001), para penyelidik jarang mempertimbangkan sifat-sifat pengagihan data mereka sebelum menunaikan SEM walaupun mereka telah digalakkan melakukannya selama sekurang-kurangnya 15 tahun (Breckler 1990). Menggalakkan pengagihan sebelum memodelkan model statistik parametrik adalah amalan statistik yang bijak (Tukey 1980). Penyimpangan daripada normalisasi juga dapat dikesan dengan mengkaji momen-momen yang lebih tinggi seperti mual dan kurtosis multivariate Mardia (Bollen 1989, halaman 420; Mardia 1970, 1974). Sebelum membuat model, para penyelidik juga perlu memaparkan untuk outliers (Bollen 1987, Lee & Xu 2003, Yuan & Bentler 2001) kerana “walaupun struktur yang dicadangkan adalah betul untuk majoriti data dalam sampel, sebilangan kecil outlier Mengarahkan kepada penganggar yang berat sebelah dan statistik ujian penting “(Yuan & Bentler2001, p.161). Bagi struktur kovarians, terdapat beberapa kaedah untuk mengesan outliers dan vektor data fluktuasi (Lee & Xu2003, Reise & Widaman 1999). EQS (Bentler 2004) sangat kuat dalam bidang ini. Kaedah teori normal, seperti ML dan GLS, diturunkan di bawah anggapan bahawa data adalah multivariate normal (MVN), andaian yang jauh lebih ketat daripada normal univariat. Ahli-ahli statistik cenderung memihak kepada kaedah teori biasa, apabila ia didapati, kerana ia menghasilkan taksiran parameter yang (a) asimtotically tidak berat sebelah (dalam sampel besar mereka tidak terlalu besar atau tidak terlalu kecil), (b) asimtotically ef fiient (dalam sampel besar mereka kepelbagaian pensampelan terkecil dari mana-mana penganggar taksiran yang lain), dan (c) konsisten (sampel anggaran menumpu kepada nilai populasi mereka sebagai saiz sampel meningkat) apabila data adalah MVN dan model adalah betul. Kaedah teori normal untuk struktur kovarians juga menghasilkan parameter standard error dan statistik ujian (TML, TGLS) yang diedarkan sebagai variasi chi-square. Walaupun TML khususnya sering dilaporkan dalam penerbitan empirik, para penyelidik biasanya lebih bergantung pada indeks fi deskriptif yang kurang peka terhadap kesan saiz sampel (untuk perbincangan mengenai batasan lain yang berkaitan dengan statistik ujian ini, lihat Tomarken & Waller 2003). Yang penting, apabila data tidak MVN, sifat yang diingini para penganggar teori normal mungkin tidak dapat dicapai. Sebagai contoh, dengan data tidak normal, statistik ujian ML (TML) cenderung menolak model sebenar lebih kerap daripada kadar penolakan nominal (0.05) (Curran et al 1996, Fouladi 2000). Kesalahan standard ML juga menjadi lemah apabila MVN tidak dipenuhi. Kesilapan standard yang berat sebelah ke bawah mengakibatkan kadar kesilapan Type I bersayap apabila ujian z dan Wald digunakan untuk menilai signifikansi parameter. Penganggar GLS menghasilkan hasil yang serupa. Terusan data tidak normal jadi mempunyai kesan lain yang tidak diingini. Sebagai contoh, seperti yang dikaji di atas, pembolehubah laten yang tidak normal boleh membawa kepada pengekstrakan kelas laten palsu dalam analisis pemodelan campuran laten (Bauer & Curran 2003, 2004). Kita juga perlu ambil perhatian bahawa ketidakstabilan skor yang diperhatikan mungkin atau mungkin tidak disebabkan oleh pemboleh ubah laten yang tidak normal. Sebagai contoh, skor yang diperhatikan tidak normal mungkin mewakili penunjuk kasar yang dikategorikan (mis., Item biner atau Likert) yang mendasari kontinua dengan pengagihan normal. Penganggar alternatif dan statistik ujian boleh digunakan dengan data tersebut (Muth’en 1993; Muth’en & Kaplan 1985, 1992). Perbincangan di atas tentang kesan-kesan vitiating data tidak normal dalam struktur kovarians telah menyebabkan beberapa butiran penting secara teoritis. Secara teknikalnya, dalam SEM, normalisasi pelbagai variasi adalah memadai tetapi tidak merupakan syarat yang diperlukan untuk merealisasikan desiderata penganggar teori biasa (lihatBollen1989, ms.126-128). Satu cawangan statistik yang dikenali sebagai teori kekukuhan gejala (Browne1987, Browne & Shapiro 1988) telah mengenal pasti beberapa syarat di mana banyak (tetapi tidak semua) sifat penganggar ML terus memegang dengan data tidak normal. Malangnya, seperti yang dinyatakan oleh Bentler & Dudgeon (1996), “teori kekukuhan asimtotik tidak dapat diandalkan dalam amalan, kerana praktikal tidak mungkin untuk menilai sama ada keadaannya dipenuhi” (ms 572). Akibatnya, jika kekurangan MVN adalah keprihatinan-seperti yang sepatutnya dalam kebanyakan kajian klinikal-penyelidik harus mempertimbangkan kaedah yang diterangkan dalam perenggan berikut. Satu pendekatan untuk berurusan dengan data tidak normal adalah dengan menggunakan penganggar dengan anggapan pengedaran kurang ketat. Kaedah bebas pengedaran asymptotic Browne (1982, 1984) (yang disebut WLS dalam LISREL dan AGLS dalam EQS) mungkin merupakan kaedah yang paling terkenal di kelas ini. Malangnya, kaedah bebas pengedaran asimtotik kurang baik dalam sampel bersaiz realistik (mis., Chou et al 1991, Curranetal.1996, Fouladi2000). Penemuan ini telah membawa ahli statistik kembali kepada penganggar ML dengan matlamat untuk meningkatkan prestasi dengan data tidak normal. Di SEM, dua pendekatan untuk meningkatkan prestasi ML telah menunjukkan janji. Satu pendekatan memohon pembetulan pembetulan kepada statistik ujian ML, TML, dan menggunakan ralat standard yang mantap untuk mengurangkan berat sebelah. Statistik ujian Satorra-Bentler (TSB) dan kesilapan standard yang mantap (Satorra & Bentler 1986, 1988, 1994) adalah pembetulan terbaik yang dipelajari kepada penganggar teori biasa dalam struktur kovarians dan kedua-dua pilihan boleh didapati secara meluas dalam pakej SEM. Statistik ini juga boleh dikira dengan menggunakan arahan dalam Bentler & Dudgeon (1996, pp.587-588). Banyak kajian Monte Carlo menyokong kegunaan pembetulan ini (Chouetal.1991, Curran et al 1996, Fouladi 2000, Hu et al 1992 ) dan mereka sangat disyorkan apabila bekerja dengan data yang tidak normal. Dalam sampel yang lebih kecil (N <400 dengan data luar biasa yang tidak normal; lihat Boomsma & Hoogland 2001 untuk maklumat lanjut) fungsi TSB tidak baik; Oleh itu, dalam sampel yang lebih kecil dengan data tidak normal, Statistika Ujian Berasaskan Yuan-Bentler (Bentler & Yuan 1999, Yuan & Bentler 1998b) atau YuanBentler Residual Berdasarkan Statistik mungkin lebih baik (Yuan & Bentler 1998a). Ujian baru ini, serta varian TSB untuk data yang hilang, dimasukkan ke dalam versi terbaru EQS dan pasti akan menjalani pengawasan lanjut pada tahun-tahun yang akan datang. Sebelum meninggalkan topik ini, kita tidak sepatutnya bersikap etata yang tidak boleh digunakan untuk ujian perbezaan chi-kuadrat tradisional kerana perbezaan antara TSB model bersarang tidak diagihkan sebagai chi-square. Satorra & Bentler (2001, ms 511) menerangkan kaedah yang sesuai untuk menguji model bersarang dengan TSB. Kaedah perangkap bot (Efron1979) mewakili pilihan kedua apabila memfleksikan struktur kovarians kepada data tidak normal (Bollen & Stine 1993, Yung & Bentler 1996, Yuan & Hayashi2003). Kaedah ini semporti menjana pengagihan sampingan melalui resampling tanpa penggantian dari data asal. Menggunakan sampel bootstrap, para penyelidik dapat menganggarkan tahap signifikansi yang tepat untuk TML dan kesilapan standard yang sesuai (iaitu, dengan kebarangkalian liputan yang betul) untuk pelbagai parameter model termasuk kesan langsung dan tidak langsung (Bollen & Stine1990). Kajian kesimpulan (Enders 2002, Nevitt & Hancock 2001) bootstrap ini berfungsi dengan baik dalam konteks ini dan ia mengatasi TSB dan kesilapan standard yang kukuh dalam sampel kecil (Enders 2002, Fouladi 2000, Nevitt & Hancock 2001). Malangnya, dalam sampel yang sangat kecil (N <100), bootstrap juga menghasilkan keputusan yang tidak tepat untuk struktur kovarians. Butang perangkap boot kini termasuk dalam kebanyakan pakej SEM. Walau bagaimanapun, pembaca perlu memberi amaran bahawa tidak semua program mengira pembahagian persampelan bootstrap yang betul untuk statistik ujian seperti TML. Seperti yang dinyatakan oleh Bollen & Stine (1993), perkiraan bootstrap statistik nisbah kemungkinan seperti TML, matriks data yang konsisten. Dengan reka bentuk, model-konsisten data fi t model dengan tepat. Bollen & Stine (1993; lihat juga Enders 2002) menunjukkan cara mengubah data mentah menjadi data konsisten model.

Sumber : Andrew J. Tomarken1 and Niels G. Waller2

Maklumat Bengkel SEM/AMOS level 2 :

Kursus: 2 Hari Kursus Pemodelan Persamaan Struktur menggunakan AMOS Tahap 2

Tarikh: 27-28 September 2019 ( Tahap 2)

Masa : 8.30 pagi – 5.30 petang ( Jumaat – Sabtu)

Tempat: Seksyen 7, 43650 Bandar Baru Bangi, Selangor

Bahasa: Bahasa Inggeris

Penceramah: Prof. Dr. Zainudin Awang

Pendaftaran : https://goo.gl/forms/NQbChMTTV5tUYz8I2

KOMEN ANDA

Komen

TENTANG KAMI | PENAFIAN | HUBUNGI | HANTAR ARTIKEL