اختيار المتغيرات باستخدام خوارزمية Gibbsالمطورة وتطبيقها على بيانات Rock Strength

محتوى المقالة الرئيسي

Ghadeer J. M. Mahdi
https://orcid.org/0000-0003-4870-4034
Othman M. Salih
https://orcid.org/0000-0002-9908-8748

الملخص

اختيار المتغيرات مهمة ضرورية ومطلوبة في مجال النمذجة الإحصائية. حاولت العديد من الدراسات تطوير وتوحيد طرق اختيار المتغيرات، ولكن من الصعب القيام بذلك. السؤال الأول الذي يحتاج الباحث أن يسأل نفسه عنه هو ما هو أهم المتغيرات التي يجب استخدامها لوصف الاستجابة لمجموعة بيانات معينة. في هذا العمل، تمت مناقشة طريقة جديدة في الاستدلال بايزي لأختيار المتغيرات باستخدام تقنيات عينات Gibbs. بعد تحديد النموذج، تم اشتقاق التوزيعات الخلفية لجميع المعلمات. تم اختبار طريقة الاختيار للمتغير الجديد باستخدام 4 مجاميع من البيانات. تمت مقارنة الطريقة الجديدة مع بعض الطرق المعروفة التي هي قليل مربعات الخطأ (OLS)، عامل انكماش مطلق واختيار (Lasso)، وتسوية تيكونوف (Ridge). أظهرت دراسات المحاكاة أن أداء طريقتنا أفضل من الأخرى حسب الخطأ ووقت الاستهلاك. تم تطبيق الطرق على مجموعة بيانات Rock Strength، وكانت الطريقة الجديدة التي تم تقديمها أكثر كفاءة ودقة.

تفاصيل المقالة

كيفية الاقتباس
1.
اختيار المتغيرات باستخدام خوارزمية Gibbsالمطورة وتطبيقها على بيانات Rock Strength. Baghdad Sci.J [انترنت]. 1 يونيو، 2022 [وثق 19 نوفمبر، 2024];19(3):0551. موجود في: https://bsj.uobaghdad.edu.iq/index.php/BSJ/article/view/5159
القسم
article

كيفية الاقتباس

1.
اختيار المتغيرات باستخدام خوارزمية Gibbsالمطورة وتطبيقها على بيانات Rock Strength. Baghdad Sci.J [انترنت]. 1 يونيو، 2022 [وثق 19 نوفمبر، 2024];19(3):0551. موجود في: https://bsj.uobaghdad.edu.iq/index.php/BSJ/article/view/5159

المراجع

Bahassine S, Madani A, Al-Sarem M, Kissi M. Feature selection using an improved Chi-square for Arabic text classification. JKSU. 2018 May 24.

Surendiran B, Vadivel A. Feature selection using stepwise ANOVA discriminant analysis for mammogram mass classification. IJRTET. 2010 May;3(2):55-7.

Sutter JM, Kalivas JH. Comparison of forward selection, backward elimination, and generalized simulated annealing for variable selection. MICJ. 1993 Feb 1;47(1-2):60-6.

Pierna JA, Abbas O, Baeten V, Dardenne P. A Backward Variable Selection method for PLS regression (BVSPLS). Analytica chimica acta. 2009 May 29;642(1-2):89-93.

Piepho HP. Ridge regression and extensions for genomewide selection in maize. Crop Science. 2009 Jul 1;49(4):1165-76.

Bair E, Hastie T, Paul D, Tibshirani R. Prediction by supervised principal components. JASA. 2006 Mar 1;101(473):119-37.

Chimisov C, Latuszynski K, Roberts G. Adapting the Gibbs sampler. arXiv preprint arXiv:1801.09299. 2018 Jan 28.

Mandt S, Hoffman MD, Blei DM. Stochastic gradient descent as approximate Bayesian inference. JMLR. 2017 Jan 1;18(1):4873-907.

Mahdi GJ. A Modified Support Vector Machine Classifiers Using Stochastic Gradient Descent with Application to Leukemia Cancer Type Dataset. BSJ. 2020 Dec 1;17(4):1255-1266. DOI: 10.21123/bsj.2020.17.4.1255.

Al-Sharea Z. Bayesian Model for Detection of Outliers in Linear Regression with Application to Longitudinal Data. Thesis, 2017.

Syring N, Hong L, Martin R. Gibbs posterior inference on value-at-risk. Scandinavian Actuarial Journal. 2019 Aug 9;2019(7):548-57.

Zhang Q, Mahdi G, Tinker J, Chen H. A graph-based multi-sample test for identifying pathways associated with cancer progression. Computational Biology and Chemistry. 2020 May 26:107285. DOI: 10.1016/j.compbiolchem.2020.107285.

Van Ravenzwaaij D, Cassey P, Brown SD. A simple introduction to Markov Chain Monte–Carlo sampling. PB&R. 2018 Feb 1;25(1):143-54.

Mahdi GJ, Chakraborty A, Arnold ME, Rebelo AG. Efficient Bayesian modeling of large lattice data using spectral properties of Laplacian matrix. Spatial statistics. 2019 Mar 1;29:329-50. DOI: 10.1016/j.spasta.2019.01.003.

Efthymiou C, Hayes TP, Stefankovic D, Vigoda E, Yin Y. Convergence of MCMC and loopy BP in the tree uniqueness region for the hard-core model. SIAM Journal on Computing. 2019;48(2):581-643.