مقارنة بين ( ( Faster R-CNN) و (YOLOv5) للتعرف على الاجسام المتداخلة

المؤلفون

  • Muhamad Munawar Yusro قسم علوم الحاسوب ، جامعة ماليزيا تيرينجانو ، ماليزيا. https://orcid.org/0000-0002-3074-6888
  • Rozniza Ali قسم علوم الحاسوب ، جامعة ماليزيا تيرينجانو ، ماليزيا. https://orcid.org/0000-0001-7301-5615
  • Muhammad Suzuri Hitam قسم علوم الحاسوب ، جامعة ماليزيا تيرينجانو ، ماليزيا. https://orcid.org/0000-0002-0545-4437

DOI:

https://doi.org/10.21123/bsj.2022.7243

الكلمات المفتاحية:

رؤية الكمبيوتر، الشبكة العصبية التلافيفية، سرعة r-cnn ، أدوات المطبخ ، التعرف على الأشياء المتداخلة ، Yolo

الملخص

يعد تصنيف الجسم المتداخل أحد التحديات الرئيسية التي يواجهها الباحثون الذين يعملون في اكتشاف الأشياء والتعرف عليها. معظم الخوارزميات المتاحة التي تم تطويرها قادرة فقط على تصنيف أو التعرف على الأشياء التي تكون إما منفصلة بشكل فردي عن بعضها البعض أوجسم  واحد في مشهد (مشاهد) ، ولكن لا تتداخل مع اجسام  أدوات المطبخ. في هذا المشروع ، تم اقتراح خوارزميات Faster R-CNN و YOLOv5 لاكتشاف وتصنيف جسم متداخل في منطقة المطبخ. تم تطبيق YOLOv5 و Faster R-CNN على االاجسام المتداخلة حيث من المتوقع أن يتمكن المرشح أو النواة من فصل االجسم المتداخل في الطبقة المخصصة لتطبيق النماذج. تم استخدام قاعدة بيانات الصور المعيارية لأدوات المطبخ وأدوات المطبخ المتداخلة من الإنترنتااجسام مرجعية أساسية. تم تعيين مجموعات التقييم والتدريب / التحقق عند 20٪ و 80٪ على التوالي. قام هذا المشروع بتقييم أداء هذه التقنيات وتحليل نقاط قوتها وسرعاتها بناءً على الدقة والدقة ودرجةF1.  خلصت نتائج التحليل في هذا المشروع إلى أن YOLOv5 ينتج مربعات إحاطة دقيقة بينما يكتشف Faster R-CNN المزيد من االاجسام. في بيئة اختبار مماثلة ، يُظهر YOLOv5 أداءً أفضل من خوارزمية R-CNN الأسرع. بعد التشغيل في نفس البيئة، حصل هذا المشروع على دقة 0.8912 (89.12٪) لـ YOLOv5 و 0.8392 (83.92٪) لـ Faster R-CNN ، بينما كانت قيمة الخسارة 0.1852 لـ YOLOv5 و 0.2166 لأسرع  R-CNN. تعد المقارنة بين هاتين الطريقتين هي الأكثر حداثة ولم يتم تطبيقها مطلقًا في الكائنات المتداخلة وخاصة أدوات المطبخ.

المراجع

Bashiri FS, LaRose E, Badger JC, D’Souza R M, Yu Z, Peissig P. Object Detection to Assist Visually Impaired People: A Deep Neural Network Adventure. Adv. in Vis. Comp., ISVC. 2018: 500-510.

Panchal P, Prajapati G, Patel S, Shah H, Nasriwala J. A Review of Object Detection and Tracking Methods. Int J Res Emerg Sci. Technol. 2015; 2(1): 7-12.

Nguyen K, Huynh NT, Nguyen PC, Nguyen KD, Vo ND, Nguyen TV. Detecting Objects from Space: An Evaluation of Deep-Learning Modern Approaches. Electronics. 2020; 9: 583.

Alganci U, Soydas M, Sertel E. Comparative Research on Deep Learning Approaches for Airplane Detection from Very High-resolution Satellite Images. Remote Sens. 2020; 12(3): 458.

Sharma V. Face Mask Detection Using YOLOv5 for COVID-19. MSc. [thesis]. USA: California State University; 2020.

He Y, Zeng H, Fan Y, Ji S, Wu J. Application of Deep Learning in Integrated Pest Management: A Real-Time System for Detection and Diagnosis of Oilseed Rape Pests. Mob. Inf. Syst. 2019; 2019: 1-14.

Redmon J, Divvala S, Girshick R, Farhadi A. You Only Look Once: Unified, Real-Time Object Detection. Proc. IEEE Comput. Soc. Conf. Comput. Vis. Pattern Recognit. 2016; 779-788.

Arulprakash E, Aruldoss M. A Study on Generic Object Detection with Emphasis on Future Research Directions. J King Saud Univ Comp Info Sci. 2021 Aug 12; Online first.

Ren S, He K, Girshick R, Sun J. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks. Comp Vis Patt Recog. 2016.

Cai J, Li Y. Realtime Single-stage Instance Segmentation Network Based on Anchors. Comput Electr Eng. 2021; 95: 107464. https://doi.org/10.1016/j.compeleceng.2021.107464.

Granada R, Monteiro J, Barros R C, Meneguzzi F. A Deep Neural Architecture for Kitchen Activity Recognition. The Thirtieth International Flairs Conference. 22-24 May 2017: 56-61.

Kim KY, Kim Y, Park J, Kim YS. Real-Time Performance Evaluation Metrics for Object Detection and Tracking of Intelligent Video Surveillance Systems. Asia Pac J Contemp Educ Commun Technol. 2016: 173-179. https://apiar.org.au/journal-paper/real-time-performance-evaluation-metrics-for-object-detection-and-tracking-of-intelligent-video-surveillance-systems/.

Bochkovskiy A, Wang CY, Liao HYM. YOLOv4: Optimal Speed and Accuracy of Object Detection. arXiv: Comput Vis Patt Recog. 2020 Apr 23; 1-17. https://arxiv.org/abs/2004.10934.

Redmon J, Farhadi A. YOLO9000: Better, Faster, Stronger. Proc IEEE Comput. Soc Conf Comput Vis Pattern Recognit. 2018; 1-9.

Bernardin K, Elbs Er, Stiefelhagen R. Evaluating Multiple Object Tracking Performance: The CLEAR MOT Metrics. Eurasip J Image Video Process. 2008: 246309. https://doi.org/10.1155/2008/246309.

Redmon J, Farhadi A. YOLOv3: An Incremental Improvement. arXiv:1804.02767v1 [cs.CV]. 2018 Apr 8: 1-6.

Carranza-García M, Torres-Mateo J, Lara-Benítez P, García-Gutiérrez J. On the Performance of One-Stage and Two-Stage Object Detectors in Autonomous Vehicles using Camera Data. Remote Sens. 2021; 13(1): 89.

Renjie X, Haifeng L, Kangjie L, Lin C, Yunfei L. A Forest Fire Detection System Based on Ensemble Learning. Forest. 2021; 12: 217.

Tian Z, Shen C, Chen H, He T. FCOS: Fully Convolutional One-Stage Object Detection. Proc. of the IEEE/CVF. Int Conf. Comput. Vis. 2019: 9627-9636.

Abdulmunem I A, Harba E S, Harba H S. Advanced Intelligent Data Hiding Using Video Stego and Convolutional Neural Networks. Baghdad Sci J. 2021; 18(4): 1317.

Asroni A, Ku-Mahamud K R, Damarjati, C, Slamat H B. Arabic Speech Classification Method Based on Padding and Deep Learning Neural Network. Baghdad Sci J. 2021; 18(2(Suppl.)): 0925-936.

Drid K, Allaoui M, Kherfi ML. Object Detector Combination for Increasing Accuracy and Detecting More Overlapping. Objects.Image and Signal Processing. 2020: 290-296. https://doi.org/10.1007%2F978-3-030-51935-3_31.

Hassan NF, Abdulrazzaq HI. Pose Invariant Palm Vein Identification System using Convolutional Neural Network. Baghdad Sci J. 2018; 15(4): 0502-509.

التنزيلات

منشور

2023-06-01

إصدار

القسم

article

كيفية الاقتباس

1.
مقارنة بين ( ( Faster R-CNN) و (YOLOv5) للتعرف على الاجسام المتداخلة. Baghdad Sci.J [انترنت]. 1 يونيو، 2023 [وثق 20 يناير، 2025];20(3):0893. موجود في: https://bsj.uobaghdad.edu.iq/index.php/BSJ/article/view/7243