البحث المتقدم

تحسين نحل العشب الهجين - مصنف تعليمي متطرف متعدد الأطراف: استراتيجية اندماج متعدد الوحدات واختيار أفضل للميزات لتحليل المشاعر متعددة الوسائط في مقاطع فيديو الوسائط الاجتماعية

Title Hybrid grass bee optimization-multikernal extreme learning classifier: Multimodular fusion strategy and optimal feature selection for multimodal sentiment analysis in social media videos

الباحث الرئيس سامي محمد احمد الشمراني

الباحثون المشاركون

التخصص: تقنية المعلومات
التخصص الدقيق:
المستخلص: في الوقت الحاضر ، يتم تحميل التسجيلات الكبيرة مثل الصوت والفيديو يوميًا على الشبكات العامة وخاصة Facebook و YouTube وما إلى ذلك. مثل هذه المنشورات تولد بيانات غير محدودة عبر الإنترنت. على مدى العقود القليلة المقبلة ، يعتبر التكيف والتعامل مع التنقيب عن البيانات للحصول على التفاصيل ذات الصلة من وسائل التواصل الاجتماعي مهمة صعبة. لمواجهة هذه التحديات ، تم اقتراح طريقة جديدة لتحليل المشاعر متعددة الوسائط تعتمد على الاتساق في الصوت والصورة في هذه الورقة. يفحص هذا النظام المقترح العلاقة بين النص والصوت والفيديو متبوعًا بتحليل المشاعر متعدد الوسائط. يتم استخراج مجموعة مختلفة من الميزات ثم يتم اختيار الميزات المستخرجة على النحو الأمثل من خلال استخدام خوارزمية تحسين نحل عشب هجين جديدة (HGBEE) وبالتالي الحصول على مجموعة ميزات تحتوي على قيمة مثالية لدقة أفضل ووقت تشغيل منخفض. ثم يتم تطوير اندماج متعدد الوسائط بمستوى الكلام فيما يتعلق بميزات النص والصوت والفيديو. أخيرًا ، يتم استخدام المصنف التعليمي المتطرف متعدد النواة المقترح (MKELM) لتصنيف المشاعر. ثم يتم تقييم النظام المقترح عن طريق الاختبار باستخدام ثلاث مجموعات بيانات متعددة الوسائط من حيث الدقة والدقة والتذكر وقياس F ، على التوالي. من المحاكاة ، يتضح أن النظام المقترح يحقق أقصى قيمة لدقة التصنيف تبلغ 98.3٪ مع وقت حساب ضئيل. يتم تنفيذ نهجنا المقترح في إطار منصة MATLAB.
Abstract: Presently, large recordings like audio and video are uploaded each day on the public networks particularly Facebook, YouTube, etc. Such postings generate unlimited data via the Internet. Over the next few decades adapting and dealing with data mining to obtain relevant details from social media is considered as a difficult task. To tackle these challenges, a novel text-audio-video consistency-driven multimodal sentiment analysis method is proposed in this paper. This proposed system examines the cor- relation among the text, audio and video followed by multimodal sentiment analysis. A different set of features are extracted and then the extracted features are chosen optimally by employing a new hybrid grass bee optimization algorithm (HGBEE) thus obtaining a feature set containing an optimal value for better precision and low com- putational time. Then an utterance level multimodular fusion regarding text, audio, and video features is developed. Finally, the proposed multikernal extreme learning clas- sifier (MKELM) is employed for sentiment classification. Then the proposed system is evaluated by testing with three multimodal datasets in terms of precision, accuracy, recall, and F-measure, respectively. From the simulation, it is clear that the proposed system accomplishes the maximum classification accuracy value of 98.3% with mini- mum computation time. The implementation of our proposed approach is done under the MATLAB platform.
الحالة: محكم ومنشور
جهة التحكيم:
دار النشر:
سنة النشر: 0
تحويل التاريخ