تنفيذ شبكات عصبية عميقة على وحدات التحكم الدقيقة للتعرف على الكلام
Title Implementation of Deep Neural Nets on Microcontrollers for Speech Recognition
الباحث الرئيس فضل نور
الباحثون المشاركون
التخصص: علوم الحاسب
التخصص الدقيق: الشبكات العصبية
المستخلص: انتشرت أساليب التحسين المستوحاة من الطبيعة والشبكات العصبية للتعلم العميق في الأدبيات. تم استخدام خوارزميات التحسين في مجموعة متنوعة من المشكلات مثل عناصر التحكم والبحث والتقدير والعديد من المجالات الأخرى في حين تم استخدام الشبكات العصبية بشكل أساسي في مشاكل التنبؤ والتصنيف. في هذا العمل ، يتم استخدام الشبكات العصبية مع خوارزميات تحسين الاستدلال لحساب الأوزان المثلى. على وجه الخصوص ، يتم استخدام خوارزمية الخفاش الموزعة المتوازية (PDBA) للحصول على أوزان مثالية للشبكات العصبية للتعلم العميق. يتم تنفيذ الخوارزميات على Arduino ، متحكم مفتوح المصدر ، ويتم دراسة تطبيق في أنظمة التحكم باستخدام التعرف على الكلام. نظرًا لأن عملية الشبكة العصبية مكثفة ، يتم اقتراح العديد من وحدات التحكم الدقيقة في تكوين العبد الرئيسي. الكلام هو أسرع طريقة للتواصل بين البشر ، وقد تم إجراء بحث مكثف في التعرف على الكلام بين البشر والآلات. في هذا البحث ، يتم استخدام الترميز التنبؤي الخطي (LPC) لاستخراج ميزات الكلام ويتم تدريب الشبكات العصبية للتعلم العميق مع عينات ميزات الكلام في تطبيق يتم التحكم فيه بالصوت.
Abstract: Nature inspired optimization methods and Deep Learning Neural Networks have been proliferated in the literature. The optimization algorithms have been used in variety of problems such as controls, search, estimation, and many other areas whereas the Neural Networks have mainly been used in prediction and classification’s problems. In this work, Neural networks with heuristics optimization algorithms are employed to compute the optimum weights. In particular, a Parallel Distributed Bat Algorithm (PDBA) is used to obtain optimum weights of Deep Learning Neural Networks. The algorithms are implemented on an Arduino, an open source microcontroller and an application in control systems is studied using speech recognition. As the neural network process is compute intensive, multiple microcontrollers are proposed in a master-slave configuration. Speech is the fastest way for communications between humans, and extensive research has been done in speech recognition between humans and machines. In this research, Linear Predictive Coding (LPC) is used for extracting speech features and Deep Learning Neural Networks are trained with speech feature samples in a voice-controlled application.