دانلود کتاب شبکه های عصبی مکرر: از معماری های ساده تا دروازه ای بعد از پرداخت مقدور خواهد بود
توضیحات کتاب در بخش جزئیات آمده است و می توانید موارد را مشاهده فرمایید
در صورت ایرانی بودن نویسنده امکان دانلود وجود ندارد و مبلغ عودت داده خواهد شد
نام کتاب : Recurrent Neural Networks: From Simple to Gated Architectures
ویرایش : 1
عنوان ترجمه شده به فارسی : شبکه های عصبی مکرر: از معماری های ساده تا دروازه ای
سری :
نویسندگان : Fathi M. Salem
ناشر : Springer
سال نشر : 2022
تعداد صفحات : 130
ISBN (شابک) : 9783030899288 , 9783030899295
زبان کتاب : English
فرمت کتاب : pdf
حجم کتاب : 2 مگابایت
بعد از تکمیل فرایند پرداخت لینک دانلود کتاب ارائه خواهد شد. درصورت ثبت نام و ورود به حساب کاربری خود قادر خواهید بود لیست کتاب های خریداری شده را مشاهده فرمایید.
این کتاب درسی یک درمان فشرده اما جامع ارائه می دهد که مراحل تحلیلی و طراحی را برای شبکه های عصبی مکرر از ابتدا ارائه می دهد. این درمان شبکههای عصبی عودکننده عمومی را با روشهای اصولی برای آموزش ارائه میکند که انتشار پسانداز (تعمیمشده) در طول زمان (BPTT) را ارائه میکند. این نویسنده با تمرکز بر مبانی و تفاوت های ظریف شبکه های عصبی مکرر، ارائه درمان فنی و اصولی موضوع، با دیدگاهی به سمت استفاده از چارچوب های محاسباتی کدگذاری و یادگیری عمیق، به عنوان مثال، Python و Tensorflow-Keras. شبکههای عصبی مکرر بهطور کلی از معماریهای ساده گرفته تا دروازهدار بررسی میشوند، و از ماشینآلات فنی بهینهسازی غیرمحدب تطبیقی با محدودیتهای دینامیکی استفاده میکنند تا از قدرت سیستماتیک آن در سازماندهی فرآیندهای یادگیری و آموزش استفاده کنند. این امکان جریان مفاهیم و تکنیک هایی را فراهم می کند که از طراحی و انتخاب های آموزشی پشتیبانی می کنند. رویکرد نویسنده آموزش استراتژیک لایههای خروجی را با استفاده از یادگیری نظارت شده و لایههای پنهان با استفاده از یادگیری بدون نظارت امکان میدهد تا نمایشهای داخلی کارآمدتر و عملکرد دقیقتری ایجاد کند. در نتیجه، خوانندگان قادر خواهند بود تا طرحهایی ایجاد کنند که رویههای ماهر را برای شبکههای عصبی مکرر در برنامههای هدفمند خود ایجاد کنند.
This textbook provides a compact but comprehensive treatment that provides analytical and design steps to recurrent neural networks from scratch. It provides a treatment of the general recurrent neural networks with principled methods for training that render the (generalized) backpropagation through time (BPTT). This author focuses on the basics and nuances of recurrent neural networks, providing technical and principled treatment of the subject, with a view toward using coding and deep learning computational frameworks, e.g., Python and Tensorflow-Keras. Recurrent neural networks are treated holistically from simple to gated architectures, adopting the technical machinery of adaptive non-convex optimization with dynamic constraints to leverage its systematic power in organizing the learning and training processes. This permits the flow of concepts and techniques that provide grounded support for design and training choices. The author’s approach enables strategic co-training of output layers, using supervised learning, and hidden layers, using unsupervised learning, to generate more efficient internal representations and accuracy performance. As a result, readers will be enabled to create designs tailoring proficient procedures for recurrent neural networks in their targeted applications.