توضیحاتی در مورد کتاب Learning with recurrent neural networks
نام کتاب : Learning with recurrent neural networks
عنوان ترجمه شده به فارسی : یادگیری با شبکه های عصبی مکرر
سری : Lecture Notes in Control and Information Sciences 254
نویسندگان : Barbara Hammer
ناشر : Springer
سال نشر : 2000
تعداد صفحات : 159
ISBN (شابک) : 185233343X , 1100110011
زبان کتاب : English
فرمت کتاب : djvu درصورت درخواست کاربر به PDF تبدیل می شود
حجم کتاب : 2 مگابایت
بعد از تکمیل فرایند پرداخت لینک دانلود کتاب ارائه خواهد شد. درصورت ثبت نام و ورود به حساب کاربری خود قادر خواهید بود لیست کتاب های خریداری شده را مشاهده فرمایید.
توضیحاتی در مورد کتاب :
به عنوان مثال، شبکههای تاشو، تعمیم شبکههای عصبی مکرر به ورودیهای ساختار یافته درختی، به عنوان مکانیزمی برای یادگیری قوانین در دادههای نمادین کلاسیک مورد بررسی قرار میگیرند. معماری، مکانیسم آموزشی و کاربردهای متعدد در زمینه های مختلف توضیح داده شده است. سپس یک مبانی نظری، که ثابت میکند اصولاً رویکرد بهعنوان مکانیزم یادگیری مناسب است، ارائه میشود: توانایی تقریب جهانی آنها مورد بررسی قرار گرفته است - شامل چندین نتیجه جدید برای شبکههای عصبی عودکننده استاندارد مانند مرزهای صریح بر روی تعداد مورد نیاز نورون و فوقالعاده. قابلیت تورینگ شبکه های بازگشتی سیگموئیدی یادگیریپذیری نظری اطلاعات مورد بررسی قرار میگیرد - شامل چندین سهم در یادگیری وابسته به توزیع، پاسخ به یک سوال باز مطرح شده توسط Vidyasagar، و تعمیم چارچوب شانس اخیر به کلاسهای تابع. در نهایت، پیچیدگی آموزش در نظر گرفته می شود - از جمله نتایج جدید در مورد مشکل بارگذاری برای شبکه های پیشخور استاندارد با معماری چند لایه دلخواه، تعداد همبسته نورون ها و اندازه مجموعه آموزشی، تعداد متغیری از نورون های پنهان اما بعد ورودی ثابت، یا سیگموئیدی تابع فعال سازی، به ترتیب
فهرست مطالب :
Front Matter....Pages I-X
Introduction....Pages 1-4
Recurrent and folding networks....Pages 5-18
Approximation ability....Pages 19-49
Learnability....Pages 51-101
Complexity....Pages 103-131
Conclusion....Pages 133-135
Back Matter....Pages 137-150
توضیحاتی در مورد کتاب به زبان اصلی :
Folding networks, a generalisation of recurrent neural networks to tree structured inputs, are investigated as a mechanism to learn regularities on classical symbolic data, for example. The architecture, the training mechanism, and several applications in different areas are explained. Afterwards a theoretical foundation, proving that the approach is appropriate as a learning mechanism in principle, is presented: Their universal approximation ability is investigated- including several new results for standard recurrent neural networks such as explicit bounds on the required number of neurons and the super Turing capability of sigmoidal recurrent networks. The information theoretical learnability is examined - including several contribution to distribution dependent learnability, an answer to an open question posed by Vidyasagar, and a generalisation of the recent luckiness framework to function classes. Finally, the complexity of training is considered - including new results on the loading problem for standard feedforward networks with an arbitrary multilayered architecture, a correlated number of neurons and training set size, a varying number of hidden neurons but fixed input dimension, or the sigmoidal activation function, respectively