دانلود کتاب پیچیدگی اطلاعاتی یادگیری: دیدگاههایی درباره شبکههای عصبی و گرامر تولیدی بعد از پرداخت مقدور خواهد بود
توضیحات کتاب در بخش جزئیات آمده است و می توانید موارد را مشاهده فرمایید
نام کتاب : The Informational Complexity of Learning: Perspectives on Neural Networks and Generative Grammar
ویرایش : 1
عنوان ترجمه شده به فارسی : پیچیدگی اطلاعاتی یادگیری: دیدگاههایی درباره شبکههای عصبی و گرامر تولیدی
سری :
نویسندگان : Partha Niyogi (auth.)
ناشر : Springer US
سال نشر : 1998
تعداد صفحات : 239
ISBN (شابک) : 9781461374930 , 9781461554592
زبان کتاب : English
فرمت کتاب : pdf
حجم کتاب : 11 مگابایت
بعد از تکمیل فرایند پرداخت لینک دانلود کتاب ارائه خواهد شد. درصورت ثبت نام و ورود به حساب کاربری خود قادر خواهید بود لیست کتاب های خریداری شده را مشاهده فرمایید.
از جمله مباحث دیگر ، پیچیدگی اطلاعاتی یادگیری: چشم انداز در شبکه های عصبی و گرامر تولیدی دو مشکل یادگیری مهم اما بسیار متفاوت را در همان چارچوب تحلیلی یکسان می کند. اولین مورد مربوط به مشکل یادگیری نگاشتهای عملکردی با استفاده از شبکه های عصبی و به دنبال آن یادگیری گرامرهای زبان طبیعی در اصول و سنت پارامترهای چامسکی است.
این دو مشکل یادگیری به ظاهر بسیار متفاوت هستند. شبکه های عصبی نگاشتهای واقعی ، نامتناهی و بعدی ، نگاشتهای مداوم هستند. از طرف دیگر ، گرامرها نگاشتهای بولی ، با ارزش ، با ارزش ، بعدی ، گسسته (نمادین) هستند. علاوه بر این ، جوامع تحقیقاتی که در این دو منطقه کار می کنند تقریباً هرگز با هم همپوشانی ندارند.
هدف کتاب ، پر کردن این شکاف است. از تکنیک های رسمی توسعه یافته در نظریه یادگیری آماری و علوم نظری رایانه در طی یک دهه گذشته برای تجزیه و تحلیل هر دو نوع مشکلات یادگیری استفاده می کند. با پرسیدن همان سؤال - چقدر اطلاعات برای یادگیری لازم است؟ - از هر دو مشکل ، شباهت ها و تفاوت های آنها را برجسته می کند. نتایج خاص شامل انتخاب مدل در شبکه های عصبی ، یادگیری فعال ، یادگیری زبان و مدل های تکاملی تغییر زبان است.
پیچیدگی اطلاعاتی یادگیری: چشم اندازهای مربوط به عصبی شبکه ها و گرامر تولیدی یک کار بسیار میان رشته ای است. هرکسی که به تعامل علوم کامپیوتر و علوم شناختی علاقه مند باشد باید از کتاب لذت ببرد. محققان هوش مصنوعی ، شبکه های عصبی ، زبانشناسی ، علوم نظری رایانه و آمار آن را به ویژه مرتبط می دانند.
Among other topics, The Informational Complexity of Learning:Perspectives on Neural Networks and Generative Grammar brings together two important but very different learning problems within the same analytical framework. The first concerns the problem of learning functional mappings using neural networks, followed by learning natural language grammars in the principles and parameters tradition of Chomsky.
These two learning problems are seemingly very different. Neural networks are real-valued, infinite-dimensional, continuous mappings. On the other hand, grammars are boolean-valued, finite-dimensional, discrete (symbolic) mappings. Furthermore the research communities that work in the two areas almost never overlap.
The book's objective is to bridge this gap. It uses the formal techniques developed in statistical learning theory and theoretical computer science over the last decade to analyze both kinds of learning problems. By asking the same question - how much information does it take to learn? - of both problems, it highlights their similarities and differences. Specific results include model selection in neural networks, active learning, language learning and evolutionary models of language change.
The Informational Complexity of Learning: Perspectives on NeuralNetworks and Generative Grammar is a very interdisciplinary work. Anyone interested in the interaction of computer science and cognitive science should enjoy the book. Researchers in artificial intelligence, neural networks, linguistics, theoretical computer science, and statistics will find it particularly relevant.