دانلود کتاب بهینه سازی عملی ریاضی: نظریه پایه و الگوریتم های مبتنی بر گرادیان بعد از پرداخت مقدور خواهد بود
توضیحات کتاب در بخش جزئیات آمده است و می توانید موارد را مشاهده فرمایید
نام کتاب : Practical Mathematical Optimization: Basic Theory and Gradient-Based Algorithms
ویرایش : 1
عنوان ترجمه شده به فارسی : بهینه سازی عملی ریاضی: نظریه پایه و الگوریتم های مبتنی بر گرادیان
سری : Applied Optimization
نویسندگان : Jan Snyman
ناشر : Springer
سال نشر : 2005
تعداد صفحات : 267
ISBN (شابک) : 0387243488 , 9780387243481
زبان کتاب : English
فرمت کتاب : djvu درصورت درخواست کاربر به PDF تبدیل می شود
حجم کتاب : 2 مگابایت
بعد از تکمیل فرایند پرداخت لینک دانلود کتاب ارائه خواهد شد. درصورت ثبت نام و ورود به حساب کاربری خود قادر خواهید بود لیست کتاب های خریداری شده را مشاهده فرمایید.
این کتاب اصول اولیه بهینهسازی و الگوریتمهای مبتنی بر گرادیان را به صورت مختصر و خواندنی و بدون غفلت از دقت به مخاطبان عام ارائه میکند. این کار باید متخصصان را قادر سازد که تئوری و الگوریتمهای بهینهسازی را در زمینههای کاربردی خاص مورد علاقه خود، اعم از مهندسی، فیزیک، شیمی یا اقتصاد کسب و کار، به کار ببرند. مهمتر از همه، برای اولین بار در یک کار نسبتاً مختصر و مقدماتی، توجه لازم به مشکلات - مانند نویز، ناپیوستگی ها، هزینه های ارزیابی عملکرد، و وجود حداقل های چندگانه - که اغلب به طور غیر ضروری استفاده از گرادیان را مهار می کند، معطوف شده است. روش های مبتنی بر در فصل جداگانهای در مورد روشهای جدید مبتنی بر گرادیان که توسط نویسنده و همکارانش ایجاد شده است، نشان داده شده است که چگونه میتوان بر این مشکلات بدون از دست دادن ویژگیهای مطلوب روشهای مبتنی بر گرادیان کلاسیک غلبه کرد.
This book presents basic optimization principles and gradient-based algorithms to a general audience in a brief and easy-to-read form, without neglecting rigor. The work should enable professionals to apply optimization theory and algorithms to their own particular practical fields of interest, be it engineering, physics, chemistry, or business economics. Most importantly, for the first time in a relatively brief and introductory work, due attention is paid to the difficulties – such as noise, discontinuities, expense of function evaluations, and the existence of multiple minima – that often unnecessarily inhibit the use of gradient-based methods. In a separate chapter on new gradient-based methods developed by the author and his coworkers, it is shown how these difficulties may be overcome without losing the desirable features of classical gradient-based methods.