دانلود کتاب استنباط تجربی: Festschrift به افتخار ولادیمیر N. Vapnik بعد از پرداخت مقدور خواهد بود
توضیحات کتاب در بخش جزئیات آمده است و می توانید موارد را مشاهده فرمایید
نام کتاب : Empirical Inference: Festschrift in Honor of Vladimir N. Vapnik
ویرایش : 1
عنوان ترجمه شده به فارسی : استنباط تجربی: Festschrift به افتخار ولادیمیر N. Vapnik
سری :
نویسندگان : Léon Bottou (auth.), Bernhard Schölkopf, Zhiyuan Luo, Vladimir Vovk (eds.)
ناشر : Springer-Verlag Berlin Heidelberg
سال نشر : 2013
تعداد صفحات : 295
ISBN (شابک) : 9783642411359 , 9783642411366
زبان کتاب : English
فرمت کتاب : pdf
حجم کتاب : 4 مگابایت
بعد از تکمیل فرایند پرداخت لینک دانلود کتاب ارائه خواهد شد. درصورت ثبت نام و ورود به حساب کاربری خود قادر خواهید بود لیست کتاب های خریداری شده را مشاهده فرمایید.
این کتاب به افتخار کمکهای برجسته ولادیمیر واپنیک، نمونهای نادر از دانشمندی است که عبارات زیر به طور همزمان برای او صادق است: کار او منجر به آغاز زمینه جدیدی از تحقیقات، نظریه یادگیری آماری و استنتاج تجربی؛ او زندگی کرده است تا شکوفایی مزرعه را ببیند. و او همچنان مثل همیشه فعال است. او تجزیه و تحلیل الگوریتم های یادگیری را در دهه 1960 آغاز کرد و اولین نسخه از الگوریتم پرتره تعمیم یافته را اختراع کرد. او بعداً یکی از موفقترین روشها را در یادگیری ماشین توسعه داد، ماشین بردار پشتیبان (SVM) - بیش از یک الگوریتم، این یک رویکرد جدید برای مشکلات یادگیری بود، که در استفاده از تحلیل عملکردی و بهینهسازی محدب در یادگیری ماشین پیشگام بود. /p>
قسمت اول این کتاب شامل سه فصل است که برخی از کمک های ولادیمیر واپنیک به علم را توضیح می دهد و شاهد آن است. در فصل اول، لئون بوتو در مورد مقاله اصلی منتشر شده در سال 1968 توسط Vapnik و Chervonenkis بحث می کند که پایه های نظریه یادگیری آماری را پایه گذاری می کند، و فصل دوم ترجمه انگلیسی زبان آن مقاله اصلی است. در فصل سوم، الکسی چرووننکیس گزارش دست اولی از تاریخچه اولیه SVM ها و بینش های ارزشمند در مورد اولین گام ها در توسعه SVM در چارچوب روش پرتره تعمیم یافته ارائه می دهد.
p>
فصول باقی مانده توسط دانشمندان برجسته در حوزه هایی مانند آمار، علوم کامپیوتر نظری و ریاضیات، به موضوعات اساسی در تئوری و عمل تئوری یادگیری آماری، از جمله SVM ها و سایر روش های مبتنی بر هسته، تقویت، PAC می پردازد. -نظریه بیزی، یادگیری آنلاین و انتقالی، توابع از دست دادن، کلاسهای تابع قابل یادگیری، مفاهیم پیچیدگی برای کلاسهای تابع، یادگیری چندکاره، و انتخاب فرضیه. این مشارکتها شامل یادداشتهای تاریخی و زمینهای، نظرسنجیهای کوتاه، و نظراتی در مورد جهتهای تحقیقاتی آینده است.
این کتاب برای محققان، مهندسان و دانشجویان فارغالتحصیل که با همه جنبهها درگیر هستند مورد علاقه خواهد بود. یادگیری آماری.
This book honours the outstanding contributions of Vladimir Vapnik, a rare example of a scientist for whom the following statements hold true simultaneously: his work led to the inception of a new field of research, the theory of statistical learning and empirical inference; he has lived to see the field blossom; and he is still as active as ever. He started analyzing learning algorithms in the 1960s and he invented the first version of the generalized portrait algorithm. He later developed one of the most successful methods in machine learning, the support vector machine (SVM) – more than just an algorithm, this was a new approach to learning problems, pioneering the use of functional analysis and convex optimization in machine learning.
Part I of this book contains three chapters describing and witnessing some of Vladimir Vapnik's contributions to science. In the first chapter, Léon Bottou discusses the seminal paper published in 1968 by Vapnik and Chervonenkis that lay the foundations of statistical learning theory, and the second chapter is an English-language translation of that original paper. In the third chapter, Alexey Chervonenkis presents a first-hand account of the early history of SVMs and valuable insights into the first steps in the development of the SVM in the framework of the generalised portrait method.
The remaining chapters, by leading scientists in domains such as statistics, theoretical computer science, and mathematics, address substantial topics in the theory and practice of statistical learning theory, including SVMs and other kernel-based methods, boosting, PAC-Bayesian theory, online and transductive learning, loss functions, learnable function classes, notions of complexity for function classes, multitask learning, and hypothesis selection. These contributions include historical and context notes, short surveys, and comments on future research directions.
This book will be of interest to researchers, engineers, and graduate students engaged with all aspects of statistical learning.