Empirical Inference: Festschrift in Honor of Vladimir N. Vapnik

دانلود کتاب Empirical Inference: Festschrift in Honor of Vladimir N. Vapnik

56000 تومان موجود

کتاب استنباط تجربی: Festschrift به افتخار ولادیمیر N. Vapnik نسخه زبان اصلی

دانلود کتاب استنباط تجربی: Festschrift به افتخار ولادیمیر N. Vapnik بعد از پرداخت مقدور خواهد بود
توضیحات کتاب در بخش جزئیات آمده است و می توانید موارد را مشاهده فرمایید


این کتاب نسخه اصلی می باشد و به زبان فارسی نیست.


امتیاز شما به این کتاب (حداقل 1 و حداکثر 5):

امتیاز کاربران به این کتاب:        تعداد رای دهنده ها: 7


توضیحاتی در مورد کتاب Empirical Inference: Festschrift in Honor of Vladimir N. Vapnik

نام کتاب : Empirical Inference: Festschrift in Honor of Vladimir N. Vapnik
ویرایش : 1
عنوان ترجمه شده به فارسی : استنباط تجربی: Festschrift به افتخار ولادیمیر N. Vapnik
سری :
نویسندگان : , , ,
ناشر : Springer-Verlag Berlin Heidelberg
سال نشر : 2013
تعداد صفحات : 295
ISBN (شابک) : 9783642411359 , 9783642411366
زبان کتاب : English
فرمت کتاب : pdf
حجم کتاب : 4 مگابایت



بعد از تکمیل فرایند پرداخت لینک دانلود کتاب ارائه خواهد شد. درصورت ثبت نام و ورود به حساب کاربری خود قادر خواهید بود لیست کتاب های خریداری شده را مشاهده فرمایید.

توضیحاتی در مورد کتاب :




این کتاب به افتخار کمک‌های برجسته ولادیمیر واپنیک، نمونه‌ای نادر از دانشمندی است که عبارات زیر به طور همزمان برای او صادق است: کار او منجر به آغاز زمینه جدیدی از تحقیقات، نظریه یادگیری آماری و استنتاج تجربی؛ او زندگی کرده است تا شکوفایی مزرعه را ببیند. و او همچنان مثل همیشه فعال است. او تجزیه و تحلیل الگوریتم های یادگیری را در دهه 1960 آغاز کرد و اولین نسخه از الگوریتم پرتره تعمیم یافته را اختراع کرد. او بعداً یکی از موفق‌ترین روش‌ها را در یادگیری ماشین توسعه داد، ماشین بردار پشتیبان (SVM) - بیش از یک الگوریتم، این یک رویکرد جدید برای مشکلات یادگیری بود، که در استفاده از تحلیل عملکردی و بهینه‌سازی محدب در یادگیری ماشین پیشگام بود. /p>

قسمت اول این کتاب شامل سه فصل است که برخی از کمک های ولادیمیر واپنیک به علم را توضیح می دهد و شاهد آن است. در فصل اول، لئون بوتو در مورد مقاله اصلی منتشر شده در سال 1968 توسط Vapnik و Chervonenkis بحث می کند که پایه های نظریه یادگیری آماری را پایه گذاری می کند، و فصل دوم ترجمه انگلیسی زبان آن مقاله اصلی است. در فصل سوم، الکسی چرووننکیس گزارش دست اولی از تاریخچه اولیه SVM ها و بینش های ارزشمند در مورد اولین گام ها در توسعه SVM در چارچوب روش پرتره تعمیم یافته ارائه می دهد.

فصول باقی مانده توسط دانشمندان برجسته در حوزه هایی مانند آمار، علوم کامپیوتر نظری و ریاضیات، به موضوعات اساسی در تئوری و عمل تئوری یادگیری آماری، از جمله SVM ها و سایر روش های مبتنی بر هسته، تقویت، PAC می پردازد. -نظریه بیزی، یادگیری آنلاین و انتقالی، توابع از دست دادن، کلاس‌های تابع قابل یادگیری، مفاهیم پیچیدگی برای کلاس‌های تابع، یادگیری چندکاره، و انتخاب فرضیه. این مشارکت‌ها شامل یادداشت‌های تاریخی و زمینه‌ای، نظرسنجی‌های کوتاه، و نظراتی در مورد جهت‌های تحقیقاتی آینده است.

این کتاب برای محققان، مهندسان و دانشجویان فارغ‌التحصیل که با همه جنبه‌ها درگیر هستند مورد علاقه خواهد بود. یادگیری آماری.


فهرست مطالب :


Front Matter....Pages i-xix
Front Matter....Pages 1-1
In Hindsight: Doklady Akademii Nauk SSSR, 181(4), 1968....Pages 3-5
On the Uniform Convergence of the Frequencies of Occurrence of Events to Their Probabilities....Pages 7-12
Early History of Support Vector Machines....Pages 13-20
Front Matter....Pages 21-24
Some Remarks on the Statistical Analysis of SVMs and Related Methods....Pages 25-36
Explaining AdaBoost....Pages 37-52
On the Relations and Differences Between Popper Dimension, Exclusion Dimension and VC-Dimension....Pages 53-57
On Learnability, Complexity and Stability....Pages 59-69
Loss Functions....Pages 71-80
Statistical Learning Theory in Practice....Pages 81-93
PAC-Bayesian Theory....Pages 95-103
Kernel Ridge Regression....Pages 105-116
Multi-task Learning for Computational Biology: Overview and Outlook....Pages 117-127
Semi-supervised Learning in Causal and Anticausal Settings....Pages 129-141
Strong Universal Consistent Estimate of the Minimum Mean Squared Error....Pages 143-160
The Median Hypothesis....Pages 161-175
Efficient Transductive Online Learning via Randomized Rounding....Pages 177-194
Pivotal Estimation in High-Dimensional Regression via Linear Programming....Pages 195-204
On Sparsity Inducing Regularization Methods for Machine Learning....Pages 205-216
Sharp Oracle Inequalities in Low Rank Estimation....Pages 217-230
On the Consistency of the Bootstrap Approach for Support Vector Machines and Related Kernel-Based Methods....Pages 231-244
Front Matter....Pages 21-24
Kernels, Pre-images and Optimization....Pages 245-259
Efficient Learning of Sparse Ranking Functions....Pages 261-271
Direct Approximation of Divergences Between Probability Distributions....Pages 273-283
Back Matter....Pages 285-287

توضیحاتی در مورد کتاب به زبان اصلی :


This book honours the outstanding contributions of Vladimir Vapnik, a rare example of a scientist for whom the following statements hold true simultaneously: his work led to the inception of a new field of research, the theory of statistical learning and empirical inference; he has lived to see the field blossom; and he is still as active as ever. He started analyzing learning algorithms in the 1960s and he invented the first version of the generalized portrait algorithm. He later developed one of the most successful methods in machine learning, the support vector machine (SVM) – more than just an algorithm, this was a new approach to learning problems, pioneering the use of functional analysis and convex optimization in machine learning.

Part I of this book contains three chapters describing and witnessing some of Vladimir Vapnik's contributions to science. In the first chapter, Léon Bottou discusses the seminal paper published in 1968 by Vapnik and Chervonenkis that lay the foundations of statistical learning theory, and the second chapter is an English-language translation of that original paper. In the third chapter, Alexey Chervonenkis presents a first-hand account of the early history of SVMs and valuable insights into the first steps in the development of the SVM in the framework of the generalised portrait method.

The remaining chapters, by leading scientists in domains such as statistics, theoretical computer science, and mathematics, address substantial topics in the theory and practice of statistical learning theory, including SVMs and other kernel-based methods, boosting, PAC-Bayesian theory, online and transductive learning, loss functions, learnable function classes, notions of complexity for function classes, multitask learning, and hypothesis selection. These contributions include historical and context notes, short surveys, and comments on future research directions.

This book will be of interest to researchers, engineers, and graduate students engaged with all aspects of statistical learning.




پست ها تصادفی