Math for Deep Learning: What You Need to Know to Understand Neural Networks

دانلود کتاب Math for Deep Learning: What You Need to Know to Understand Neural Networks

39000 تومان موجود

کتاب ریاضی برای یادگیری عمیق: آنچه برای درک شبکه های عصبی باید بدانید نسخه زبان اصلی

دانلود کتاب ریاضی برای یادگیری عمیق: آنچه برای درک شبکه های عصبی باید بدانید بعد از پرداخت مقدور خواهد بود
توضیحات کتاب در بخش جزئیات آمده است و می توانید موارد را مشاهده فرمایید


این کتاب نسخه اصلی می باشد و به زبان فارسی نیست.


امتیاز شما به این کتاب (حداقل 1 و حداکثر 5):

امتیاز کاربران به این کتاب:        تعداد رای دهنده ها: 2


توضیحاتی در مورد کتاب Math for Deep Learning: What You Need to Know to Understand Neural Networks

نام کتاب : Math for Deep Learning: What You Need to Know to Understand Neural Networks
عنوان ترجمه شده به فارسی : ریاضی برای یادگیری عمیق: آنچه برای درک شبکه های عصبی باید بدانید
سری :
نویسندگان :
ناشر : No Starch Press
سال نشر : 2021
تعداد صفحات : 344
ISBN (شابک) : 1718501900 , 9781718501904
زبان کتاب : English
فرمت کتاب : epub    درصورت درخواست کاربر به PDF تبدیل می شود
حجم کتاب : 10 Mb



بعد از تکمیل فرایند پرداخت لینک دانلود کتاب ارائه خواهد شد. درصورت ثبت نام و ورود به حساب کاربری خود قادر خواهید بود لیست کتاب های خریداری شده را مشاهده فرمایید.

توضیحاتی در مورد کتاب :


 ریاضیات برای یادگیری عمیق ریاضی اساسی را که برای درک بحث های یادگیری عمیق لازم دارید ، به کشف اجرای پیچیده تر و استفاده بهتر از ابزارهای یادگیری عمیق ارائه می دهد. با ریاضی برای یادگیری عمیق ، ریاضیات اساسی مورد استفاده و به عنوان زمینه ای برای یادگیری عمیق را می آموزید.  شما از طریق نمونه های پایتون کار خواهید کرد تا مباحث مربوط به یادگیری عمیق را در احتمال ، آمار ، جبر خطی ، حساب دیفرانسیل و حساب ماتریس و همچنین نحوه اجرای جریان داده ها در یک شبکه عصبی ، بازگشت به پشت و تبار شیب بیاموزید. شما همچنین از Python برای کار از طریق ریاضیات استفاده می کنید که زیربنای آن الگوریتم ها است و حتی یک شبکه عصبی کاملاً کاربردی ایجاد می کند. علاوه بر این ، پوشش نزول شیب از جمله تغییراتی را که معمولاً توسط جامعه یادگیری عمیق استفاده می شود ، می یابید: SGD ، ADAM ، RMSPROP و ADAGRAD/ADADELTA.  

فهرست مطالب :


Brief Contents Contents in Detail Foreword Acknowledgments Introduction Who Is This Book For? About This Book Chapter 1: Setting the Stage Installing the Toolkits Linux macOS Windows NumPy Defining Arrays Data Types 2D Arrays Zeros and Ones Advanced Indexing Reading and Writing to Disk SciPy Matplotlib Scikit-Learn Summary Chapter 2: Probability Basic Concepts Sample Space and Events Random Variables Humans Are Bad at Probability The Rules of Probability Probability of an Event Sum Rule Product Rule Sum Rule Revisited The Birthday Paradox Conditional Probability Total Probability Joint and Marginal Probability Joint Probability Tables Chain Rule for Probability Summary Chapter 3: More Probability Probability Distributions Histograms and Probabilities Discrete Probability Distributions Continuous Probability Distributions Central Limit Theorem The Law of Large Numbers Bayes' Theorem Cancer or Not Redux Updating the Prior Bayes' Theorem in Machine Learning Summary Chapter 4: Statistics Types of Data Nominal Data Ordinal Data Interval Data Ratio Data Using Nominal Data in Deep Learning Summary Statistics Means and Median Measures of Variation Quantiles and Box Plots Missing Data Correlation Pearson Correlation Spearman Correlation Hypothesis Testing Hypotheses The t-test The Mann-Whitney U Test Summary Chapter 5: Linear Algebra Scalars, Vectors, Matrices, and Tensors Scalars Vectors Matrices Tensors Arithmetic with Tensors Array Operations Vector Operations Matrix Multiplication Kronecker Product Summary Chapter 6: More Linear Algebra Square Matrices Why Square Matrices? Transpose, Trace, and Powers Special Square Matrices The Identity Matrix Determinants Inverses Symmetric, Orthogonal, and Unitary Matrices Definiteness of a Symmetric Matrix Eigenvectors and Eigenvalues Finding Eigenvalues and Eigenvectors Vector Norms and Distance Metrics L-Norms and Distance Metrics Covariance Matrices Mahalanobis Distance Kullback-Leibler Divergence Principal Component Analysis Singular Value Decomposition and Pseudoinverse SVD in Action Two Applications Summary Chapter 7: Differential Calculus Slope Derivatives A Formal Definition Basic Rules Rules for Trigonometric Functions Rules for Exponentials and Logarithms Minima and Maxima of Functions Partial Derivatives Mixed Partial Derivatives The Chain Rule for Partial Derivatives Gradients Calculating the Gradient Visualizing the Gradient Summary Chapter 8: Matrix Calculus The Formulas A Vector Function by a Scalar Argument A Scalar Function by a Vector Argument A Vector Function by a Vector A Matrix Function by a Scalar A Scalar Function by a Matrix The Identities A Scalar Function by a Vector A Vector Function by a Scalar A Vector Function by a Vector A Scalar Function by a Matrix Jacobians and Hessians Concerning Jacobians Concerning Hessians Some Examples of Matrix Calculus Derivatives Derivative of Element-Wise Operations Derivative of the Activation Function Summary Chapter 9: Data Flow in Neural Networks Representing Data Traditional Neural Networks Deep Convolutional Networks Data Flow in Traditional Neural Networks Data Flow in Convolutional Neural Networks Convolution Convolutional Layers Pooling Layers Fully Connected Layers Data Flow Through a Convolutional Neural Network Summary Chapter 10: Backpropagation What Is Backpropagation? Backpropagation by Hand Calculating the Partial Derivatives Translating into Python Training and Testing the Model Backpropagation for Fully Connected Networks Backpropagating the Error Calculating Partial Derivatives of the Weights and Biases A Python Implementation Using the Implementation Computational Graphs Summary Chapter 11: Gradient Descent The Basic Idea Gradient Descent in One Dimension Gradient Descent in Two Dimensions Stochastic Gradient Descent Momentum What Is Momentum? Momentum in 1D Momentum in 2D Training Models with Momentum Nesterov Momentum Adaptive Gradient Descent RMSprop Adagrad and Adadelta Adam Some Thoughts About Optimizers Summary Epilogue Appendix: Going Further Probability and Statistics Linear Algebra Calculus Deep Learning Index

توضیحاتی در مورد کتاب به زبان اصلی :


Math for Deep Learning provides the essential math you need to understand deep learning discussions, explore more complex implementations, and better use the deep learning toolkits. With Math for Deep Learning, you'll learn the essential mathematics used by and as a background for deep learning.  You’ll work through Python examples to learn key deep learning related topics in probability, statistics, linear algebra, differential calculus, and matrix calculus as well as how to implement data flow in a neural network, backpropagation, and gradient descent. You’ll also use Python to work through the mathematics that underlies those algorithms and even build a fully-functional neural network. In addition you’ll find coverage of gradient descent including variations commonly used by the deep learning community: SGD, Adam, RMSprop, and Adagrad/Adadelta.  



پست ها تصادفی