توضیحاتی در مورد کتاب Information Theory: Part I: An Introduction to the Fundamental Concepts
نام کتاب : Information Theory: Part I: An Introduction to the Fundamental Concepts
عنوان ترجمه شده به فارسی : نظریه اطلاعات: بخش اول: مقدمه ای بر مفاهیم بنیادی
سری :
نویسندگان : Arieh Ben-Naim
ناشر : World Scientific
سال نشر : 2017
تعداد صفحات : 365
[363]
ISBN (شابک) : 9789813208827 , 9813208821
زبان کتاب : English
فرمت کتاب : pdf
حجم کتاب : 69 Mb
بعد از تکمیل فرایند پرداخت لینک دانلود کتاب ارائه خواهد شد. درصورت ثبت نام و ورود به حساب کاربری خود قادر خواهید بود لیست کتاب های خریداری شده را مشاهده فرمایید.
توضیحاتی در مورد کتاب :
این کتاب در مورد تعریف معیار شانون اطلاعات و برخی کمیت های مشتق شده مانند اطلاعات شرطی و اطلاعات متقابل است. برخلاف بسیاری از کتابها، که به اندازهگیری اطلاعات شانون (SMI) به عنوان «آنتروپی» اشاره میکنند، این کتاب تمایز واضحی بین SMI و آنتروپی ایجاد میکند. در فصل آخر، آنتروپی به عنوان یک مورد خاص از SMI مشتق شده است. مثال های فراوانی ارائه شده است که به خواننده در درک مفاهیم مختلف مورد بحث در این کتاب کمک می کند. مانند کتابهای قبلی نویسنده، هدف این کتاب ارائه واضح و بدون رمز و راز مفهوم اصلی در نظریه اطلاعات است - اندازهگیری اطلاعات شانون. این کتاب مفاهیم بنیادی تئوری اطلاعات را به زبانی ساده و دوستانه ارائه میکند و عاری از انواع اظهارات فانتزی و فانتزی است که توسط نویسندگان کتابهای علمی عامه پسندی که در این زمینه مینویسند، ارائه میشود. این در ارائه اندازه گیری اطلاعات شانون و تمایز واضح بین این مفهوم و آنتروپی ترمودینامیکی منحصر به فرد است. اگرچه برخی از دانش ریاضی مورد نیاز خواننده است، اما تاکید بر مفاهیم و معنای آنها بیشتر بر جزئیات ریاضی نظریه است.
فهرست مطالب :
Contents
Preface
Acknowledgements
Chapter 0: Elements of Probability Theory
Chapter 1: Introduction, Definition, and Interpretations of Shannon's Measure of Information
Chapter 2: Properties of Shannon's Measure of Information
Chapter 3: Conditional and Mutual Information
Chapter 4: Multivariate Mutual Information
Chapter 5: Entropy and the Second Law of Thermodynamics
Appendix A: Proof of an Equivalent Markovian Property
Appendix B: Proof of the Uniqueness of the Function H
Appendix C: The SMI for the Continuous Random Variable
Appendix D: Functional Derivatives and Functional Taylor Expansion
Appendix E: Some Inequalities for Convex Functions
Appendix F: Distribution Functions in 1D Models
Appendix G: Entropy Change in an Expansion Process in a Gravitational Field
Notes
References and Suggested Reading
Index
توضیحاتی در مورد کتاب به زبان اصلی :
This book is about the definition of the Shannon measure of Information, and some derived quantities such as conditional information and mutual information. Unlike many books, which refer to the Shannon's Measure of information (SMI) as "Entropy," this book makes a clear distinction between the SMI and Entropy. In the last chapter, Entropy is derived as a special case of SMI. Ample examples are provided which help the reader in understanding the different concepts discussed in this book. As with previous books by the author, this book aims at a clear and mystery-free presentation of the central concept in Information theory — the Shannon's Measure of Information. This book presents the fundamental concepts of Information theory in a friendly-simple language and is devoid of all kinds of fancy and pompous statements made by authors of popular science books who write on this subject. It is unique in its presentation of Shannon's measure of information, and the clear distinction between this concept and the thermodynamic entropy. Although some mathematical knowledge is required by the reader, the emphasis is on the concepts and their meaning rather on the mathematical details of the theory.