دانلود کتاب پردازش اطلاعات عصبی: بیست و پنجمین کنفرانس بین المللی، ICONIP 2018، سیم ریپ، کامبوج، 13-16 دسامبر 2018، مجموعه مقالات، قسمت اول بعد از پرداخت مقدور خواهد بود
توضیحات کتاب در بخش جزئیات آمده است و می توانید موارد را مشاهده فرمایید
نام کتاب : Neural Information Processing: 25th International Conference, ICONIP 2018, Siem Reap, Cambodia, December 13-16, 2018, Proceedings, Part I
ویرایش : 1st ed.
عنوان ترجمه شده به فارسی : پردازش اطلاعات عصبی: بیست و پنجمین کنفرانس بین المللی، ICONIP 2018، سیم ریپ، کامبوج، 13-16 دسامبر 2018، مجموعه مقالات، قسمت اول
سری : Lecture Notes in Computer Science 11301
نویسندگان : Long Cheng, Andrew Chi Sing Leung, Seiichi Ozawa
ناشر : Springer International Publishing
سال نشر : 2018
تعداد صفحات : 664
ISBN (شابک) : 9783030041663 , 9783030041670
زبان کتاب : English
فرمت کتاب : pdf
حجم کتاب : 66 مگابایت
بعد از تکمیل فرایند پرداخت لینک دانلود کتاب ارائه خواهد شد. درصورت ثبت نام و ورود به حساب کاربری خود قادر خواهید بود لیست کتاب های خریداری شده را مشاهده فرمایید.
مجموعه هفت جلدی LNCS 11301-11307، مجموعه مقالات بیست و پنجمین کنفرانس بینالمللی پردازش اطلاعات عصبی، ICONIP 2018، در Siem Reap، کامبوج، در دسامبر 2018 برگزار میشود.
401 مقاله کامل ارائه شده با دقت بررسی و از بین 575 مقاله ارسالی انتخاب شدند. این مقالات به موضوعات در حال ظهور تحقیقات نظری، مطالعات تجربی و کاربردهای تکنیکهای پردازش اطلاعات عصبی در حوزههای مختلف میپردازند. جلد اول، LNCS 11301، در بخشهای موضوعی در مورد شبکههای عصبی عمیق، شبکههای عصبی کانولوشن، شبکههای عصبی بازگشتی، و شبکههای عصبی spiking سازماندهی شده است.
The seven-volume set of LNCS 11301-11307, constitutes the proceedings of the 25th International Conference on Neural Information Processing, ICONIP 2018, held in Siem Reap, Cambodia, in December 2018.
The 401 full papers presented were carefully reviewed and selected from 575 submissions. The papers address the emerging topics of theoretical research, empirical studies, and applications of neural information processing techniques across different domains. The first volume, LNCS 11301, is organized in topical sections on deep neural networks, convolutional neural networks, recurrent neural networks, and spiking neural networks.