How to Stay Smart in a Smart World: Why Human Intelligence Still Beats Algorithms

دانلود کتاب How to Stay Smart in a Smart World: Why Human Intelligence Still Beats Algorithms

38000 تومان موجود

کتاب چگونه در دنیای هوشمند باهوش بمانیم: چرا هوش انسانی هنوز الگوریتم ها را شکست می دهد؟ نسخه زبان اصلی

دانلود کتاب چگونه در دنیای هوشمند باهوش بمانیم: چرا هوش انسانی هنوز الگوریتم ها را شکست می دهد؟ بعد از پرداخت مقدور خواهد بود
توضیحات کتاب در بخش جزئیات آمده است و می توانید موارد را مشاهده فرمایید


این کتاب نسخه اصلی می باشد و به زبان فارسی نیست.


امتیاز شما به این کتاب (حداقل 1 و حداکثر 5):

امتیاز کاربران به این کتاب:        تعداد رای دهنده ها: 5


توضیحاتی در مورد کتاب How to Stay Smart in a Smart World: Why Human Intelligence Still Beats Algorithms

نام کتاب : How to Stay Smart in a Smart World: Why Human Intelligence Still Beats Algorithms
عنوان ترجمه شده به فارسی : چگونه در دنیای هوشمند باهوش بمانیم: چرا هوش انسانی هنوز الگوریتم ها را شکست می دهد؟
سری :
نویسندگان :
ناشر : The MIT Press
سال نشر : 2022
تعداد صفحات : 320
ISBN (شابک) : 0262046954 , 9780262046954
زبان کتاب : English
فرمت کتاب : rar    درصورت درخواست کاربر به PDF تبدیل می شود
حجم کتاب : 16 Mb



بعد از تکمیل فرایند پرداخت لینک دانلود کتاب ارائه خواهد شد. درصورت ثبت نام و ورود به حساب کاربری خود قادر خواهید بود لیست کتاب های خریداری شده را مشاهده فرمایید.

توضیحاتی در مورد کتاب :


چگونه در دنیایی که پر از الگوریتم‌هایی است که ما را در شطرنج شکست می‌دهند، شرکای عاشقانه پیدا می‌کنند و به ما می‌گویند "در 500 یارد به راست بپیچید"، پر از الگوریتم‌ها بمانیم.

پیشگویان روز رستاخیز تکنولوژی پیش بینی می کنند که ربات ها جهان را تسخیر خواهند کرد و انسان ها را در غبار پشت سر خواهند گذاشت. تقویت‌کنندگان صنعت فناوری فکر می‌کنند جایگزینی افراد با نرم‌افزار ممکن است جهان را به مکانی بهتر تبدیل کند - در حالی که منتقدان صنعت فناوری به شدت در مورد سرمایه‌داری نظارتی هشدار می‌دهند. علیرغم دیدگاه های متفاوت آنها نسبت به آینده، همه آنها موافقند: ماشین ها به زودی همه چیز را بهتر از انسان انجام خواهند داد. در
چگونه در دنیای هوشمند باهوش بمانیم، گرد گیگرنزر نشان می‌دهد که چرا این درست نیست، و به ما می‌گوید چگونه می‌توانیم در دنیای پر از الگوریتم‌ها مسئول بمانیم.
 
ماشین‌هایی که با هوش مصنوعی کار می‌کنند در برخی چیزها (بازی شطرنج) خوب هستند، اما در موارد دیگر (تصمیم‌گیری‌های مرگ و زندگی یا هر چیزی که شامل عدم قطعیت است) خوب نیستند. Gigerenzer توضیح می‌دهد که چرا الگوریتم‌ها اغلب در یافتن شرکای عاشقانه برای ما شکست می‌خورند (عشق شطرنج نیست)، چرا ماشین‌های خودران قربانی اشتباه تانک‌های روسی می‌شوند، و چگونه قضات و پلیس به طور فزاینده‌ای به الگوریتم‌های غیرشفاف «جعبه سیاه» برای پیش‌بینی اینکه آیا یک مجرم متهم دوباره مرتکب جرم شده یا در دادگاه حاضر می شود. او
آینه سیاه را فراخوانی می‌کند، پارادوکس حریم خصوصی را در نظر می‌گیرد (مردم حریم خصوصی می‌خواهند، اما داده‌هایشان را می‌دهند)، و توضیح می‌دهد که رسانه‌های اجتماعی ما را با برنامه‌نویسی تقویت متناوب در شکل جذب می‌کنند. از دکمه "پسندیدن". Gigerenzer به ما می‌گوید ما نباید بدون قید و شرط به فناوری هوشمند اعتماد کنیم، اما نباید بدون فکر از آن بترسیم.


توضیحاتی در مورد کتاب به زبان اصلی :


How to stay in charge in a world populated by algorithms that beat us in chess, find us romantic partners, and tell us to “turn right in 500 yards.”

Doomsday prophets of technology predict that robots will take over the world, leaving humans behind in the dust. Tech industry boosters think replacing people with software might make the world a better place—while tech industry critics warn darkly about surveillance capitalism. Despite their differing views of the future, they all agree: machines will soon do everything better than humans. In
How to Stay Smart in a Smart World, Gerd Gigerenzer shows why that’s not true, and tells us how we can stay in charge in a world populated by algorithms.
 
Machines powered by artificial intelligence are good at some things (playing chess), but not others (life-and-death decisions, or anything involving uncertainty). Gigerenzer explains why algorithms often fail at finding us romantic partners (love is not chess), why self-driving cars fall prey to the Russian Tank Fallacy, and how judges and police rely increasingly on nontransparent “black box” algorithms to predict whether a criminal defendant will reoffend or show up in court. He invokes
Black Mirror, considers the privacy paradox (people want privacy, but give their data away), and explains that social media get us hooked by programming intermittent reinforcement in the form of the “like” button. We shouldn’t trust smart technology unconditionally, Gigerenzer tells us, but we shouldn’t fear it unthinkingly, either.



پست ها تصادفی