هوش مصنوعی خطرناک و جذاب

34536454.354.3543545645464.646.4
صفحه اصلی
 search
صفحه اصلی
قبلی
مجهزترین آموزشگاه رباتیک
مجهزترین آموزشگاه رباتیک
مشاهده
همراه ایده های شما تا ثبت اختراع
همراه ایده های شما تا ثبت اختراع
مشاهده
پذیرش نماینگی فعال در استان شما....
پذیرش نماینگی فعال در استان شما....
مشاهده
استعدادیابی و اعزام به مسابقات کشوری و بین المللی
استعدادیابی و اعزام به مسابقات کشوری و بین المللی
مشاهده
جستجو
۱۳۹۶/۹/۲۵ شنبه
(0)
(0)
هوش مصنوعی خطرناک و جذاب
هوش مصنوعی خطرناک و جذاب
همین چند روز پیش سی‌‌ِن‌ان تیتر زد که:«کره‌ی شمالی را فراموش کنید، هوش‌مصنوعی جنگ‌جهانی سوم را آغاز خواهد کرد.» این نخستین هشداری نیست که درباره هوش مصنوعی صادر شده است. پیش از بیل گیتس و استفان هاوکینگ هم نسبت به خطرات این پدیده هشدار داده بودند.

پوتین رییس جمهوری روسیه معتقد است، کشور پیش‌رو در توسعه هوش مصنوعی آینده جهان را در دست خواهد داشت، اما اگر هوش مصنوعی اختیار را در دست بگیرد چطور؟ آیا باید از ترس این رخداد توسعه هوش مصنوعی را متوقف کرد؟  همان‌طور که «سم هریس» نویسنده آمریکایی، فیلسوف عصب‌پژوه، وبلاگ ​نویس در یکی از سخنرانی‌هایش می‌گوید؛ زمانی که یک فناوری جدید معرفی می‌شود دیگر نمی‌توان آن را مخفی کرد یا به حالت قبل از اختراع برگرداند. او ادعا می‌کند که نمی‌توان جلوی آهنگ پیشرفت را گرفت، حتی اگر بشریت بتواند به صورت دسته‌جمعی چنین تصمیمی بگیرد. بنابراین گسترش و توسعه هوش مصنوعی از نظر هریس گریز ناپذیر است. واقعیت هم همین است، همین چندی پیش بود که بیشتر از ۱۰۰ متخصص فناوری و هوش مصنوعی نسبت به توسعه ربات‌های قاتل هشدار دادند. این نامه که با تلاش « ایلان ماسک» تهیه شده بود، نشان داد متوقف کردن هوش مصنوعی کاری غیر ممکن است و باید برای قانون‌گذاری و ایجاد محدودیت در برخی زمینه‌ها تلاش کرد. تلاش برای اجتناب از این‌که هوش مصنوعی تبدیل به قاتل ما شود و یا همچون فیلم ماتریکس ما را تبدیل به برده ربات‌ها کند. شاید ایجادمحدودیت و قانون‌گذاری از این جهت کارساز باشد، اما آیا این محدودیت‌ها در روابط انسان و ربات هم کارساز خواهد بود؟

افول انسانیت

چند روز پیش خبری منتشر مبنی بر این‌که یک ربات هوشمند، مراقبت و نگهبانی از کمپ بی‌خانمان‌ها را در سان‌فرانسیسکو بر عهده گرفته است. از اتفاق یا عامدانه این ربات هوشمند دقیقا به شکل ربات‌های نگهبان فیلم روبوکاپ ساخته شده‌اند. این شاید طلیعه عصر سرکوب رباتیک باشد، اما اتفاق اصلی مدت‌ها قبل افتاده است؛ افول انسانیت. مثلا در بسیاری از کشورها شما برای دسترسی به سیستم درمانی باید از کد بیمه و تلفن‌های گویا استفاده کنید. ماشین در این سیستم‌ها پاسخ‌گوی شما است و شما با انسانی طرف نیستید که موقعیت ویژه خودتان را برایش شرح دهید. احساس همدردی از روابط اینچنینی رخت بربسته است. حالا در مورد ربات پایشگر کمپ بی خانمان‌ها هم همین است، بی خانمان‌ها از این پس با نگهبانی روبرو هستند، که صرفا دستورات را اجرا می‌کند، اینجا هم از همدردی خبری نیست. بنابراین شاید در شروع کار ما به صورت نشان داده شده در فیلم ماتریکس تبدیل به ابزار تولید برق برای ماشین‌ها نشویم، اما حداقل در آغاز خبری از درک و رابطه انسانی نیست. شاید این اتفاق با پیشرفت و توسعه هوش مصنوعی رخ بدهد، اما مسلما سازندگان سلاح‌های رباتیک، این ویژگی را در ربات‌هایشان نخواهند گنجاند.

پیش به سوی تکینگی

اما گنجاندن احساس در ربات‌ها زمانی است که ما یک هوش مصنوعی واحد داشته باشیم، این زمانی است که به آن تکینیگی می‌گویند، موقعیتی که تمام هوش تولید شده در یک قالب واجد جمع می‌شود. این اتفاق خطرناکی است؛ چنین دست‌آوردی ممکن است برای ما خوب باشد اما ممکن برای ما گران تمام شود. برای مثال ری کرزویل ادعا می‌کند که: « هوش‌مصنوعی فناوری اساسی در دستیابی پیشرفت است. برای تشخیص این وعده یک الزام اخلاقی داریم، البته باید خطرات آن را هم کنترل کنیم.» از نظر او بشریت وقت زیادی برای توسعه‌ی راهبردهای اخلاقی و استانداردهای نظم‌دهنده دارد اما بسیاری معتقدند از همین حالا باید شروع کرد. بحث‌های اخلاقی درباره تصمیم‌گیری‌های ماشین‌های خودران نمونه‌ای از این نیاز مبرم است. هم‌چنانکه جهان به سمت مرزهای منتقدان و هواداران هوش‌مصنوعی بر سر یک چیز توافق دارند: انفجار هوش‌مصنوعی، دنیا را فراتر از تصورات تغییر خواهد داد. حالا این ما هستیم که باید راهی بیابیم که این تغییرات به نفع ما باشد، حتی شاید لازم باشد ربات‌هایی بسیازیم که از خودمان برای ما دلسوزتر باشند و در مواقع لزوم از دستوراتی که به ضرر انسانیت است، سرپیچی کنند. اما این تصویری رویایی است و هرچه باشد، آینده تاریک جهان ماتریکس با هوش مصنوعی نزدیک‌تر به نظر می‌رسد، اما هنوز فرصت باقی است، فرصت برای این‌که قرص آبی را انتخاب کنیم، یا قرص قرمز را.

نظرات کاربران
*نام و نام خانوادگی
* پست الکترونیک
* متن پیام

بستن
*نام و نام خانوادگی
* پست الکترونیک
* متن پیام

0 نظر
تمامی خدمات و محصولات این سایت، حسب مورد دارای مجوزهای لازم از مراجع مربوطه می باشند و فعالیت های این سایت تابع قوانین و مقررات جمهوری اسلامی ایران است.
شرکت سازنده