ایده هوش مصنوعی که بشریت را سرنگون می کند، دهه ها مورد بحث بوده است و در ژانویه 2021، دانشمندان حکم خود را در مورد اینکه آیا ما می توانیم یک ابر هوش کامپیوتری سطح بالا را کنترل کنیم، ارائه کردند. پاسخ؟ تقریباً مطمئناً نه.
مشکل این است که کنترل یک ابرذهن بسیار فراتر از درک بشر نیازمند شبیه سازی آن ابرذهن است که بتوانیم آن را تحلیل کنیم. اما اگر ما قادر به درک آن نباشیم، ایجاد چنین شبیه سازی غیرممکن است.
نویسندگان مقاله ای در سال 2021 معتقدند قوانینی مانند "به انسان آسیب نرسانید" را نمی توان تعیین کرد مگر اینکه درک کنیم هوش مصنوعی (AI) با چه سناریوهایی روبرو خواهد شد. به محض اینکه سیستم کامپیوتری در سطحی کار می کند که از توانایی های برنامه نویسان ما فراتر می رود، دیگر قادر به تعیین محدودیت نخواهیم بود.
محققان می نویسند: «فوق هوش مشکلی اساساً متفاوت با مشکلاتی است که معمولاً تحت عنوان «اخلاق ربات» مورد مطالعه قرار می گیرند. "این به این دلیل است که ابرذهن چند وجهی است و بنابراین به طور بالقوه قادر به بسیج منابع مختلف برای دستیابی به اهدافی است که به طور بالقوه برای انسان غیرقابل درک است، چه رسد به قابل کنترل."
بخشی از استدلال تیم ناشی از آن است مشکلات توقف، توسط آلن تورینگ در سال 1936 پیشنهاد شد. چالش این است که بفهمیم آیا برنامه کامپیوتری به نتیجه میرسد و پاسخ میدهد (و متوقف میشود) یا فقط برای همیشه در تلاش برای یافتن پاسخ است.
همانطور که تورینگ با کمک ثابت کرد ریاضیات هوشمند، در حالی که ممکن است ما این را برای برخی از برنامه های خاص بدانیم، منطقاً غیرممکن است که راهی پیدا کنیم که به ما امکان دهد برای هر برنامه بالقوه ای که می توان نوشت. این ما را به هوش مصنوعی بازمی گرداند که در حالت فوق هوشمند می تواند همه برنامه های کامپیوتری ممکن را به طور همزمان در حافظه خود ذخیره کند.
همچنین جالب:
- OpenAI به هوش مصنوعی آموزش داد تا دستورات را به کد برنامه تبدیل کند
- هوش مصنوعی به دنبال امواج گرانشی خواهد بود
هر برنامه ای که مثلاً برای جلوگیری از آسیب رساندن هوش مصنوعی به انسان ها و نابود کردن جهان نوشته شود، ممکن است به نتیجه برسد یا متوقف شود - از نظر ریاضی غیرممکن است که در هر صورت کاملاً مطمئن باشیم، به این معنی که نمی توان آن را مهار کرد. ایاد رهوان، دانشمند کامپیوتر از موسسه توسعه انسانی ماکس پلانک در آلمان در ژانویه گفت: «این اساساً الگوریتم بازدارندگی را غیرقابل استفاده می کند.
به گفته محققان، جایگزینی برای آموزش اخلاق هوش مصنوعی و ممنوعیتهای تخریب جهان، که هیچ الگوریتمی نمیتواند از آن مطمئن باشد، محدود کردن قابلیتهای ابرذهن است. به عنوان مثال، ممکن است بخشی از اینترنت یا شبکه های خاصی قطع شده باشد.
نویسندگان یک مطالعه اخیر نیز این ایده را رد می کنند و معتقدند که دامنه هوش مصنوعی را محدود می کند - آنها می گویند، اگر قرار نیست از آن برای حل مشکلات فراتر از توانایی های انسانی استفاده کنیم، پس چرا اصلاً آن را ایجاد کنیم؟
اگر بخواهیم هوش مصنوعی را پیش ببریم، حتی ممکن است ندانیم که چه زمانی یک ابرهوش، فراتر از کنترل ما ظاهر می شود، بنابراین غیرقابل درک است. این بدان معناست که ما باید شروع کنیم به پرسیدن سؤالات جدی در مورد اینکه به کجا می رویم.
مانوئل کبریان، دانشمند کامپیوتر از موسسه توسعه انسانی ماکس پلانک، می گوید: «ماشین فوق هوشمندی که دنیا را اداره می کند، شبیه داستان های علمی تخیلی است. اما در حال حاضر ماشین هایی وجود دارند که به طور مستقل برخی از وظایف مهم را انجام می دهند، در حالی که برنامه نویسان به طور کامل درک نمی کنند که چگونه این را یاد گرفته اند.
بنابراین، این سوال مطرح می شود که آیا می تواند در مقطعی غیرقابل کنترل و برای بشریت خطرناک شود...
همچنین بخوانید:
- هوش مصنوعی موفق شد تابلوی نقاشی شده پیکاسو را بازتولید کند
- هوش مصنوعی به پیش بینی تصادفات جاده ای قبل از وقوع کمک می کند