Root Nationاخباراخبار فناوری اطلاعاتمدیریت یک هوش مصنوعی فوق هوشمند غیرممکن خواهد بود

مدیریت یک هوش مصنوعی فوق هوشمند غیرممکن خواهد بود

-

ایده هوش مصنوعی که بشریت را سرنگون می کند، دهه ها مورد بحث بوده است و در ژانویه 2021، دانشمندان حکم خود را در مورد اینکه آیا ما می توانیم یک ابر هوش کامپیوتری سطح بالا را کنترل کنیم، ارائه کردند. پاسخ؟ تقریباً مطمئناً نه.

مشکل این است که کنترل یک ابرذهن بسیار فراتر از درک بشر نیازمند شبیه سازی آن ابرذهن است که بتوانیم آن را تحلیل کنیم. اما اگر ما قادر به درک آن نباشیم، ایجاد چنین شبیه سازی غیرممکن است.

نویسندگان مقاله ای در سال 2021 معتقدند قوانینی مانند "به انسان آسیب نرسانید" را نمی توان تعیین کرد مگر اینکه درک کنیم هوش مصنوعی (AI) با چه سناریوهایی روبرو خواهد شد. به محض اینکه سیستم کامپیوتری در سطحی کار می کند که از توانایی های برنامه نویسان ما فراتر می رود، دیگر قادر به تعیین محدودیت نخواهیم بود.

هوش مصنوعی

محققان می نویسند: «فوق هوش مشکلی اساساً متفاوت با مشکلاتی است که معمولاً تحت عنوان «اخلاق ربات» مورد مطالعه قرار می گیرند. "این به این دلیل است که ابرذهن چند وجهی است و بنابراین به طور بالقوه قادر به بسیج منابع مختلف برای دستیابی به اهدافی است که به طور بالقوه برای انسان غیرقابل درک است، چه رسد به قابل کنترل."

بخشی از استدلال تیم ناشی از آن است مشکلات توقف، توسط آلن تورینگ در سال 1936 پیشنهاد شد. چالش این است که بفهمیم آیا برنامه کامپیوتری به نتیجه می‌رسد و پاسخ می‌دهد (و متوقف می‌شود) یا فقط برای همیشه در تلاش برای یافتن پاسخ است.

همانطور که تورینگ با کمک ثابت کرد ریاضیات هوشمند، در حالی که ممکن است ما این را برای برخی از برنامه های خاص بدانیم، منطقاً غیرممکن است که راهی پیدا کنیم که به ما امکان دهد برای هر برنامه بالقوه ای که می توان نوشت. این ما را به هوش مصنوعی بازمی گرداند که در حالت فوق هوشمند می تواند همه برنامه های کامپیوتری ممکن را به طور همزمان در حافظه خود ذخیره کند.

همچنین جالب:

هر برنامه ای که مثلاً برای جلوگیری از آسیب رساندن هوش مصنوعی به انسان ها و نابود کردن جهان نوشته شود، ممکن است به نتیجه برسد یا متوقف شود - از نظر ریاضی غیرممکن است که در هر صورت کاملاً مطمئن باشیم، به این معنی که نمی توان آن را مهار کرد. ایاد رهوان، دانشمند کامپیوتر از موسسه توسعه انسانی ماکس پلانک در آلمان در ژانویه گفت: «این اساساً الگوریتم بازدارندگی را غیرقابل استفاده می کند.

به گفته محققان، جایگزینی برای آموزش اخلاق هوش مصنوعی و ممنوعیت‌های تخریب جهان، که هیچ الگوریتمی نمی‌تواند از آن مطمئن باشد، محدود کردن قابلیت‌های ابرذهن است. به عنوان مثال، ممکن است بخشی از اینترنت یا شبکه های خاصی قطع شده باشد.

نویسندگان یک مطالعه اخیر نیز این ایده را رد می کنند و معتقدند که دامنه هوش مصنوعی را محدود می کند - آنها می گویند، اگر قرار نیست از آن برای حل مشکلات فراتر از توانایی های انسانی استفاده کنیم، پس چرا اصلاً آن را ایجاد کنیم؟

هوش مصنوعی

اگر بخواهیم هوش مصنوعی را پیش ببریم، حتی ممکن است ندانیم که چه زمانی یک ابرهوش، فراتر از کنترل ما ظاهر می شود، بنابراین غیرقابل درک است. این بدان معناست که ما باید شروع کنیم به پرسیدن سؤالات جدی در مورد اینکه به کجا می رویم.

مانوئل کبریان، دانشمند کامپیوتر از موسسه توسعه انسانی ماکس پلانک، می گوید: «ماشین فوق هوشمندی که دنیا را اداره می کند، شبیه داستان های علمی تخیلی است. اما در حال حاضر ماشین هایی وجود دارند که به طور مستقل برخی از وظایف مهم را انجام می دهند، در حالی که برنامه نویسان به طور کامل درک نمی کنند که چگونه این را یاد گرفته اند.

بنابراین، این سوال مطرح می شود که آیا می تواند در مقطعی غیرقابل کنترل و برای بشریت خطرناک شود...

همچنین بخوانید:

منبععلم
ثبت نام
اطلاع رسانی در مورد
مهمان

0 نظرات
بررسی های جاسازی شده
مشاهده همه نظرات
برای به روز رسانی مشترک شوید