Root Nationاخباراخبار فناوری اطلاعاتکارشناسان فناوری خواستار توقف آزمایش‌های هوش مصنوعی هستند

کارشناسان فناوری خواستار توقف آزمایش‌های هوش مصنوعی هستند

-

رهبران فناوری و محققان برجسته هوش مصنوعی امضا کردند نامه ی سرگشادهکه از آزمایشگاه‌ها و شرکت‌های هوش مصنوعی می‌خواهد تا فوراً کار خود را متوقف کنند.

امضاکنندگان، از جمله استیو وزنیاک و ایلان ماسک، توافق دارند که خطرات مستلزم یک وقفه حداقل شش ماهه از تولید فناوری‌هایی هستند که فراتر از محدوده هستند. GPT-4. این برای این است که لذت و رضایت را از سیستم‌های هوش مصنوعی که در حال حاضر وجود دارد خارج کنیم و به مردم اجازه دهیم با آنها سازگار شوند و ببینند که آنها مفید هستند.

رهبران فناوری و کارشناسان خواستار توقف آزمایش‌های هوش مصنوعی هستند

این نامه می افزاید که برای اطمینان از ایمنی سیستم های هوش مصنوعی نیاز به احتیاط و تفکر قبلی است، اما آنها نادیده گرفته می شوند. ارجاع به GPT-4، یک مدل OpenAI جدید که می‌تواند با متن به پیام‌های نوشتاری یا تصویری پاسخ دهد، در حالی است که شرکت‌ها برای ساختن سیستم‌های چت پیچیده با استفاده از این فناوری رقابت می‌کنند. مثال، Microsoft اخیراً تأیید کرده است که موتور جستجوی به روز شده Bing آن بیش از 4 هفته است که بر روی مدل GPT-7 کار می کند و گوگل اخیراً به طور رسمی معرفی کرده است. شاعر - خود سیستم هوش مصنوعی مولد مبتنی بر LaMDA.

نگرانی ها در مورد هوش مصنوعی برای مدت طولانی وجود داشته است، اما رقابت برای استفاده از پیشرفته ترین فناوری مشهود است. هوش مصنوعی اولی در حال حاضر هشدار دهنده است. در این نامه آمده است: «در ماه‌های اخیر، آزمایشگاه‌های هوش مصنوعی درگیر مسابقه‌ای کنترل‌نشده برای توسعه و پیاده‌سازی ذهن‌های دیجیتالی قدرتمندی شده‌اند که هیچ‌کس - حتی نویسندگان آنها - نمی‌توانند آن‌ها را بفهمند، پیش‌بینی کنند یا به‌طور قابل اعتماد کنترل کنند.»

رهبران فناوری و کارشناسان خواستار توقف آزمایش‌های هوش مصنوعی هستند

این نامه توسط موسسه غیرانتفاعی Future of Life (FLI) منتشر شده است که برای به حداقل رساندن خطرات فاجعه بار و وجودی جهانی و سوء استفاده از فناوری های جدید به ویژه هوش مصنوعی کار می کند. پیش از این، ماسک 10 میلیون دلار برای تحقیقات امنیتی هوش مصنوعی به FLI اهدا کرد. علاوه بر او و وزنیاک، امضاکنندگان تعدادی از رهبران جهان در زمینه هوش مصنوعی، مانند رئیس مرکز هوش مصنوعی و سیاست دیجیتال مارک روتنبرگ، فیزیکدان MIT و رئیس FLI مکس تگمارک، و نویسنده یووال نوح هراری هستند.

هراری همچنین هفته گذشته مقاله ای را در نیویورک تایمز نوشت که در مورد خطرات مرتبط با آن هشدار داد. هوش مصنوعی، که بنیانگذاران مرکز فناوری های انسانی و سایر امضاکنندگان نامه سرگشاده، تریستان هریس و آزا راسکین با او همکاری کردند.

این تماس به دنبال نظرسنجی سال گذشته از بیش از 700 محقق یادگیری ماشینی انجام شد که در آن تقریباً نیمی از آنها گفتند که احتمال "عواقب بسیار بد" هوش مصنوعی، از جمله انقراض انسان، حدود 10 درصد است. وقتی در مورد امنیت در تحقیقات هوش مصنوعی سؤال شد، 68 درصد از پاسخ دهندگان گفتند که باید بیشتر یا خیلی بیشتر انجام شود.

همچنین بخوانید:

منبعکالا
ثبت نام
اطلاع رسانی در مورد
مهمان

0 نظرات
بررسی های جاسازی شده
مشاهده همه نظرات
برای به روز رسانی مشترک شوید