Root Nationاخباراخبار فناوری اطلاعاترئیس سابق گوگل هوش مصنوعی را با سلاح های هسته ای مقایسه کرد

رئیس سابق گوگل هوش مصنوعی را با سلاح های هسته ای مقایسه کرد

-

اریک اشمیت، مدیر عامل سابق گوگل، هوش مصنوعی (AI) را با سلاح‌های هسته‌ای مقایسه کرد و خواستار یک رژیم بازدارنده، شبیه به نابودی مطمئن متقابل شد که قدرتمندترین کشورهای جهان را از نابودی یکدیگر باز دارد.

رئیس سابق گوگل هوش مصنوعی را با سلاح های هسته ای مقایسه کرد

اشمیت در نشست امنیتی آسپن در 22 ژوئیه در جریان یک بحث در مورد امنیت ملی و هوش مصنوعی درباره خطرات هوش مصنوعی صحبت کرد. وقتی از اشمیت در مورد ارزش اخلاق در فناوری پرسیده شد، توضیح داد که خودش در مورد قدرت اطلاعات در روزهای اولیه گوگل ساده لوح بود. او سپس خواستار تطابق بهتر فناوری با اخلاق و اخلاق افرادی شد که به آنها خدمت می کنند و مقایسه عجیبی بین هوش مصنوعی و سلاح های هسته ای انجام داد.

اشمیت در مورد آینده ای نزدیک صحبت کرد که در آن چین و ایالات متحده باید توافقنامه ای در زمینه هوش مصنوعی منعقد کنند. اشمیت گفت: «در دهه‌های 50 و 60، ما در نهایت جهانی را ایجاد کردیم که در آن قانون «غافلگیرکننده» برای آزمایش‌های هسته‌ای وجود داشت و در نتیجه، آنها ممنوع شدند. "این نمونه ای از تعادل اعتماد یا عدم اعتماد است، این قاعده "عدم تعجب" است. من بسیار نگران هستم که نگاه ایالات متحده به چین به عنوان فاسد یا کمونیست یا هر چیز دیگری، و نگاه چین به آمریکا به عنوان یک بازنده... به مردم اجازه دهد که بگویند "اوه خدای من، آنها در حال چیزی هستند" و سپس چیزی غیر قابل درک آغاز خواهد شد... .

هوش مصنوعی و یادگیری ماشینی یک فناوری جذاب و اغلب سوء تفاهم است. او اساساً آنقدرها که مردم فکر می کنند باهوش نیست. این می تواند آثار هنری در سطح شاهکار خلق کند، مردم را در Starcraft II شکست دهد و تماس های تلفنی ابتدایی را برای کاربران برقرار کند. با این حال، تلاش برای انجام کارهای دشوارتر، مانند رانندگی با ماشین در یک شهر بزرگ، موفقیت آمیز نبوده است.

اشمیت در مورد آینده ای نزدیک خیالی صحبت می کند که در آن چین و ایالات متحده هر دو نگران مسائل امنیتی خواهند بود، که آنها را وادار می کند تا نوعی معاهده برای مهار هوش مصنوعی منعقد کنند. او دهه های 1950 و 60 را به یاد آورد، زمانی که دیپلماسی مجموعه ای از کنترل ها را در مورد مرگبارترین سلاح های روی کره زمین ایجاد کرد. اما یک دهه انفجار هسته‌ای و مهم‌تر از همه، تخریب هیروشیما و ناکازاکی طول کشید تا صلح پیش از انعقاد پیمان منع آزمایش هسته‌ای، SALT II و سایر قوانین مهم دیگر محقق شود.

دو شهر ژاپنی که در پایان جنگ جهانی دوم توسط آمریکا ویران شدند جان ده ها هزار نفر را گرفتند و وحشت ابدی سلاح های هسته ای را به جهانیان ثابت کردند. سپس دولت های روسیه و چین برای دستیابی به سلاح هجوم آوردند. روشی که ما با احتمال استفاده از این تسلیحات زندگی می کنیم، همان چیزی است که به عنوان نابودی تضمین شده متقابل (MAD) شناخته می شود، یک نظریه بازدارندگی که تضمین می کند که اگر یک کشور سلاح هسته ای را پرتاب کند، ممکن است هر کشور دیگری این کار را انجام دهد. ما از مخرب ترین سلاح های روی کره زمین استفاده نمی کنیم زیرا این امکان وجود دارد که حداقل تمدن در سراسر جهان را نابود کند.

با وجود نظرات رنگارنگ اشمیت، ما MAD را برای هوش مصنوعی نمی‌خواهیم یا به آن نیاز نداریم. اول اینکه هوش مصنوعی هنوز قدرت تخریب خود را در مقایسه با سلاح های هسته ای ثابت نکرده است. اما صاحبان قدرت از این فناوری جدید و معمولاً به دلایل اشتباه می ترسند. مردم حتی پیشنهاد داده اند که کنترل تسلیحات هسته ای را به هوش مصنوعی بسپارند و معتقدند که این هوش مصنوعی داوری بهتر از انسان برای استفاده از آن خواهد بود.

رئیس سابق گوگل هوش مصنوعی را با سلاح های هسته ای مقایسه کرد

مشکل هوش مصنوعی این نیست که قدرت مخرب بالقوه یک سلاح هسته ای را دارد. نکته این است که هوش مصنوعی فقط به خوبی افرادی است که آن را توسعه داده‌اند و ارزش‌های خالقانش را حمل می‌کند. هوش مصنوعی از مشکل کلاسیک «آشغال در، زباله بیرون» رنج می‌برد: الگوریتم‌های نژادپرستانه روبات‌های نژادپرست ایجاد می‌کنند و تمام هوش مصنوعی تعصبات سازندگانش را به همراه دارد.

به نظر می رسد دمیس حسابیس، مدیرعامل DeepMind، شرکتی که هوش مصنوعی را که بازیکنان Starcraft II را شکست می دهد، بهتر از اشمیت درک کرده است. در مصاحبه ای در ماه ژوئیه در پادکست Lex Friedman، فریدمن از Hassabis پرسید که چگونه می توان فناوری قدرتمندی مانند هوش مصنوعی را کنترل کرد و چگونه Hassabis خود می تواند از فاسد شدن توسط این قدرت جلوگیری کند.

پاسخ خصابیس در مورد خودش است. او گفت: «هوش مصنوعی یک ایده خیلی بزرگ است. "مهم است که چه کسی هوش مصنوعی را ایجاد می کند، از چه فرهنگ هایی آمده و ارزش های آنها چیست. سیستم‌های هوش مصنوعی به تنهایی یاد می‌گیرند، اما سیستم با فرهنگ و ارزش‌های نویسندگان سیستم باقی می‌ماند."

هوش مصنوعی بازتابی از نویسنده آن است. نمی تواند یک شهر را با یک انفجار 1,2 مگاتنی با خاک یکسان کند. مگر اینکه شخصی این را به او یاد دهد.

شما می توانید به اوکراین در مبارزه با مهاجمان روسی کمک کنید. بهترین راه برای انجام این کار، کمک مالی به نیروهای مسلح اوکراین است Savelife یا از طریق صفحه رسمی NBU.

همچنین بخوانید:

منبعمعاون
ثبت نام
اطلاع رسانی در مورد
مهمان

0 نظرات
بررسی های جاسازی شده
مشاهده همه نظرات
برای به روز رسانی مشترک شوید