Root Nationاستاتفن آوری هاOpenAI Project Q*: چیست و چرا این پروژه یک نگرانی است

OpenAI Project Q*: چیست و چرا این پروژه یک نگرانی است

-

اسرار امیز پروژه س* از OpenAI باعث نگرانی کارشناسان شده است. آیا او واقعا می تواند برای بشریت خطرناک باشد؟ چه چیزی در مورد او شناخته شده است؟ بعد از اینکه سم آلتمن در ابتدا هفته گذشته اخراج شد و او و تیم تقریباً به آنجا رفتند Microsoft، سپس به محل کار خود بازگشت (در مورد آن اینجا نوشتیم)، OpenAI دوباره در اخبار است. این بار به دلیل آنچه برخی از محققان آن را تهدیدی برای بشریت می نامند. بله، درست خواندید، تهدیدی برای بشریت.

تحول واقعی در دنیای فناوری توسط پروژه Q* - یک پروژه ناشناس هوش مصنوعی عمومی (AGI) - با تلفظ Q-Star ایجاد شد. اگرچه این پروژه در مراحل اولیه خود است، اما به نظر می رسد که واقعاً در پیشرفت های AGI پیشگام باشد. با این حال، برخی آن را خطری برای بشریت می دانند.

یک پروژه مخفی هوش مصنوعی که توسط آزمایشگاه معروف هوش مصنوعی OpenAI توسعه یافته است، پتانسیل ایجاد انقلابی در تکنولوژی و جامعه را دارد. اما برخی از سوالات اخلاقی در مورد خطرات را نیز مطرح می کند. با آشکار شدن جزئیات در مورد قابلیت‌های شگفت‌انگیز Project Q*، گمانه‌زنی‌های بیشتری در مورد اینکه این پروژه چه معنایی برای آینده بشریت دارد، ظاهر می‌شود.

- تبلیغات -

همچنین جالب: تاریخچه OpenAI: چه چیزی بود و چه چیزی در انتظار شرکت است

هوش عمومی مصنوعی (AGI) چیست؟

برای درک هیاهوی پروژه Q* (Q-Star)، ابتدا سعی می کنیم بفهمیم که مفهوم هوش عمومی مصنوعی (AGI) چیست. در حالی که سیستم‌های هوش مصنوعی فعلی در وظایف باریک و خاص مانند بازی شطرنج یا تولید تصاویر برتری دارند، هوش مصنوعی عمومی به ماشین‌هایی اشاره دارد که می‌توانند در بسیاری از حوزه‌ها در سطح انسانی بیاموزند و فکر کنند. یعنی می توانند مثل بچه های کوچک در مدرسه درس بخوانند، مثلاً مبانی ریاضی، شیمی، زیست شناسی و ....

هوش مصنوعی عمومی (AGI) نوعی از هوش ماشینی است که می تواند به طور فرضی هوش یا رفتار انسان را تقلید کند، با توانایی یادگیری و استفاده از این پتانسیل برای حل مشکلات مختلف. به AGI هوش مصنوعی قوی، هوش مصنوعی کامل یا هوش مصنوعی در سطح انسان نیز گفته می شود. هوش مصنوعی عمومی با هوش مصنوعی ضعیف یا باریک متفاوت است، که فقط قادر به انجام وظایف خاص یا تخصصی در پارامترهای مشخص است. ZHI قادر خواهد بود به طور مستقل مسائل پیچیده مختلف را از زمینه های مختلف دانش حل کند.

ایجاد هوش مصنوعی تمرکز اصلی تحقیقات هوش مصنوعی توسط شرکت هایی مانند DeepMind و Anthropic است. CSI یک موضوع بسیار محبوب در ادبیات علمی تخیلی است و ممکن است تحقیقات آینده را شکل دهد. برخی استدلال می کنند که ایجاد یک UCI در طی سال ها یا دهه ها ممکن است، در حالی که برخی دیگر استدلال می کنند که ممکن است یک قرن یا بیشتر طول بکشد. اما کسانی هستند که معتقدند این هرگز محقق نخواهد شد. برخی شروع URI را در GPT-3 دیده‌اند، اما به نظر می‌رسد هنوز با معیارهای اصلی فاصله دارد.

ایجاد هوش عمومی مصنوعی (AGI) توسط محققان به عنوان جام مقدس هوش مصنوعی در نظر گرفته می شود، یک امکان نظری که مدت ها تصور آنها را به خود جلب کرده است. بنابراین، ظهور پروژه ای به نام OpenAI Project Q* طنین بزرگی در دنیای تحقیقات الگوریتم هوش مصنوعی ایجاد کرد. اگرچه همه می‌دانند که اینها تنها گام‌های اولیه هستند، تقریباً کورکورانه، به سوی دنیایی که در آن هوش مصنوعی توانایی‌های مشابه انسان‌ها یا حتی بالاتر از آن را خواهد داشت.

- تبلیغات -

همچنین جالب: همه چیز درباره Microsoft کمک خلبان: آینده یا راه اشتباه؟

پروژه Q* چیست؟

پروژه Q* یک الگوریتم معمولی نیست زیرا یک مدل هوش مصنوعی است که به طور فزاینده ای به مدل هوش عمومی مصنوعی (AGI) نزدیک می شود. این بدان معناست که برخلاف ChatGPT، Project Q* مهارت های تفکر و شناختی بهتری را در مقایسه با الگوریتم های دیگر نشان می دهد. ChatGPT در حال حاضر بر اساس حجم وسیعی از مطالب واقعی به پرسش‌ها پاسخ می‌دهد، اما با AGI، مدل هوش مصنوعی استدلال و توانایی تفکر و درک را برای خود یاد می‌گیرد. قبلاً مشخص شده است که Project Q* قادر به حل مسائل ریاضی ساده ای است که بخشی از مواد آموزشی آن نیستند. در این میان، برخی از محققان گامی قابل توجه در جهت ایجاد هوش مصنوعی عمومی (AGI) می بینند. OpenAI AGI را به عنوان سیستم های هوش مصنوعی که هوشمندتر از انسان هستند تعریف می کند.

توسعه Project Q* توسط دانشمند ارشد OpenAI Ilya Sutzkever مدیریت می شود و اساس آن توسط محققان Jakub Pakhotsky و Shimon Sidor اثبات شده است.

توانایی یک الگوریتم برای حل مسائل ریاضی به تنهایی، حتی اگر این مسائل بخشی از مجموعه داده های آموزشی نباشد، پیشرفتی در زمینه هوش مصنوعی محسوب می شود. اختلاف نظر در تیم در مورد این پروژه با برکناری موقت مدیر عامل OpenAI، سم آلتمن همراه است. مشخص است که قبل از اخراج آلتمن، گروهی از محققان شرکت نامه ای به هیئت مدیره ارسال کردند و در مورد کشف هوش مصنوعی هشدار دادند که می تواند تهدیدی برای بشریت باشد. آن نامه، که ظاهراً در مورد الگوریتم Project Q* بحث می کرد، به عنوان یکی از عواملی که منجر به اخراج آلتمن شد ذکر شد. با این حال، قابلیت‌های Project Q* و خطرات بالقوه‌ای که ممکن است ایجاد کند به‌طور کامل درک نشده‌اند، زیرا جزئیات ناشناخته هستند. چیزی برای عموم منتشر نشده است.

در هسته خود، Project Q* یک روش یادگیری تقویتی بدون مدل است که با عدم نیاز به دانش قبلی از محیط، از مدل های سنتی فاصله می گیرد. درعوض، از طریق تجربه یاد می گیرد و اعمال را بر اساس پاداش و تنبیه تطبیق می دهد. کارشناسان فنی بر این باورند که Project Q* با کسب توانایی هایی مشابه توانایی های شناختی انسان، قادر خواهد بود به قابلیت های برجسته ای دست یابد.

با این حال، این ویژگی است که در مدل جدید هوش مصنوعی بسیار چشمگیر است که محققان و منتقدان را نگران می کند و ترس آنها را در مورد کاربردهای دنیای واقعی این فناوری و خطرات نهفته در آن افزایش می دهد. دانشمندان و محققان از چه چیزی اینقدر می ترسند؟ بیایید آن را بفهمیم.

همچنین جالب: چگونه دستگاه های خانگی خود را برای پشتیبانی از Wi-Fi 6 به روز کنیم

آنها از ناشناخته ها می ترسند

انسان ها همیشه از ناشناخته ها، ناشناخته ها می ترسند. این جوهر انسانی است، ویژگی منش و شیوه زندگی ما.

- تبلیغات -

دنیای فناوری در نوامبر 2023 پس از رویترز در مورد پروژه Q* اطلاعات کسب کرد گزارش شده است در مورد نامه ای داخلی که توسط محققان نگران OpenAI نوشته شده است. محتوای نامه مبهم بود، اما گزارش شده است که به طور جدی توانایی های پروژه Q* را تجزیه و تحلیل می کند. همانطور که در بالا ذکر کردم، حتی این گمانه زنی وجود دارد که این نامه باعث استعفای سم آلتمن شد.

این کشف انفجاری باعث ایجاد فرضیه های مختلفی در مورد ماهیت پروژه Q* شده است. دانشمندان پیشنهاد کرده اند که این می تواند یک مدل زبان طبیعی انقلابی برای هوش مصنوعی باشد. نوعی مخترع الگوریتم های جدید که آنها را برای سایر اشکال هوش مصنوعی یا چیزی کاملاً متفاوت در این زمینه ایجاد می کند.

اظهارات تحریک آمیز آلتمن در مورد هوش مصنوعی عمومی به عنوان "کارمند متوسط" نگرانی هایی را در مورد امنیت شغلی و گسترش غیرقابل توقف نفوذ هوش مصنوعی ایجاد کرده است. این الگوریتم مرموز به عنوان نقطه عطفی در توسعه هوش عمومی مصنوعی (AGI) تعریف شده است. با این حال، همه می دانند که این نقطه عطف گران است. و حالا بحث پول نیست. سطح مهارت های شناختی که مدل جدید هوش مصنوعی وعده داده است، عدم قطعیت را به همراه دارد. دانشمندان OpenAI قول می دهند که هوش مصنوعی تفکری در سطح انسانی خواهد داشت. و این بدان معناست که ما نمی توانیم خیلی چیزها را بدانیم و عواقب آن را پیش بینی کنیم. و هر چه ناشناخته تر باشد، آماده شدن برای کنترل یا رفع آن دشوارتر است. یعنی الگوریتم جدید قابلیت خودسازی و توسعه را دارد. این را قبلاً در جایی دیده بودیم ...

همچنین جالب: ویندوز 12: سیستم عامل جدید چیست؟

جزئیات شگفت انگیز در مورد قابلیت های Project Q*

هنگامی که اطلاعات بیشتری شروع به ظهور کرد، بسیاری از محققان را شوکه کرد. نشانه های اولیه حاکی از آن بود که Project Q* استعداد شگفت انگیزی در ریاضیات دارد. برخلاف ماشین حسابی که محاسبات مکانیکی را انجام می دهد، پروژه Q* ظاهراً می تواند از منطق و استدلال برای حل مسائل پیچیده ریاضی استفاده کند. این توانایی ریاضی برای تعمیم به توسعه یک هوش گسترده اشاره دارد.

آموزش مستقل پروژه Q*، بدون مجموعه داده های خاص مورد استفاده برای آموزش هوش مصنوعی معمولی، نیز گام بزرگی به جلو خواهد بود. ناشناخته باقی می ماند که Project Q* به مهارت های دیگری تسلط داشته باشد یا خیر. اما توانایی های ریاضی او به خودی خود آنقدر شگفت انگیز است که حتی محققان با تجربه را نیز گیج می کند.

همچنین بخوانید: پروژه مغز انسان: تلاشی برای تقلید از مغز انسان

مسیر پروژه Q* به سمت تسلط؟

در این موضوع هم سناریوهای خوش بینانه و هم بدبینانه وجود دارد. خوش بینان خواهند گفت که پروژه Q* می تواند جرقه ای باشد که منجر به پیشرفت تکنولوژیکی شود. از آنجایی که این سیستم به صورت بازگشتی خود را بهبود می بخشد، هوش ماوراء طبیعی آن می تواند به حل برخی از مهم ترین مشکلات بشریت، از تغییرات آب و هوا گرفته تا کنترل بیماری، کمک کند. پروژه Q* می تواند کار خسته کننده را خودکار کند و وقت آزاد ما را برای فعالیت های دیگر آزاد کند.

اگرچه گزینه های بدبینانه تری وجود دارد. گاهی اوقات، آنها کاملا معقول هستند و معنای خاصی دارند.

از دست دادن شغل

تغییرات سریع در توسعه فناوری می تواند از سازگاری فردی افراد پیشی بگیرد. این امر منجر به از دست دادن یک یا چند نسل می شود که قادر به کسب مهارت ها یا دانش لازم برای سازگاری با واقعیت های جدید نخواهند بود. یعنی این به نوبه خود به این معنی است که افراد کمتری می توانند شغل خود را حفظ کنند. در عوض توسط ماشین‌ها، سیستم‌های خودکار و روبات‌ها انجام خواهد شد. با این حال، وقتی صحبت از متخصصان واجد شرایط می شود، پاسخ چندان واضح نیست. علاوه بر این، حرفه های جدیدی که به طور خاص با توسعه الگوریتم های هوش مصنوعی مرتبط هستند ممکن است ظاهر شوند. اما هنوز خطراتی وجود دارد و بشریت حق ندارد آنها را نادیده بگیرد.

خطر قدرت کنترل نشده

اگر هوش مصنوعی به قدرتمندی پروژه Q* به دست کسانی بیفتد که نیات پلید دارند، عواقب فاجعه باری برای بشریت به دنبال خواهد داشت. حتی بدون قصد بالقوه بدخواهانه، سطح تصمیم‌گیری پروژه Q* می‌تواند منجر به نتایج مضری شود که بر اهمیت حیاتی ارزیابی دقیق کاربرد آن تأکید می‌کند.

اگر Project Q* برای نیازهای انسان بهینه نشده باشد، می تواند با توانایی خود در به حداکثر رساندن برخی از معیارهای دلخواه آسیب وارد کند. یا ممکن است بعد سیاسی داشته باشد، مانند استفاده برای نظارت دولتی یا سرکوب. یک بحث آزاد پیرامون تحلیل تاثیر پروژه Q* به تعریف سناریوهای احتمالی برای توسعه ZHI کمک خواهد کرد.

آیا ما در یک مسابقه "مرد در برابر ماشین" هستیم؟

هالیوود پیش از این در فیلم های خود سناریوهای زیادی از چنین رویارویی ایجاد کرده است. همه ما اسکای نت معروف و عواقب چنین کشفی را به یاد داریم. شاید محققان OpenAI دوباره این فیلم را تماشا کنند؟

بشریت باید سیگنال ها و چالش ها را بپذیرد و برای آنچه ممکن است رخ دهد آماده باشد. یک مدل هوش مصنوعی که بتواند مانند یک انسان فکر کند ممکن است روزی دشمن ما شود. بسیاری استدلال می کنند که در آینده دانشمندان دقیقاً خواهند دانست که چگونه اوضاع را تحت کنترل نگه دارند. اما وقتی صحبت از ماشین‌ها می‌شود، نمی‌توانید این احتمال را که آنها تلاش می‌کنند انسان‌ها را تحت سلطه خود درآورند کاملاً رد کنید.

همچنین جالب: هر چیزی که ما هوش مصنوعی می نامیم در واقع هوش مصنوعی نیست. در اینجا چیزی است که شما باید بدانید

چرا OpenAI ساکت است؟

علیرغم جنون علاقه عمومی به پروژه Q*، مدیریت OpenAI در مورد ویژگی های الگوریتم سکوت می کند. اما نشت داخلی نشان دهنده تنش های فزاینده در آزمایشگاه بر سر اولویت ها و باز بودن تحولات است. در حالی که بسیاری از افراد داخلی OpenAI از ایجاد Project Q* حمایت می‌کنند، منتقدان استدلال می‌کنند که شفافیت برای تسریع پیشرفت علمی به هر قیمتی عقب‌نشینی کرده است. و برخی از محققان نگران هستند که قدرت باورنکردنی به سیستم هایی داده می شود که اهداف آنها لزوماً با ارزش ها و اخلاق انسانی منطبق نیست. این محققان بر این باورند که بحث های مربوط به نظارت و پاسخگویی به طرز خطرناکی خاموش شده است. آنها نیاز به تبلیغات و جزئیات بیشتری دارند.

به عنوان خالقان پروژه Q*، OpenAI باید درک کند که آنها فناوری دارند که می تواند امکانات توسعه جامعه را بسیار گسترش دهد یا بی رحمانه آن را نابود کند. چنین نوآوری های مهمی سزاوار شفافیت بسیار بیشتری برای ایجاد اعتماد عمومی هستند. پیش‌بینی‌کننده‌های عصر ماشین باید به دقت خطرات را در کنار فواید آن بسنجید. و توسعه دهندگان Project Q* باید خرد و دقت کافی را نشان دهند تا جامعه را با خیال راحت وارد عصر جدیدی از هوش مصنوعی عمومی کنند که ممکن است زودتر از آنچه تصور می کردیم فرا برسد.

برای اینکه هوش مصنوعی عمومی برای بشریت مفید و ایمن باشد، باید از عملکرد ایمن، اخلاقی و مطابق با ارزش‌ها و اهداف بشریت اطمینان حاصل شود. این امر مستلزم توسعه و اجرای قوانین، استانداردها، قوانین و پروتکل‌های نظارتی مناسب است که اعمال و رفتار CSI را کنترل و مهار کند. علاوه بر این، تهدیدات و خطرات احتمالی مرتبط با سوء استفاده ها، حوادث، ناسازگاری ها، دستکاری ها و درگیری هایی که می تواند منجر به نابودی بشریت شود، باید از بین برود. در این میان سرمایه گذاران و Microsoft مشتاقانه منتظر یک محصول قابل فروش است که بتواند سود ایجاد کند، که بدون شک با نیاز به اقدام مسئولانه در تضاد است. امیدواریم عقل سلیم پیروز شود.

همچنین بخوانید: