Root Nationاخباراخبار فناوری اطلاعاتکد نوشته شده توسط هوش مصنوعی می تواند خطرناک باشد

کد نوشته شده توسط هوش مصنوعی می تواند خطرناک باشد

-

الگوریتم‌های یادگیری ماشین در حال حاضر بسیار محبوب هستند، زیرا از آنها برای ایجاد هر نوع محتوای "اصلی" پس از آموزش بر روی مجموعه داده‌های از قبل موجود استفاده می‌شود. با این حال، کد تولید کننده هوش مصنوعی (AI) ممکن است در آینده یک مشکل واقعی برای امنیت نرم افزار ایجاد کند.

سیستم‌های هوش مصنوعی مانند GitHub Copilot وعده می‌دهند که با ایجاد تکه‌های کامل کد «جدید» بر اساس داده‌های متنی به زبان طبیعی و زمینه از پیش موجود، زندگی برنامه‌نویسان را آسان‌تر کنند. اما الگوریتم‌های تولید کد می‌توانند عامل ناامنی را نیز معرفی کنند، همانطور که اخیراً یک مطالعه جدید شامل چندین توسعه‌دهنده نشان داد.

با نگاهی خاص به Codex، پلتفرم هوش مصنوعی توسعه یافته توسط OpenAI، که همچنین موتور کد پشت GitHub Copilot فوق الذکر است، 47 توسعه دهنده مختلف در این مطالعه شرکت کردند. از دانش‌آموزان گرفته تا حرفه‌ای‌های باتجربه، آنها برای حل مشکلات مربوط به امنیت در پایتون، جاوا اسکریپت، C و دیگر زبان‌های برنامه‌نویسی سطح بالا به چالش کشیده شده‌اند.

کد نوشته شده توسط هوش مصنوعی می تواند ذاتا خطرناک باشد

محققان خاطرنشان کردند که زمانی که برنامه نویسان به هوش مصنوعی Codex دسترسی داشتند، کد به دست آمده در مقایسه با راه حل های "دستی" طراحی شده توسط یک گروه کنترل، به احتمال زیاد نادرست یا ناامن بود. علاوه بر این، برنامه نویسانی که دارای راه حل های مبتنی بر هوش مصنوعی بودند، در مقایسه با گروه کنترل فوق، احتمال بیشتری داشت که بگویند کد محافظت نشده آنها ایمن است.

آل پری، دانشجوی کارشناسی ارشد در دانشگاه استنفورد و یکی از نویسندگان اصلی این مطالعه، گفت که "سیستم های تولید کننده کد در حال حاضر نمی توانند جایگزین توسعه دهندگان انسانی شوند." به گفته وی، توسعه دهندگان می توانند از ابزارهای هوش مصنوعی برای انجام کارهای خارج از صلاحیت خود یا سرعت بخشیدن به فرآیند برنامه نویسی که در آن مهارت های خاصی دارند، استفاده کنند. به گفته نویسنده این مطالعه، آنها باید نگران هر دو باشند و همیشه کد تولید شده را بررسی کنند.

به گفته مگا سریواستاوا، دانشجوی کارشناسی ارشد در استنفورد و دومین نویسنده مشترک این مطالعه، Codex بی فایده نیست: علیرغم کاستی‌های هوش مصنوعی «گنگ»، سیستم‌های تولید کد زمانی که برای کارهای کم خطر استفاده می‌شوند می‌توانند مفید باشند. به گفته سریواستاوا، علاوه بر این، برنامه نویسانی که در این مطالعه شرکت کردند، تجربه زیادی در مسائل امنیتی نداشتند، که می تواند به شناسایی کدهای آسیب پذیر یا خطرناک کمک کند.

کد نوشته شده توسط هوش مصنوعی می تواند ذاتا خطرناک باشد

همچنین می‌توان الگوریتم‌های هوش مصنوعی را برای بهبود پیشنهادهای کدنویسی تغییر داد و شرکت‌هایی که سیستم‌های خود را توسعه می‌دهند، می‌توانند راه‌حل‌های بهتری را با مدلی دریافت کنند که کد مناسب‌تر با شیوه‌های امنیتی خودشان تولید می‌کند. به گفته نویسندگان این مطالعه، فناوری تولید کد یک پیشرفت "مهیج" است و بسیاری از مردم مشتاق استفاده از آن هستند. فقط باید کارهای زیادی برای یافتن راه حل های مناسب برای غلبه بر کاستی های هوش مصنوعی انجام داد.

شما می توانید به اوکراین در مبارزه با مهاجمان روسی کمک کنید. بهترین راه برای انجام این کار، کمک مالی به نیروهای مسلح اوکراین است Savelife یا از طریق صفحه رسمی NBU.

همچنین جالب:

منبعtechspot
ثبت نام
اطلاع رسانی در مورد
مهمان

0 نظرات
بررسی های جاسازی شده
مشاهده همه نظرات
برای به روز رسانی مشترک شوید