الگوریتمهای یادگیری ماشین در حال حاضر بسیار محبوب هستند، زیرا از آنها برای ایجاد هر نوع محتوای "اصلی" پس از آموزش بر روی مجموعه دادههای از قبل موجود استفاده میشود. با این حال، کد تولید کننده هوش مصنوعی (AI) ممکن است در آینده یک مشکل واقعی برای امنیت نرم افزار ایجاد کند.
سیستمهای هوش مصنوعی مانند GitHub Copilot وعده میدهند که با ایجاد تکههای کامل کد «جدید» بر اساس دادههای متنی به زبان طبیعی و زمینه از پیش موجود، زندگی برنامهنویسان را آسانتر کنند. اما الگوریتمهای تولید کد میتوانند عامل ناامنی را نیز معرفی کنند، همانطور که اخیراً یک مطالعه جدید شامل چندین توسعهدهنده نشان داد.
با نگاهی خاص به Codex، پلتفرم هوش مصنوعی توسعه یافته توسط OpenAI، که همچنین موتور کد پشت GitHub Copilot فوق الذکر است، 47 توسعه دهنده مختلف در این مطالعه شرکت کردند. از دانشآموزان گرفته تا حرفهایهای باتجربه، آنها برای حل مشکلات مربوط به امنیت در پایتون، جاوا اسکریپت، C و دیگر زبانهای برنامهنویسی سطح بالا به چالش کشیده شدهاند.
محققان خاطرنشان کردند که زمانی که برنامه نویسان به هوش مصنوعی Codex دسترسی داشتند، کد به دست آمده در مقایسه با راه حل های "دستی" طراحی شده توسط یک گروه کنترل، به احتمال زیاد نادرست یا ناامن بود. علاوه بر این، برنامه نویسانی که دارای راه حل های مبتنی بر هوش مصنوعی بودند، در مقایسه با گروه کنترل فوق، احتمال بیشتری داشت که بگویند کد محافظت نشده آنها ایمن است.
آل پری، دانشجوی کارشناسی ارشد در دانشگاه استنفورد و یکی از نویسندگان اصلی این مطالعه، گفت که "سیستم های تولید کننده کد در حال حاضر نمی توانند جایگزین توسعه دهندگان انسانی شوند." به گفته وی، توسعه دهندگان می توانند از ابزارهای هوش مصنوعی برای انجام کارهای خارج از صلاحیت خود یا سرعت بخشیدن به فرآیند برنامه نویسی که در آن مهارت های خاصی دارند، استفاده کنند. به گفته نویسنده این مطالعه، آنها باید نگران هر دو باشند و همیشه کد تولید شده را بررسی کنند.
به گفته مگا سریواستاوا، دانشجوی کارشناسی ارشد در استنفورد و دومین نویسنده مشترک این مطالعه، Codex بی فایده نیست: علیرغم کاستیهای هوش مصنوعی «گنگ»، سیستمهای تولید کد زمانی که برای کارهای کم خطر استفاده میشوند میتوانند مفید باشند. به گفته سریواستاوا، علاوه بر این، برنامه نویسانی که در این مطالعه شرکت کردند، تجربه زیادی در مسائل امنیتی نداشتند، که می تواند به شناسایی کدهای آسیب پذیر یا خطرناک کمک کند.
همچنین میتوان الگوریتمهای هوش مصنوعی را برای بهبود پیشنهادهای کدنویسی تغییر داد و شرکتهایی که سیستمهای خود را توسعه میدهند، میتوانند راهحلهای بهتری را با مدلی دریافت کنند که کد مناسبتر با شیوههای امنیتی خودشان تولید میکند. به گفته نویسندگان این مطالعه، فناوری تولید کد یک پیشرفت "مهیج" است و بسیاری از مردم مشتاق استفاده از آن هستند. فقط باید کارهای زیادی برای یافتن راه حل های مناسب برای غلبه بر کاستی های هوش مصنوعی انجام داد.
شما می توانید به اوکراین در مبارزه با مهاجمان روسی کمک کنید. بهترین راه برای انجام این کار، کمک مالی به نیروهای مسلح اوکراین است Savelife یا از طریق صفحه رسمی NBU.
همچنین جالب: