دسته بندی ها: اخبار فناوری اطلاعات

کد نوشته شده توسط هوش مصنوعی می تواند خطرناک باشد

الگوریتم‌های یادگیری ماشین در حال حاضر بسیار محبوب هستند، زیرا از آنها برای ایجاد هر نوع محتوای "اصلی" پس از آموزش بر روی مجموعه داده‌های از قبل موجود استفاده می‌شود. با این حال، کد تولید کننده هوش مصنوعی (AI) ممکن است در آینده یک مشکل واقعی برای امنیت نرم افزار ایجاد کند.

سیستم‌های هوش مصنوعی مانند GitHub Copilot وعده می‌دهند که با ایجاد تکه‌های کامل کد «جدید» بر اساس داده‌های متنی به زبان طبیعی و زمینه از پیش موجود، زندگی برنامه‌نویسان را آسان‌تر کنند. اما الگوریتم‌های تولید کد می‌توانند عامل ناامنی را نیز معرفی کنند، همانطور که اخیراً یک مطالعه جدید شامل چندین توسعه‌دهنده نشان داد.

با نگاهی خاص به Codex، پلتفرم هوش مصنوعی توسعه یافته توسط OpenAI، که همچنین موتور کد پشت GitHub Copilot فوق الذکر است، 47 توسعه دهنده مختلف در این مطالعه شرکت کردند. از دانش‌آموزان گرفته تا حرفه‌ای‌های باتجربه، آنها برای حل مشکلات مربوط به امنیت در پایتون، جاوا اسکریپت، C و دیگر زبان‌های برنامه‌نویسی سطح بالا به چالش کشیده شده‌اند.

محققان خاطرنشان کردند که زمانی که برنامه نویسان به هوش مصنوعی Codex دسترسی داشتند، کد به دست آمده در مقایسه با راه حل های "دستی" طراحی شده توسط یک گروه کنترل، به احتمال زیاد نادرست یا ناامن بود. علاوه بر این، برنامه نویسانی که دارای راه حل های مبتنی بر هوش مصنوعی بودند، در مقایسه با گروه کنترل فوق، احتمال بیشتری داشت که بگویند کد محافظت نشده آنها ایمن است.

آل پری، دانشجوی کارشناسی ارشد در دانشگاه استنفورد و یکی از نویسندگان اصلی این مطالعه، گفت که "سیستم های تولید کننده کد در حال حاضر نمی توانند جایگزین توسعه دهندگان انسانی شوند." به گفته وی، توسعه دهندگان می توانند از ابزارهای هوش مصنوعی برای انجام کارهای خارج از صلاحیت خود یا سرعت بخشیدن به فرآیند برنامه نویسی که در آن مهارت های خاصی دارند، استفاده کنند. به گفته نویسنده این مطالعه، آنها باید نگران هر دو باشند و همیشه کد تولید شده را بررسی کنند.

به گفته مگا سریواستاوا، دانشجوی کارشناسی ارشد در استنفورد و دومین نویسنده مشترک این مطالعه، Codex بی فایده نیست: علیرغم کاستی‌های هوش مصنوعی «گنگ»، سیستم‌های تولید کد زمانی که برای کارهای کم خطر استفاده می‌شوند می‌توانند مفید باشند. به گفته سریواستاوا، علاوه بر این، برنامه نویسانی که در این مطالعه شرکت کردند، تجربه زیادی در مسائل امنیتی نداشتند، که می تواند به شناسایی کدهای آسیب پذیر یا خطرناک کمک کند.

همچنین می‌توان الگوریتم‌های هوش مصنوعی را برای بهبود پیشنهادهای کدنویسی تغییر داد و شرکت‌هایی که سیستم‌های خود را توسعه می‌دهند، می‌توانند راه‌حل‌های بهتری را با مدلی دریافت کنند که کد مناسب‌تر با شیوه‌های امنیتی خودشان تولید می‌کند. به گفته نویسندگان این مطالعه، فناوری تولید کد یک پیشرفت "مهیج" است و بسیاری از مردم مشتاق استفاده از آن هستند. فقط باید کارهای زیادی برای یافتن راه حل های مناسب برای غلبه بر کاستی های هوش مصنوعی انجام داد.

شما می توانید به اوکراین در مبارزه با مهاجمان روسی کمک کنید. بهترین راه برای انجام این کار، کمک مالی به نیروهای مسلح اوکراین است Savelife یا از طریق صفحه رسمی NBU.

همچنین جالب:

اشتراک گذاری
Julia Alexandrova

قهوه خانه عکاس. من در مورد علم و فضا می نویسم. من فکر می کنم برای ما برای ملاقات با بیگانگان خیلی زود است. من توسعه رباتیک را دنبال می کنم، فقط در صورت ...

پاسخ دهید

آدرس ایمیل شما منتشر نخواهد شد. بخشهای موردنیاز علامتگذاری شدهاند*