دسته بندی ها: اخبار فناوری اطلاعات

بر خلاف انتظار! (نه). ChatGPT برای ایجاد بدافزار استفاده می شود

محبوب ترین ربات چت جهان، ChatGPT، توسط مهاجمان برای ایجاد گونه های جدید بدافزار استفاده می شود.

شرکت امنیت سایبری WithSecure تأیید کرده است که نمونه‌هایی از بدافزارهای ایجاد شده توسط نویسنده بدنام هوش مصنوعی را در طبیعت پیدا کرده است. چیزی که ChatGPT را به ویژه خطرناک می کند این است که می تواند انواع بدافزارهای بی شماری را تولید کند و شناسایی آنها را دشوار می کند.

مهاجمان به سادگی می‌توانند نمونه‌هایی از کدهای مخرب موجود را به ChatGPT ارائه کنند و به آن دستور دهند تا بر اساس آن‌ها، گونه‌های جدیدی ایجاد کند و به آنها اجازه می‌دهد تا بدافزار را بدون صرف زمان، تلاش و دانش قبلی، تداوم بخشند.

این خبر در حالی منتشر می شود که صحبت های زیادی در مورد تنظیم AI برای جلوگیری از استفاده از آن برای اهداف مخرب است. هنگامی که ChatGPT در نوامبر گذشته بسیار محبوب شد، هیچ قانونی برای استفاده از آن وجود نداشت و در عرض یک ماه برای نوشتن ایمیل‌ها و فایل‌های مخرب ربوده شد.

محافظ های خاصی در مدل وجود دارد که برای جلوگیری از اجرای دستورات مخرب در نظر گرفته شده است، اما مهاجمان می توانند از آنها عبور کنند.

Juhani Hintikka، مدیر عامل WithSecure، به Infosecurity گفت که مدافعان امنیت سایبری معمولاً از هوش مصنوعی برای یافتن و فیلتر کردن بدافزارهایی که به صورت دستی توسط عوامل تهدید ایجاد می‌شوند، استفاده می‌کنند.

با این حال، به نظر می رسد که اکنون با ابزارهای قدرتمند هوش مصنوعی مانند ChatGPT که به صورت رایگان در دسترس هستند، این وضعیت در حال تغییر است. ابزارهای دسترسی از راه دور برای مقاصد غیرقانونی مورد استفاده قرار گرفته اند و اکنون همین امر در مورد هوش مصنوعی نیز صدق می کند.

تیم وست، رئیس اطلاعات تهدیدات در WithSecure، اضافه کرد که «ChatGPT از مهندسی نرم‌افزار، هم از نظر خوب و هم بد، پشتیبانی می‌کند و این به توسعه‌دهندگان نرم‌افزار مخرب کمک می‌کند و مانع ورود آن‌ها را کاهش می‌دهد».

به گفته Hintikka، ایمیل‌های فیشینگ که ChatGPT می‌تواند ایجاد کند معمولاً مورد توجه مردم قرار می‌گیرد و با پیشرفته‌تر شدن LLM‌ها، ممکن است در آینده نزدیک جلوگیری از گرفتار شدن به چنین کلاهبرداری‌هایی دشوارتر شود.

علاوه بر این، با افزایش موفقیت حملات مهاجمان با نرخ هشداردهنده‌ای، مهاجمان دوباره سرمایه‌گذاری می‌کنند و سازماندهی می‌شوند، عملیات را از طریق برون سپاری گسترش می‌دهند و درک خود را از هوش مصنوعی برای انجام حملات موفق‌تر عمیق‌تر می‌کنند.

Hintikka به این نتیجه رسید که با نگاهی به چشم انداز آینده امنیت سایبری، "این یک بازی هوش مصنوعی خوب در مقابل هوش مصنوعی بد خواهد بود."

همچنین بخوانید:

اشتراک گذاری
Julia Alexandrova

قهوه خانه عکاس. من در مورد علم و فضا می نویسم. من فکر می کنم برای ما برای ملاقات با بیگانگان خیلی زود است. من توسعه رباتیک را دنبال می کنم، فقط در صورت ...

پاسخ دهید

آدرس ایمیل شما منتشر نخواهد شد. بخشهای موردنیاز علامتگذاری شدهاند*