سیاست و بازاریابی - شهر سخت افزار / سازنده چتبات ChatGPT در گزارشی تأیید کرده گروههای هکری مستقر در ایران از هوش مصنوعی مولد برای انجام حملات فیشینگ و ساخت بدافزار استفاده کردهاند. یکی از این گروهها با نام CyberAv3ngers، با استفاده از قابلیتهای ChatGPT به کامپیوترهای مک نفوذ کرده و موفق به سرقت رمز عبور کاربران شده است.
این حمله که بهعنوان یکی از نخستین حملات سایبری تقویتشده توسط هوش مصنوعی شناخته میشود، توجه بسیاری از کارشناسان امنیت سایبری را به خود جلب کرده و موجب نگرانی شده است.
استفاده هکرهای ایرانی و چینی از ChatGPT
علاوه بر CyberAv3ngers، گروه ایرانی دیگری با نام مستعار Storm-0817 نیز از هوش مصنوعی ChatGPT برای توسعه بدافزارهایی مخصوص سیستمعامل اندروید استفاده کرده است. این بدافزارها توانستهاند لیست مخاطبین کاربران، گزارش تماسها و تاریخچه مرورگر آنها را استخراج کرده و حتی مکان دقیق دستگاههای آلوده را به دست آورند. این بدافزارها همچنین به فایلهای موجود در دستگاههای قربانیان دسترسی پیدا کردهاند و اطلاعات حساس آنها را به سرقت بردهاند.
اوپن ای آی میگوید STORM-0817 از مدلهای هوش مصنوعی این شرکت درخواست کمک برای اشکالزدایی و کدنویسی در پیادهسازی بدافزار اندرویدی و زیرساخت کنترل آن را داشت. همزمان، گروه STORM-0817 از ChatGPT برای پشتیبانی در توسعه کد سمت سرور استفاده کرد که برای مدیریت ارتباطات دستگاههای آلوده به آن نیاز داشت.
در حالی که STORM-0817 کاربران را هدف قرار داده، اکانتهای شناسایی شده CyberAv3ngers نشان میدهد این گروه به دستگاههای کنترل صنعتی علاقمند بوده است.
این حملات نشاندهنده استفاده از تکنیکهای موجود برای توسعه بدافزار هستند و بر اساس گزارشها، هیچگونه بدافزار بدیع و منحصربهفردی توسط ChatGPT ایجاد نشده است. با اینحال، این حملات نشان میدهد که تا چه اندازه ساده است که گروههای هکری با استفاده از هوش مصنوعی مولد، ابزارهای مخرب را ایجاد و توسعه دهند. این موضوع باعث نگرانیهای گستردهای در جامعه امنیت سایبری شده و نیاز به بحثهای جدی در مورد محدودیتهای احتمالی در استفاده از هوش مصنوعی مولد را ایجاد کرده است.
OpenAI در پاسخ به این نگرانیها اعلام کرده که به تلاشهای خود برای بهبود امنیت هوش مصنوعی ادامه خواهد داد و همکاریهای گستردهای با تیمهای امنیت داخلی و سایر همکاران خود در صنعت و جامعه پژوهشی خواهد داشت تا از وقوع چنین حملاتی جلوگیری شود.
با توجه به اینکه این حملات توسط گروههای مستقر در ایران انجام شده است، این نگرانی مطرح میشود که ممکن است گروههای هکری بیشتری از هوش مصنوعی برای اهداف مخرب خود استفاده کنند. به همین دلیل، شرکتهای توسعهدهنده هوش مصنوعی باید اقدامات پیشگیرانهای برای جلوگیری از چنین سوءاستفادههایی به کار بگیرند تا امنیت کاربران حفظ شود.
OpenAI همچنین اعلام کرده که گروههای چینی هم از ChatGPT برای توسعه بدافزار استفاده کردهاند.
http://www.PoliticalMarketing.ir/fa/News/758104/استفاده-هکرهای-ایرانی-از-ChatGPT-برای-ساخت-بدافزار-تایید-شد