هکرهای چینی و ایرانی از ChatGPT و مدل های زبانی استفاده می کنند!

به گزارش خبرگزاری دوران خبر و براساس گزارش زومیت OpenAI وقوع بیش از ۲۰ حمله ی سایبری را تأیید کرده است که همگی توسط ChatGPT طراحی شده اند. گزارش OpenAI نشان می دهد که هوش مصنوعی مولد برای اجرای حملات فیشینگ هدفمند رفع باگ و توسعه ی بدافزار و سایر فعالیت های مخرب مورد استفاده قرار می گیرد.

گزارش جدید OpenAI دو حمله ی سایبری را تأیید می کند که با بهره گیری از مدل های زبانی بزرگ و ChatGPT انجام شده اند. یکی از حملات شرکت Cisco Talos را هدف قرار داد؛ حمله ای که توسط هکرهای چینی اجرا و در آن از روش فیشینگ هدفمند موسوم به SweetSpecter استفاده شد که شامل یک فایل فشرده ی زیپ حاوی محتوای مخرب می شود.

در صورت دانلود و بازکردن فایل زنجیره ای از ویروس ها در سیستم کاربر ایجاد می شود. OpenAI کشف کرده که بدافزار SweetSpecter با استفاده از چندین حساب کاربری در ChatGPT و به منظور توسعه ی اسکریپت ها و شناسایی آسیب پذیری ها در سیستم با بهره گیری از ابزارهای یادگیری ماشین طراحی شده است.

طبق ادعای OpenAI دومین حمله ی سایبری توسط گروهی هکری مستقر در ایران انجام شد. این گروه با بهره گیری از ChatGPT آسیب پذیری های سیستم عامل macOS را شناسایی و اقدام به سرقت رمزعبور کاربران کرد. در حمله ی سوم گروه هکری دیگری با استفاده از ChatGPT بدافزاری برای سیستم عامل اندروید توسعه داد که قادر است لیست مخاطبین سوابق تماس و تاریخچه ی مرورگر را سرقت موقعیت دقیق دستگاه را شناسایی و به فایل های موجود در دستگاه های آلوده دسترسی پیدا کند.

تمامی حملات سایبری مذکور با بهره گیری از روش های موجود توسعه ی بدافزار انجام شده اند و بر اساس گزارش ها هیچ مدرکی مبنی بر ایجاد بدافزارهای نوین و پیچیده توسط ChatGPT یافت نشده است.

چنین حملاتی نشان می دهند که فریب دادن سیستم های هوش مصنوعی برای تولید ابزارهای مخرب بسیار ساده است و هکرها به راحتی می توانند از این قابلیت سوءاستفاده کنند؛ اقدامی که چالش جدیدی را در حوزه ی امنیت سایبری ایجاد می کند چرا که هر فردی با دانش فنی لازم می تواند ChatGPT را به سمت تولید محتوای مخرب سوق دهد. محققان امنیت سایبری به طور مداوم در تلاش اند تا آسیب پذیری های موجود را شناسایی و برطرف کنند.

خالق ChatGPT می گوید با هدف جلوگیری از سوءاستفاده از هوش مصنوعی به بهبود و ارتقای مستمر مدل های خود ادامه خواهد داد. در همین راستا OpenAI با تیم های داخلی ایمنی و امنیت همکاری نزدیکی برقرار خواهد کرد و متعهد شده است که یافته های تحقیقاتی خود را با سایر فعالان صنعت و جامعه ی علمی به اشتراک بگذارد و از وقوع چنین رویدادهای نامطلوبی جلوگیری کند.

۲۲۷۲۲۷