هوش‌نیوز » اخبار » حملات سایبری با هوش مصنوعی Anthropic افشا شد
حملات سایبری با هوش مصنوعی
شرکت آمریکایی Anthropic، سازنده چت‌بات Claude، اعلام کرده است که فناوری هوش مصنوعی این شرکت توسط هکرها برای انجام حملات پیچیده سایبری مورد سوءاستفاده قرار گرفته است. بر اساس گزارش رسمی، از Claude برای نوشتن کدهای مخرب، سرقت گسترده داده‌ها، اخاذی سازمان‌یافته و حتی کلاهبرداری شغلی توسط عوامل کره شمالی استفاده شده است. Anthropic با شناسایی و مسدودسازی این تهدیدات، موارد را به مراجع قانونی گزارش داده و ابزارهای تشخیص خود را تقویت کرده است.

سوءاستفاده از هوش مصنوعی در جرائم سایبری

شرکت هوش مصنوعی Anthropic اعلام کرد که محصولاتش، به‌ویژه چت‌بات Claude، توسط هکرها «به سلاحی برای حملات سایبری» تبدیل شده است. این شرکت گفت که فناوری آن برای سرقت گسترده داده‌های شخصی و باج‌گیری سازمان‌یافته مورد استفاده قرار گرفته است.

به گفته Anthropic، هکرها توانسته‌اند با استفاده از Claude کدهایی بنویسند که در حملات سایبری نقش کلیدی داشته‌اند. در یکی از موارد، عوامل وابسته به کره شمالی با کمک این فناوری، موفق شدند پروفایل‌های جعلی ایجاد کنند و به‌طور تقلبی در شرکت‌های بزرگ آمریکایی شغل‌های از راه دور به دست آورند.

 

نمونه‌ای از «Vibe Hacking»

Anthropic در گزارش خود از پدیده‌ای به نام «Vibe Hacking» پرده برداشته است. در این روش، Claude برای طراحی کدی استفاده شده که توانسته دست‌کم به ۱۷ سازمان مختلف، از جمله نهادهای دولتی، نفوذ کند.
این شرکت تأکید کرده است که مهاجمان سایبری در این حملات «از هوش مصنوعی به شکلی بی‌سابقه» بهره برده‌اند.

هکرها با استفاده از Claude نه تنها کد مخرب تولید کردند، بلکه از این ابزار برای تصمیم‌گیری‌های تاکتیکی و استراتژیک نیز استفاده نمودند؛ از جمله انتخاب نوع داده‌های حساس برای سرقت و طراحی پیام‌های روان‌شناسانه جهت اخاذی از قربانیان. حتی میزان باج پیشنهادی برای قربانیان نیز توسط Claude محاسبه و پیشنهاد شده بود.

 

ظهور Agentic AI و تهدیدات آن

مفهوم Agentic AI—یعنی هوش مصنوعی خودکار که بدون دخالت مستقیم انسان عمل می‌کند—به‌عنوان نسل بعدی این فناوری معرفی می‌شود. اما موارد اخیر نشان می‌دهد همین توانایی‌ها می‌تواند به ابزاری خطرناک در دستان هکرها تبدیل شود.

«آلینا تیموفیوا»، مشاور امنیت سایبری، هشدار داد:

«استفاده از هوش مصنوعی باعث شده زمان لازم برای سوءاستفاده از آسیب‌پذیری‌های سایبری به سرعت کاهش یابد. بنابراین راهکارهای مقابله باید پیشگیرانه و فعالانه باشد، نه واکنشی پس از وقوع حمله.»

 

نقش عوامل کره شمالی در سوءاستفاده از Claude

علاوه بر حملات سایبری مستقیم، Anthropic گزارش داد که عملیات‌های فریبکاری کره شمالی نیز از Claude بهره گرفته‌اند. این افراد با استفاده از هوش مصنوعی پروفایل‌های جعلی ایجاد کرده، درخواست‌های شغلی نوشتند و پس از استخدام، از Claude برای ترجمه پیام‌ها و حتی نوشتن کد در محیط‌های کاری استفاده کردند.

«جف وایت»، کارشناس امنیتی و مجری پادکست The Lazarus Heist، گفت:

«کارکنان کره شمالی معمولاً از نظر فرهنگی و فنی از جهان خارج جدا هستند و اجرای چنین طرح‌هایی برایشان دشوار است. اما Agentic AI این شکاف را پر کرده و به آنها کمک می‌کند تا استخدام شوند—و این یعنی شرکت‌های آمریکایی ناخواسته تحریم‌های بین‌المللی را نقض می‌کنند.»

 

آیا هوش مصنوعی موج تازه‌ای از جرائم ایجاد کرده است؟

با وجود نگرانی‌های گسترده، برخی کارشناسان می‌گویند هنوز بسیاری از حملات باج‌افزاری به روش‌های سنتی مانند ایمیل‌های فیشینگ یا شکار آسیب‌پذیری‌های نرم‌افزاری قدیمی انجام می‌شود.
«نیودیتا مورتی»، مشاور ارشد امنیت سایبری در شرکت Black Duck، افزود:

«سازمان‌ها باید هوش مصنوعی را همچون یک مخزن اطلاعات محرمانه بدانند و از آن به‌طور جدی حفاظت کنند؛ همان‌طور که سایر سامانه‌های ذخیره‌سازی داده را ایمن می‌کنند.»

 

منبع

این خبر بر اساس اظهارات رسمی شرکت Anthropic بازنویسی شده است.

 

 

اشتراک گذاری:

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

با اصطلاحات هوش‌ مصنوعی آشنا نیستید؟

برای آشنایی با اصطلاحات رایج حوزه هوش مصنوعی کلیک کنید.