کنگره ایالات متحده آمریکا مدیرعامل شرکت پیشگام هوش مصنوعی Anthropic، داریو آمودی، را برای ادای شهادت در مورد یک کارزار حمله سایبری پیشرفته که ادعا میشود توسط عوامل مرتبط با چین و با استفاده از مدل هوش مصنوعی این شرکت، Claude، انجام شده، فراخوانده است. این رویداد که قرار است در تاریخ ۱۷ دسامبر برگزار شود، نگرانیهای جدی را در مورد سوءاستفاده از هوش مصنوعی در حملات سایبری بینالمللی برانگیخته است.
[تصویر: داریو آمودی، همبنیانگذار و مدیرعامل Anthropic، در نمایشگاه Viva Technology]
`
`
جزئیات حمله سایبری هوش مصنوعی بیسابقه با هوش مصنوعی Claude
بر اساس گزارش آکسیوس، کمیته امنیت داخلی مجلس نمایندگان، نامهای به آمودی، همچنین توماس کوریان، مدیرعامل گوگل کلود، و ادی زرویگون، مدیرعامل Quantum Xchange، ارسال کرده و از آنها خواسته است تا ماه آینده شهادت دهند. این اولین بار خواهد بود که یکی از مدیران Anthropic در برابر یک کمیته کنگره حاضر میشود، که نشاندهنده ابعاد و اهمیت این حمله سایبری هوش مصنوعی است.
Anthropic در گزارشی که در ۱۳ نوامبر منتشر کرد، توضیح داد که فعالیتهای مشکوکی را در اواسط سپتامبر شناسایی کرده و پس از تحقیقات، به وجود یک "کارزار جاسوسی بسیار پیچیده" پی برده است. مهاجمان از "قابلیتهای عاملمحور" (agentic capabilities) مدل Claude به شکلی بیسابقه برای اجرای حملات استفاده کردهاند. این شرکت مدعی شده است:
عوامل تهدید (که با اطمینان بالا، یک گروه تحت حمایت دولت چین ارزیابی میشوند) ابزار کدنویسی Claude را برای نفوذ به حدود سی هدف جهانی دستکاری کرده و در تعداد کمی از موارد موفق بودهاند.
این عملیات شرکتهای بزرگ فناوری، موسسات مالی، شرکتهای تولیدکننده مواد شیمیایی و سازمانهای دولتی را هدف قرار داده است.
ما معتقدیم این اولین مورد مستند از یک حمله سایبری هوش مصنوعی در مقیاس بزرگ است که بدون دخالت انسانی قابل توجهی اجرا شده است.
این شرکت این رویداد را تشدید "هک کردن وایب" (vibe hacking) توصیف کرده است؛ اصطلاحی که در سال گذشته با افزایش استفاده از ابزارهای هوش مصنوعی مولد برای تولید و انتشار کد توسط افراد بدون تجربه برنامهنویسی، وارد ادبیات ملی شد. این مفهوم به طور گستردهتری برای هر نوع استفادهای که فرد خود را در حال کشف یا خلق چیزی جدید با هوش مصنوعی میبیند، به کار رفته است؛ از جمله زمانی که تراویس کالانیک، بنیانگذار اوبر، ادعا کرد در حال انجام "فیزیک وایب" با هوش مصنوعی است.
نگرانیهای فزاینده کنگره آمریکا از سوءاستفاده از هوش مصنوعی
اندرو گارباریو، رئیس جمهوریخواه کمیته امنیت داخلی مجلس نمایندگان از نیویورک، در بیانیهای به آکسیوس گفت: "برای اولین بار، شاهد استفاده یک دشمن خارجی از یک سیستم هوش مصنوعی تجاری برای انجام تقریباً کل یک عملیات سایبری با حداقل دخالت انسانی هستیم." او افزود: "این باید برای هر سازمان فدرال و هر بخش از زیرساختهای حیاتی نگرانکننده باشد."
این نگرانیها بر پتانسیل مخرب هوش مصنوعی تأکید میکند و نشان میدهد که چگونه ابزارهای قدرتمند میتوانند توسط بازیگران دولتی یا غیردولتی برای اهداف خصمانه به کار گرفته شوند. شهادت آمودی میتواند گامی مهم در درک بهتر این تهدیدات و تدوین استراتژیهای دفاعی موثر باشد.
شمشیر دو لبه هوش مصنوعی: دفاع و حمله
Anthropic در گزارش خود به این سوال مهم نیز پاسخ داده است: اگر مدلهای هوش مصنوعی میتوانند در این مقیاس مورد سوءاستفاده قرار گیرند، چرا باید به توسعه و انتشار آنها ادامه داد؟ این شرکت توضیح میدهد که همان قابلیتهایی که به Claude امکان انجام این حملات را میدهند، آن را برای دفاع سایبری نیز حیاتی میکنند.
هدف این است که مدل Claude (که محافظتهای قوی در آن تعبیه شده است) به متخصصان امنیت سایبری در شناسایی، مختل کردن و آمادهسازی برای نسخههای آینده حملات کمک کند.
در واقع، تیم اطلاعات تهدید Anthropic به طور گستردهای از Claude در تجزیه و تحلیل حجم عظیمی از دادههای تولید شده در همین تحقیقات استفاده کرده است.
این دیدگاه، ماهیت دوگانه فناوری هوش مصنوعی را برجسته میکند؛ جایی که قدرت آن برای ایجاد تهدیدات جدید، به همان اندازه میتواند در ایجاد راهکارهای دفاعی پیشرفته نیز به کار گرفته شود. بحث و گفتگوها در کنگره احتمالاً به بررسی دقیق این توازن و یافتن راههایی برای مهار سوءاستفادهها و تقویت دفاعیات در برابر حملات سایبری هوش مصنوعی خواهد پرداخت.
پیامدهای گسترده برای امنیت سایبری و سیاستگذاری AI
این رخداد پیامدهای عمیقی برای آینده امنیت سایبری و سیاستگذاری هوش مصنوعی خواهد داشت. استفاده از AI برای اجرای حملات سایبری با حداقل دخالت انسانی، مرزهای جنگ سایبری را جابجا میکند و چالشهای جدیدی را برای دولتها و شرکتها در سراسر جهان ایجاد مینماید. این حادثه بر لزوم موارد زیر تأکید میکند:
توسعه استانداردهای سختگیرانهتر ایمنی و اخلاق در طراحی و استقرار سیستمهای هوش مصنوعی.
همکاری بینالمللی برای مقابله با تهدیدات سایبری ناشی از هوش مصنوعی.
سرمایهگذاری بیشتر در تحقیقات دفاع سایبری مبتنی بر هوش مصنوعی برای خنثی کردن حملات پیشرفته.
در حالی که Anthropic از اظهارنظر رسمی در مورد جلسه استماع آتی خودداری کرده است، نتایج این شهادت و بحثهای کنگره قطعاً مسیر توسعه و مقرراتگذاری هوش مصنوعی را در سالهای آینده شکل خواهد داد. جهان در آستانه دورانی قرار گرفته که مرزهای میان تواناییهای هوش مصنوعی در حمله و دفاع، روز به روز نامشخصتر میشوند.
مطالب مرتبط
- سامسونگ و TSMC در جبههای مشترک: تولید تراشه هوش مصنوعی AI5 تسلا رسماً آغاز شد
- روتر X3 Pro هواوی با طراحی هنری و امکانات پیشرفته، نگاهها را به سوی زیبایی و عملکرد خیرهکننده جلب میکند
- برنامه جدید تبادل دستگاههای پوشیدنی متا، تخفیفهای جذاب ریبن و اوکلی را برای کاربران به ارمغان میآورد
- پژوهش جدید از حجم بالای پستهای سیاسی و خودستایانه ایلان ماسک در X پرده برداشت