کنگره آمریکا مدیرعامل Anthropic را برای ادای شهادت درباره حمله سایبری هوش مصنوعی منتسب به چین فراخواند

کنگره ایالات متحده آمریکا مدیرعامل شرکت پیشگام هوش مصنوعی Anthropic، داریو آمودی، را برای ادای شهادت در مورد یک کارزار حمله سایبری پیشرفته که ادعا می‌شود توسط عوامل مرتبط با چین و با استفاده از مدل هوش مصنوعی این شرکت، Claude، انجام شده، فراخوانده است. این رویداد که قرار است در تاریخ ۱۷ دسامبر برگزار شود، نگرانی‌های جدی را در مورد سوءاستفاده از هوش مصنوعی در حملات سایبری بین‌المللی برانگیخته است.

[تصویر: داریو آمودی، هم‌بنیان‌گذار و مدیرعامل Anthropic، در نمایشگاه Viva Technology]

`image`

جزئیات حمله سایبری هوش مصنوعی بی‌سابقه با هوش مصنوعی Claude

بر اساس گزارش آکسیوس، کمیته امنیت داخلی مجلس نمایندگان، نامه‌ای به آمودی، همچنین توماس کوریان، مدیرعامل گوگل کلود، و ادی زرویگون، مدیرعامل Quantum Xchange، ارسال کرده و از آن‌ها خواسته است تا ماه آینده شهادت دهند. این اولین بار خواهد بود که یکی از مدیران Anthropic در برابر یک کمیته کنگره حاضر می‌شود، که نشان‌دهنده ابعاد و اهمیت این حمله سایبری هوش مصنوعی است.

Anthropic در گزارشی که در ۱۳ نوامبر منتشر کرد، توضیح داد که فعالیت‌های مشکوکی را در اواسط سپتامبر شناسایی کرده و پس از تحقیقات، به وجود یک "کارزار جاسوسی بسیار پیچیده" پی برده است. مهاجمان از "قابلیت‌های عامل‌محور" (agentic capabilities) مدل Claude به شکلی بی‌سابقه برای اجرای حملات استفاده کرده‌اند. این شرکت مدعی شده است:

عوامل تهدید (که با اطمینان بالا، یک گروه تحت حمایت دولت چین ارزیابی می‌شوند) ابزار کدنویسی Claude را برای نفوذ به حدود سی هدف جهانی دستکاری کرده و در تعداد کمی از موارد موفق بوده‌اند.

این عملیات شرکت‌های بزرگ فناوری، موسسات مالی، شرکت‌های تولیدکننده مواد شیمیایی و سازمان‌های دولتی را هدف قرار داده است.

ما معتقدیم این اولین مورد مستند از یک حمله سایبری هوش مصنوعی در مقیاس بزرگ است که بدون دخالت انسانی قابل توجهی اجرا شده است.

این شرکت این رویداد را تشدید "هک کردن وایب" (vibe hacking) توصیف کرده است؛ اصطلاحی که در سال گذشته با افزایش استفاده از ابزارهای هوش مصنوعی مولد برای تولید و انتشار کد توسط افراد بدون تجربه برنامه‌نویسی، وارد ادبیات ملی شد. این مفهوم به طور گسترده‌تری برای هر نوع استفاده‌ای که فرد خود را در حال کشف یا خلق چیزی جدید با هوش مصنوعی می‌بیند، به کار رفته است؛ از جمله زمانی که تراویس کالانیک، بنیان‌گذار اوبر، ادعا کرد در حال انجام "فیزیک وایب" با هوش مصنوعی است.

نگرانی‌های فزاینده کنگره آمریکا از سوءاستفاده از هوش مصنوعی

اندرو گارباریو، رئیس جمهوری‌خواه کمیته امنیت داخلی مجلس نمایندگان از نیویورک، در بیانیه‌ای به آکسیوس گفت: "برای اولین بار، شاهد استفاده یک دشمن خارجی از یک سیستم هوش مصنوعی تجاری برای انجام تقریباً کل یک عملیات سایبری با حداقل دخالت انسانی هستیم." او افزود: "این باید برای هر سازمان فدرال و هر بخش از زیرساخت‌های حیاتی نگران‌کننده باشد."

این نگرانی‌ها بر پتانسیل مخرب هوش مصنوعی تأکید می‌کند و نشان می‌دهد که چگونه ابزارهای قدرتمند می‌توانند توسط بازیگران دولتی یا غیردولتی برای اهداف خصمانه به کار گرفته شوند. شهادت آمودی می‌تواند گامی مهم در درک بهتر این تهدیدات و تدوین استراتژی‌های دفاعی موثر باشد.

شمشیر دو لبه هوش مصنوعی: دفاع و حمله

Anthropic در گزارش خود به این سوال مهم نیز پاسخ داده است: اگر مدل‌های هوش مصنوعی می‌توانند در این مقیاس مورد سوءاستفاده قرار گیرند، چرا باید به توسعه و انتشار آن‌ها ادامه داد؟ این شرکت توضیح می‌دهد که همان قابلیت‌هایی که به Claude امکان انجام این حملات را می‌دهند، آن را برای دفاع سایبری نیز حیاتی می‌کنند.

هدف این است که مدل Claude (که محافظت‌های قوی در آن تعبیه شده است) به متخصصان امنیت سایبری در شناسایی، مختل کردن و آماده‌سازی برای نسخه‌های آینده حملات کمک کند.

در واقع، تیم اطلاعات تهدید Anthropic به طور گسترده‌ای از Claude در تجزیه و تحلیل حجم عظیمی از داده‌های تولید شده در همین تحقیقات استفاده کرده است.

این دیدگاه، ماهیت دوگانه فناوری هوش مصنوعی را برجسته می‌کند؛ جایی که قدرت آن برای ایجاد تهدیدات جدید، به همان اندازه می‌تواند در ایجاد راهکارهای دفاعی پیشرفته نیز به کار گرفته شود. بحث و گفتگوها در کنگره احتمالاً به بررسی دقیق این توازن و یافتن راه‌هایی برای مهار سوءاستفاده‌ها و تقویت دفاعیات در برابر حملات سایبری هوش مصنوعی خواهد پرداخت.

پیامدهای گسترده برای امنیت سایبری و سیاست‌گذاری AI

این رخداد پیامدهای عمیقی برای آینده امنیت سایبری و سیاست‌گذاری هوش مصنوعی خواهد داشت. استفاده از AI برای اجرای حملات سایبری با حداقل دخالت انسانی، مرزهای جنگ سایبری را جابجا می‌کند و چالش‌های جدیدی را برای دولت‌ها و شرکت‌ها در سراسر جهان ایجاد می‌نماید. این حادثه بر لزوم موارد زیر تأکید می‌کند:

توسعه استانداردهای سخت‌گیرانه‌تر ایمنی و اخلاق در طراحی و استقرار سیستم‌های هوش مصنوعی.

همکاری بین‌المللی برای مقابله با تهدیدات سایبری ناشی از هوش مصنوعی.

سرمایه‌گذاری بیشتر در تحقیقات دفاع سایبری مبتنی بر هوش مصنوعی برای خنثی کردن حملات پیشرفته.

در حالی که Anthropic از اظهارنظر رسمی در مورد جلسه استماع آتی خودداری کرده است، نتایج این شهادت و بحث‌های کنگره قطعاً مسیر توسعه و مقررات‌گذاری هوش مصنوعی را در سال‌های آینده شکل خواهد داد. جهان در آستانه دورانی قرار گرفته که مرزهای میان توانایی‌های هوش مصنوعی در حمله و دفاع، روز به روز نامشخص‌تر می‌شوند.

مجله تکنولوژی ساتراپ


مطالب مرتبط

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا