عقب‌نشینی آنتروپیک از تعهدات ایمنی؛ شرکت هوش مصنوعی در آستانه سربازگیری اجباری توسط پنتاگون

Anthropic

سان فرانسیسکو – شرکت آنتروپیک (Anthropic)، که خود را به عنوان ایمنی‌محورترین شرکت فعال در حوزه هوش مصنوعی معرفی می‌کرد، در اقدامی جنجالی و هم‌زمان با ضرب‌الاجل پنتاگون برای استفاده نظامی بدون محدودیت از فناوری‌اش، سیاست‌های ایمنی خود را به طور اساسی تعدیل کرد. این شرکت اکنون آماده است تا در شرایط خاص، اجازه استفاده از مدل‌های هوش مصنوعی خود برای پرتاب موشک را صادر کند.

آنتروپیک تعهد محوری ایمنی را کنار گذاشت

بر اساس گزارش‌های تأیید شده، آنتروپیک در تاریخ ۲۵ فوریه ۲۰۲۶ اعلام کرد که سیاست مقیاس‌پذیری مسئولانه (Responsible Scaling Policy) خود را به‌روزرسانی کرده است. این چارچوب که اولین بار در سال ۲۰۲۳ با هدف کاهش ریسک‌های فاجعه‌بار مرتبط با سیستم‌های هوش مصنوعی معرفی شد، به عنوان وجه تمایز آنتروپیک از رقبا و نشان‌دهنده تعهد این شرکت به ایمنی، حتی به قیمت عقب‌ماندن از سایر مدل‌های پیشرو، تلقی می‌گردید.

Anthropic
Anthropic

بر اساس گزارش تایم (TIME)، سیاست پیشین آنتروپیک صراحتاً اعلام کرده بود: «ما مدل‌هایی را که قادر به ایجاد آسیب فاجعه‌بار هستند، آموزش نخواهیم داد یا به کار نخواهیم گرفت، مگر اینکه اقدامات ایمنی و امنیتی را پیاده‌سازی کرده باشیم که ریسک‌ها را زیر سطوح قابل قبول نگه دارد.» . اما اکنون، شرکت اعلام کرده که دیگر از صحت این رویکرد در صورت عقب‌ماندن از رقبا اطمینان ندارد. جرد کاپلان، مدیر ارشد علمی آنتروپیک، در این باره به تایم گفت: «ما احساس کردیم که توقف آموزش مدل‌های هوش مصنوعی واقعاً به هیچکس کمک نمی‌کند. با پیشرفت سریع هوش مصنوعی، احساس نکردیم که تعهدات یکجانبه برای ما منطقی باشد، در شرایطی که رقبا با سرعت در حال پیشی گرفتن هستند.» .

سیاست جدید آنتروپیک تعهدات سختگیرانه قبلی را با اهداف ایمنی «غیرالزام‌آور اما اعلام‌شده عمومی» جایگزین کرده است. این شرکت اعلام کرد که به انتشار گزارش‌های ریسک ادامه خواهد داد، اما دیگر خود را ملزم به توقف توسعه مدل‌ها در صورت ناکافی بودن اقدامات ایمنی نمی‌داند. آنتروپیک استدلال می‌کند که توقف توسعه توسط شرکت‌های مسئول، در حالی که رقبای کم‌دقت‌تر به پیشرفت خود ادامه می‌دهند، در نهایت به جهانی کم‌ایمن‌تر منجر خواهد شد .

اولتیماتوم پنتاگون و خط قرمزهای آنتروپیک

این تغییر سیاست در شرایطی رخ می‌دهد که پنتاگون فشار بی‌سابقه‌ای را بر آنتروپیک اعمال کرده است. بر اساس گزارش‌های متعدد از جمله سی‌جی‌تی‌ان (CGTN) و بی‌بی‌سی (BBC)، پیت هگست، وزیر دفاع آمریکا، در دیدار با داریو آمودی، مدیرعامل آنتروپیک، به این شرکت تا روز جمعه مهلت داده است تا با استفاده نظامی بدون محدودیت از فناوری خود موافقت کند، در غیر این صورت با عواقب شدیدی از جمله لغو قرارداد ۲۰۰ میلیون دلاری و اعمال قانون تولید دفاعی (Defense Production Act) دوران جنگ سرد مواجه خواهد شد .

منابع آگاه از مذاکرات فاش کرده‌اند که آنتروپیک همچنان بر دو خط قرمز اصلی خود پافشاری می‌کند: عدم استفاده از مدل‌هایش برای نظارت جمعی بر شهروندان آمریکایی و عدم استفاده در سیستم‌های تسلیحاتی کاملاً خودمختار که بدون دخالت انسان تصمیم به هدف‌گیری می‌گیرند . با این حال، گزارش‌ها حاکی از آن است که این شرکت قبلاً در دسامبر گذشته با پنتاگون درباره امکان استفاده از مدلش برای پرتاب خودکار موشک‌های دفاعی (جهت رهگیری موشک‌های دیگر) گفت‌وگو کرده و حاضر به ایجاد معافیت برای چنین سناریویی شده است.

تحلیل: هم‌زمانی یا علت و معلول؟

به گزارش سی‌ان‌ان (CNN)، این شرکت در پست وبلاگی خود اذعان کرده است که سیاست ایمنی قبلی‌اش با فضای سیاسی کنونی واشنگتن که ضد مقررات است، هماهنگ نبوده است . اگرچه آنتروپیک تأکید می‌کند که تغییر سیاستش ارتباطی با مذاکرات با پنتاگون ندارد، اما هم‌زمانی این دو رویداد و لحن اعلامیه جدید، گمانه‌زنی‌ها را در مورد تأثیرپذیری این شرکت از فشارهای دولتی افزایش داده است. به گفته کریس پینتر، مدیر سیاست در METR، این تغییر سیاست نشانه نگران‌کننده‌ای برای توانایی جهان در مواجهه با فجایع احتمالی هوش مصنوعی است و حاکی از آن است که روش‌های ارزیابی و کاهش ریسک با سرعت پیشرفت قابلیت‌ها همگام نیستند .

جمع‌بندی

آنتروپیک که زمانی خود را به عنوان شرکت دارای «روح» در دنیای هوش مصنوعی معرفی می‌کرد، اکنون در دوراهی تاریخی قرار گرفته است. از یک سو، با تعدیل سیاست‌های ایمنی خود تلاش می‌کند عقب‌ماندگی از رقبا را جبران کند و از سوی دیگر، در برابر فشار پنتاگون برای استفاده نامحدود نظامی از فناوری‌اش، در حالی که بر دو خط قرمز خود پافشاری می‌کند، آماده است در مواردی مانند دفاع موشکی انعطاف نشان دهد. سرنوشت این شرکت تا پایان مهلت پنتاگون می‌تواند الگویی برای تعامل غول‌های فناوری با نیازهای امنیت ملی در عصر هوش مصنوعی تعیین کند.

جدیدترین اخبار تکنولوژی

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *