سان فرانسیسکو – شرکت آنتروپیک (Anthropic)، که خود را به عنوان ایمنیمحورترین شرکت فعال در حوزه هوش مصنوعی معرفی میکرد، در اقدامی جنجالی و همزمان با ضربالاجل پنتاگون برای استفاده نظامی بدون محدودیت از فناوریاش، سیاستهای ایمنی خود را به طور اساسی تعدیل کرد. این شرکت اکنون آماده است تا در شرایط خاص، اجازه استفاده از مدلهای هوش مصنوعی خود برای پرتاب موشک را صادر کند.
آنتروپیک تعهد محوری ایمنی را کنار گذاشت
بر اساس گزارشهای تأیید شده، آنتروپیک در تاریخ ۲۵ فوریه ۲۰۲۶ اعلام کرد که سیاست مقیاسپذیری مسئولانه (Responsible Scaling Policy) خود را بهروزرسانی کرده است. این چارچوب که اولین بار در سال ۲۰۲۳ با هدف کاهش ریسکهای فاجعهبار مرتبط با سیستمهای هوش مصنوعی معرفی شد، به عنوان وجه تمایز آنتروپیک از رقبا و نشاندهنده تعهد این شرکت به ایمنی، حتی به قیمت عقبماندن از سایر مدلهای پیشرو، تلقی میگردید.

بر اساس گزارش تایم (TIME)، سیاست پیشین آنتروپیک صراحتاً اعلام کرده بود: «ما مدلهایی را که قادر به ایجاد آسیب فاجعهبار هستند، آموزش نخواهیم داد یا به کار نخواهیم گرفت، مگر اینکه اقدامات ایمنی و امنیتی را پیادهسازی کرده باشیم که ریسکها را زیر سطوح قابل قبول نگه دارد.» . اما اکنون، شرکت اعلام کرده که دیگر از صحت این رویکرد در صورت عقبماندن از رقبا اطمینان ندارد. جرد کاپلان، مدیر ارشد علمی آنتروپیک، در این باره به تایم گفت: «ما احساس کردیم که توقف آموزش مدلهای هوش مصنوعی واقعاً به هیچکس کمک نمیکند. با پیشرفت سریع هوش مصنوعی، احساس نکردیم که تعهدات یکجانبه برای ما منطقی باشد، در شرایطی که رقبا با سرعت در حال پیشی گرفتن هستند.» .
سیاست جدید آنتروپیک تعهدات سختگیرانه قبلی را با اهداف ایمنی «غیرالزامآور اما اعلامشده عمومی» جایگزین کرده است. این شرکت اعلام کرد که به انتشار گزارشهای ریسک ادامه خواهد داد، اما دیگر خود را ملزم به توقف توسعه مدلها در صورت ناکافی بودن اقدامات ایمنی نمیداند. آنتروپیک استدلال میکند که توقف توسعه توسط شرکتهای مسئول، در حالی که رقبای کمدقتتر به پیشرفت خود ادامه میدهند، در نهایت به جهانی کمایمنتر منجر خواهد شد .
اولتیماتوم پنتاگون و خط قرمزهای آنتروپیک
این تغییر سیاست در شرایطی رخ میدهد که پنتاگون فشار بیسابقهای را بر آنتروپیک اعمال کرده است. بر اساس گزارشهای متعدد از جمله سیجیتیان (CGTN) و بیبیسی (BBC)، پیت هگست، وزیر دفاع آمریکا، در دیدار با داریو آمودی، مدیرعامل آنتروپیک، به این شرکت تا روز جمعه مهلت داده است تا با استفاده نظامی بدون محدودیت از فناوری خود موافقت کند، در غیر این صورت با عواقب شدیدی از جمله لغو قرارداد ۲۰۰ میلیون دلاری و اعمال قانون تولید دفاعی (Defense Production Act) دوران جنگ سرد مواجه خواهد شد .
منابع آگاه از مذاکرات فاش کردهاند که آنتروپیک همچنان بر دو خط قرمز اصلی خود پافشاری میکند: عدم استفاده از مدلهایش برای نظارت جمعی بر شهروندان آمریکایی و عدم استفاده در سیستمهای تسلیحاتی کاملاً خودمختار که بدون دخالت انسان تصمیم به هدفگیری میگیرند . با این حال، گزارشها حاکی از آن است که این شرکت قبلاً در دسامبر گذشته با پنتاگون درباره امکان استفاده از مدلش برای پرتاب خودکار موشکهای دفاعی (جهت رهگیری موشکهای دیگر) گفتوگو کرده و حاضر به ایجاد معافیت برای چنین سناریویی شده است.
تحلیل: همزمانی یا علت و معلول؟
به گزارش سیانان (CNN)، این شرکت در پست وبلاگی خود اذعان کرده است که سیاست ایمنی قبلیاش با فضای سیاسی کنونی واشنگتن که ضد مقررات است، هماهنگ نبوده است . اگرچه آنتروپیک تأکید میکند که تغییر سیاستش ارتباطی با مذاکرات با پنتاگون ندارد، اما همزمانی این دو رویداد و لحن اعلامیه جدید، گمانهزنیها را در مورد تأثیرپذیری این شرکت از فشارهای دولتی افزایش داده است. به گفته کریس پینتر، مدیر سیاست در METR، این تغییر سیاست نشانه نگرانکنندهای برای توانایی جهان در مواجهه با فجایع احتمالی هوش مصنوعی است و حاکی از آن است که روشهای ارزیابی و کاهش ریسک با سرعت پیشرفت قابلیتها همگام نیستند .
جمعبندی
آنتروپیک که زمانی خود را به عنوان شرکت دارای «روح» در دنیای هوش مصنوعی معرفی میکرد، اکنون در دوراهی تاریخی قرار گرفته است. از یک سو، با تعدیل سیاستهای ایمنی خود تلاش میکند عقبماندگی از رقبا را جبران کند و از سوی دیگر، در برابر فشار پنتاگون برای استفاده نامحدود نظامی از فناوریاش، در حالی که بر دو خط قرمز خود پافشاری میکند، آماده است در مواردی مانند دفاع موشکی انعطاف نشان دهد. سرنوشت این شرکت تا پایان مهلت پنتاگون میتواند الگویی برای تعامل غولهای فناوری با نیازهای امنیت ملی در عصر هوش مصنوعی تعیین کند.
