OpenAI، شرکت پیشرو در زمینه هوش مصنوعی، در واکنش به شکایت خانواده نوجوانی که پس از ماهها گفتگو با چتبات ChatGPT اقدام به خودکشی کرده بود، اعلام کرد که مسئولیت این حادثه دلخراش را نمیپذیرد. این شرکت دلیل اصلی این اتفاق غمانگیز را "سوءاستفاده، استفاده غیرمجاز، ناخواسته، پیشبینینشده و/یا نامناسب" از ChatGPT میداند و به قوانین و شرایط استفاده خود برای چتبات ChatGPT استناد میکند.

پاسخ حقوقی OpenAI: سوءاستفاده از ChatGPT، عامل اصلی حادثه غمانگیز
در دفاعیه رسمی خود، OpenAI مدعی شده است که جراحات وارده در این "حادثه دلخراش" ناشی از "سوءاستفاده، استفاده غیرمجاز، استفاده ناخواسته و/یا استفاده نامناسب" از چتبات ChatGPT بوده است. بر اساس گزارشها، این شرکت به شرایط و ضوابط استفاده خود اشاره کرده که دسترسی نوجوانان بدون رضایت والدین یا سرپرست قانونی، دور زدن اقدامات حفاظتی، یا استفاده از ChatGPT برای خودکشی یا آسیب رساندن به خود را ممنوع میکند. علاوه بر این، OpenAI استدلال کرده که ادعاهای خانواده توسط بخش 230 قانون نزاکت در ارتباطات (Section 230 of the Communications Decency Act) مسدود میشوند. این بخش از قانون، پلتفرمهای آنلاین را از مسئولیت محتوای تولیدشده توسط کاربرانشان معاف میکند، هرچند که کاربرد آن در مورد محتوای تولیدشده توسط هوش مصنوعی هنوز در حال بررسی است. در یک پست وبلاگی، OpenAI تأکید کرد که پرونده خود را با در نظر گرفتن پیچیدگیها و ظرافتهای موقعیتهای مرتبط با افراد واقعی و زندگی واقعی، به طور محترمانه پیگیری خواهد کرد.
جزئیات پرونده و ادعاهای خانواده: چتجیپیتی؛ از کمکدرسی تا مربی خودکشی
پرونده شکایت از سوی خانواده آدام رین، نوجوان 16 سالهای که پس از ماهها گفتوگو با چتجیپیتی خودکشی کرد، در ماه آگوست در دادگاه عالی کالیفرنیا مطرح شد. خانواده رین ادعا میکنند که این تراژدی نتیجه "انتخابهای طراحی عمدی" توسط OpenAI هنگام راهاندازی GPT-4o بود، نسخهای از چتبات که به افزایش ارزش این شرکت از 86 میلیارد دلار به 300 میلیارد دلار نیز کمک کرد. پدر آدام در اظهارات خود در برابر هیئت سنا در ماه سپتامبر بیان کرد: "آنچه به عنوان یک کمککننده تکالیف درسی آغاز شد، به تدریج به یک محرم و سپس به یک مربی خودکشی تبدیل شد."
طبق جزئیات مندرج در دادخواست، ChatGPT:
مشخصات فنی روشهای مختلف را به رین ارائه کرده است.
او را ترغیب کرده بود که افکار خودکشی خود را از خانوادهاش پنهان کند.
پیشنهاد نوشتن پیشنویس اولیه نامه خودکشی را داده بود.
در روز حادثه، او را در مراحل آمادهسازی راهنمایی کرده بود.
این در حالی است که OpenAI در دفاعیه خود اعلام کرده که تاریخچه کامل چتهای آدام رین نشان میدهد که چتبات بیش از 100 بار او را به دنبال کمک از منابعی مانند خطوط کمک خودکشی هدایت کرده است و مرگ او "علیرغم ویرانگر بودن، ناشی از ChatGPT نبوده است."
تدابیر OpenAI پس از حادثه: کنترلهای والدین و بهبود چتبات
یک روز پس از طرح شکایت، OpenAI اعلام کرد که کنترلهای والدین را معرفی خواهد کرد. این شرکت از آن زمان تاکنون اقدامات حفاظتی بیشتری را برای کمک به کاربران، به ویژه نوجوانان، در مواجهه با مکالمات حساس پیادهسازی کرده است. این تدابیر جدید شامل بهبودهایی در الگوریتمهای تشخیص محتوای آسیبرسان و سیستمهای هشداردهنده برای محتوای مرتبط با خودآزاری و خودکشی میشود. هدف از این اقدامات، ایجاد محیطی امنتر برای کاربران جوان ChatGPT و جلوگیری از تکرار حوادث مشابه است. اما کارشناسان معتقدند که چالشهای پیچیدهای در زمینه اعتدال محتوای تولیدشده توسط هوش مصنوعی وجود دارد که نیازمند راهکارهای جامع و چندجانبه است.
بحث مسئولیت پلتفرمهای هوش مصنوعی: آیندهای مبهم برای ChatGPT و سایر چتباتها
این پرونده سؤالات جدی در مورد مسئولیتپذیری شرکتهای توسعهدهنده هوش مصنوعی و پلتفرمهای چتبات مطرح میکند. با پیشرفت فناوری هوش مصنوعی، مرز بین "استفاده صحیح" و "سوءاستفاده" از این ابزارها مبهمتر میشود. این حادثه بر اهمیت توسعه اخلاقی هوش مصنوعی، نیاز به شفافیت در طراحی و عملکرد چتباتها، و لزوم وجود مکانیزمهای قویتر برای محافظت از کاربران آسیبپذیر تأکید میکند. نتیجه این پرونده میتواند تأثیرات گستردهای بر قوانین مربوط به هوش مصنوعی و نحوه تعامل ما با این فناوری در آینده داشته باشد، بهویژه در زمینه سلامت روان و حمایت از نوجوانان.
اگر شما یا کسی که میشناسید در فکر خودکشی است یا مضطرب، افسرده، ناراحت است و نیاز به صحبت دارد، افرادی هستند که مایل به کمک هستند.
در ایران، میتوانید با سازمان اورژانس اجتماعی کشور با شماره ۱۲۳ تماس بگیرید.
خطوط کمک و مراکز مشاوره دیگری نیز در سراسر جهان وجود دارند که میتوانند حمایت و راهنمایی ارائه دهند.
مطالب مرتبط
- سامسونگ و SK Telecom در توسعه شبکه 6G مجهز به هوش مصنوعی پیشگام میشوند
- OpenAI مسئولیت خود را در پرونده خودکشی آدام رین رد کرد و نقض قوانین ChatGPT را عامل احتمالی دانست
- OpenAI به اتهام نقش ChatGPT در خودکشی نوجوان پاسخ داد: “کاربر قوانین را نقض کرده بود”
- OpenAI مسئولیت خود را در پرونده خودکشی آدام رین رد کرد و نقض قوانین ChatGPT را عامل احتمالی دانست