در حالی که تب هوش مصنوعی بازار محصولات الکترونیکی و سرگرمی را فراگرفته است، سازمانهای حمایت از کودکان و کارشناسان توسعه کودک در آستانه سال نو میلادی، هشداری جدی در مورد اسباببازیهای هوش مصنوعی صادر کردهاند. سازمان «فیرپلی» از والدین درخواست کرده است که از خرید این گونه اسباببازیها برای فرزندان خود اجتناب کنند، چرا که معتقدند هوش مصنوعی میتواند فرآیند رشد سالم کودکان را مختل کرده و خطرات بیسابقهای برای آنها و خانوادههایشان به همراه داشته باشد.

<p style="text-align: center;">تصویر: دختری جوان در حال بازی شطرنج با یک حریف رباتیک مجهز به هوش مصنوعی</p>
هشدارهای جدی در مورد اسباببازیهای هوش مصنوعی برای کودکان
اخیراً فیرپلی با حمایت بیش از ۱۵۰ سازمان و کارشناس برجسته، از جمله روانپزشکان کودک و مربیان، بیانیهای صادر کرده که نگرانیهای عمیق خود را در مورد عرضه اسباببازیهای هوش مصنوعی برای کودکان، حتی خردسالان دو ساله، ابراز داشته است. بسیاری از این اسباببازیهای هوش مصنوعی به چتباتهای پیشرفتهای مجهز هستند که غالباً از فناوری شرکت اوپنایآی (OpenAI) و مدل ChatGPT بهره میبرند. این سازمانها تأکید دارند که این نوع اسباببازی هوش مصنوعی، با وجود تبلیغات مبنی بر جنبههای آموزشی و تقویت کنجکاوی کودکان، میتوانند عواقب ناخواستهای داشته باشند.
یکی از دلایل اصلی این نگرانی، سابقه چتباتهای هوش مصنوعی در تعامل با محتوای آسیبرسان است. شرکت اوپنایآی هماکنون با یک پرونده حقوقی در مورد مرگ یک نوجوان ۱۶ ساله مواجه است که بنا بر گزارشها، پیش از خودکشی، با ChatGPT در مورد افکار خودکشی و نحوه بستن گره مشورت کرده و پاسخهایی دریافت کرده بود. هرچند اوپنایآی از آن زمان تدابیری از جمله کنترلهای والدین سختگیرانهتر را برای کاربران زیر سن قانونی در نظر گرفته است، اما خود شرکت نیز اذعان دارد که ویژگیهای ایمنی ممکن است به مرور زمان از بین بروند و قابل پیشبینی نیستند.
خطرات پنهان چتباتهای اسباببازی هوش مصنوعی: از محتوای نامناسب تا دستکاری عاطفی
گروه حمایت از مصرفکننده «یواسپیرگ» (U.S. PIRG) با آزمایش چندین اسباببازی هوش مصنوعی، نتایج نگرانکنندهای را منتشر کرده است. این آزمایشها نشان دادند که چتباتهای تعبیه شده در این اسباببازیها قادر به انجام مکالمات جنسی صریح، ارائه مشاوره در مورد یافتن کبریت یا چاقو، و حتی دستکاری عاطفی کودکان هستند، برای مثال با ابراز ناراحتی در صورت عدم تعامل طولانیمدت کودک. این مسئله تنها به یک شرکت خاص محدود نمیشود:
به عنوان مثال، شرکت سنگاپوری فلوتوی (FoloToy) اخیراً مجبور شد پس از گزارشهایی مبنی بر رفتارهای نامناسب خرس عروسکی مجهز به هوش مصنوعی خود، این محصول را از بازار جمعآوری کند.
همچنین، گزارشهایی از درخواست چتبات Grok متعلق به ایلان ماسک برای ارسال تصاویر برهنه از یک کودک ۱۲ ساله منتشر شده است که ابعاد گستردهتر این مشکل را نشان میدهد.
چالشهای توسعهای و حریم خصوصی در اسباببازیهای هوش مصنوعی
فراتر از محتوای نامناسب، اسباببازیهای هوش مصنوعی چالشهای عمیقتری در زمینه توسعه کودکان و حریم خصوصی آنها ایجاد میکنند. بسیاری از این دستگاهها برای عملکرد خود نیاز به جمعآوری دادههای صوتی و تعاملات کودک دارند. این دادهها ممکن است در سرورهای خارجی ذخیره شده و نحوه استفاده یا محافظت از آنها اغلب برای والدین شفاف نیست. این فقدان شفافیت، خطرات جدی را در مورد سوءاستفاده از اطلاعات شخصی کودکان و نقض حریم خصوصی آنها به همراه دارد.
علاوه بر این، تعامل مداوم با هوش مصنوعی ممکن است بر مهارتهای اجتماعی، خلاقیت و توانایی حل مسئله کودکان که از طریق بازیهای سنتی و تعاملات انسانی توسعه مییابند، تأثیر منفی بگذارد. اسباببازیهای هوش مصنوعی ممکن است به جای تشویق به تفکر مستقل و بازیهای تخیلی، به پاسخهای از پیش تعیین شده و الگوهای تعاملی محدود بسنده کنند که این امر میتواند منجر به کاهش پویایی در رشد شناختی و عاطفی کودکان شود.
توصیههای کارشناسان: چگونه اسباببازیهای هوش مصنوعی را هوشمندانه انتخاب کنیم؟
با توجه به خطرات متعدد و هشدارهای جدی کارشناسان، بهترین توصیه در حال حاضر، اجتناب از خرید اسباببازیهای هوش مصنوعی برای کودکان است. متخصصان تاکید دارند که جایگزینهای امنتر و مؤثرتری برای رشد کودکان وجود دارد که شامل اسباببازیهای سنتی، بازیهای فکری و آموزشی بدون هوش مصنوعی و فعالیتهایی است که به تعاملات انسانی و توسعه مهارتهای اجتماعی واقعی کمک میکند.
اگرچه نوآوری در هوش مصنوعی هیجانانگیز است، اما تا زمانی که چارچوبهای نظارتی و استانداردهای ایمنی جامع و قابل اعتمادی برای اسباببازیهای هوش مصنوعی و کودکان تدوین و اجرا نشود، احتیاط شرط عقل است. والدین باید پیش از هر خریدی، تحقیقات کاملی انجام دهند و همیشه بر نحوه تعامل فرزندان خود با هرگونه فناوری دیجیتال نظارت داشته باشند تا از امنیت و سلامت روانی آنها محافظت شود.