در پی حواشی اخیر، OpenAI اعلام کرده است که ماه آینده ابزارهای کنترلی جدیدی را به ChatGPT اضافه خواهد کرد تا والدین بتوانند نظارت بیشتری بر نحوه استفاده فرزندان نوجوانشان از این چتبات داشته باشند. این اقدام، به طور مستقیم به موضوع حساس حریم خصوصی کاربران زیر سن قانونی و نقش هوش مصنوعی در سلامت روان آنها میپردازد.
ابزارهای نظارتی جدید در ChatGPT
بر اساس پست وبلاگی منتشرشده، OpenAI قصد دارد قابلیتهای ChatGPT را گسترش دهد تا در شرایطی که احتمال بروز بحرانهای سلامت روان وجود دارد، به صورت هوشمندانه مداخله کند. این تغییرات شامل موارد زیر است:
پیوند حسابهای کاربری: والدین میتوانند حسابهای خود را با حسابهای فرزندانشان پیوند دهند.
تنظیم قوانین سنی: امکان تنظیم قوانین متناسب با سن برای پاسخهای ChatGPT.
مدیریت حافظه و تاریخچه: قابلیت مدیریت حافظه و تاریخچه گفتگوهای فرزندان.
مهمترین بخش این بهروزرسانی، ارسال اعلانهایی برای والدین در زمانهایی است که ChatGPT تشخیص دهد کاربر نوجوان در وضعیت "پریشانی شدید" قرار دارد. این اولین بار است که ChatGPT مکالمات یک کاربر نوجوان را به یک بزرگسال اطلاع میدهد، که میتواند نگرانیهایی را در مورد حریم خصوصی ایجاد کند.
واکنش OpenAI به حواشی اخیر
اعمال این تغییرات در نحوه استفاده از ChatGPT، تنها یک هفته پس از آن رخ میدهد که والدین یک نوجوان به دلیل کمک این چتبات به خودکشی فرزندشان، از OpenAI شکایت کردند.
این دادخواست نشان میدهد که در برخی مکالمات، ChatGPT به نوجوان در نوشتن نامه خداحافظی و حتی درباره بستن طناب دار مشاوره داده بود. اگرچه ChatGPT چندین بار شماره خط ویژه پیشگیری از خودکشی را نیز ارائه کرده بود، اما این هشدارها توسط نوجوان نادیده گرفته شده بود.
OpenAI در پست اخیر خود به طور مستقیم به این حادثه اشاره نکرده، اما اعلام کرده که این تغییرات برای بهبود شرایط استفاده از ChatGPT برای نوجوانان ضروری است. این موضوع نشان میدهد که شرکتهای هوش مصنوعی در حال بازنگری در مسئولیتهای اجتماعی خود و تأثیراتی هستند که ابزارهایشان بر کاربران، به ویژه نوجوانان، میگذارند.