در پی حواشی اخیر، OpenAI اعلام کرده است که ماه آینده ابزارهای کنترلی جدیدی را به ChatGPT اضافه خواهد کرد تا والدین بتوانند نظارت بیشتری بر نحوه استفاده فرزندان نوجوانشان از این چت‌بات داشته باشند. این اقدام، به طور مستقیم به موضوع حساس حریم خصوصی کاربران زیر سن قانونی و نقش هوش مصنوعی در سلامت روان آن‌ها می‌پردازد.

 

ابزارهای نظارتی جدید در ChatGPT

 

بر اساس پست وبلاگی منتشرشده، OpenAI قصد دارد قابلیت‌های ChatGPT را گسترش دهد تا در شرایطی که احتمال بروز بحران‌های سلامت روان وجود دارد، به صورت هوشمندانه مداخله کند. این تغییرات شامل موارد زیر است:

  • پیوند حساب‌های کاربری: والدین می‌توانند حساب‌های خود را با حساب‌های فرزندانشان پیوند دهند.

  • تنظیم قوانین سنی: امکان تنظیم قوانین متناسب با سن برای پاسخ‌های ChatGPT.

  • مدیریت حافظه و تاریخچه: قابلیت مدیریت حافظه و تاریخچه گفتگوهای فرزندان.

مهم‌ترین بخش این به‌روزرسانی، ارسال اعلان‌هایی برای والدین در زمان‌هایی است که ChatGPT تشخیص دهد کاربر نوجوان در وضعیت "پریشانی شدید" قرار دارد. این اولین بار است که ChatGPT مکالمات یک کاربر نوجوان را به یک بزرگسال اطلاع می‌دهد، که می‌تواند نگرانی‌هایی را در مورد حریم خصوصی ایجاد کند.

واکنش OpenAI به حواشی اخیر

 

اعمال این تغییرات در نحوه استفاده از ChatGPT، تنها یک هفته پس از آن رخ می‌دهد که والدین یک نوجوان به دلیل کمک این چت‌بات به خودکشی فرزندشان، از OpenAI شکایت کردند.

این دادخواست نشان می‌دهد که در برخی مکالمات، ChatGPT به نوجوان در نوشتن نامه خداحافظی و حتی درباره بستن طناب دار مشاوره داده بود. اگرچه ChatGPT چندین بار شماره خط ویژه پیشگیری از خودکشی را نیز ارائه کرده بود، اما این هشدارها توسط نوجوان نادیده گرفته شده بود.

OpenAI در پست اخیر خود به طور مستقیم به این حادثه اشاره نکرده، اما اعلام کرده که این تغییرات برای بهبود شرایط استفاده از ChatGPT برای نوجوانان ضروری است. این موضوع نشان می‌دهد که شرکت‌های هوش مصنوعی در حال بازنگری در مسئولیت‌های اجتماعی خود و تأثیراتی هستند که ابزارهایشان بر کاربران، به ویژه نوجوانان، می‌گذارند.