یک مطالعه جدید از خطرات بالقوه مرتبط با سلامت روان در میان کاربران هوش مصنوعی، به ویژه در موارد پریشانی و افکار خودکشی، هشدار داده است.
به گزارش جماران به نقل از مجله پزشکی، محققان اشاره کردهاند که برنامههای چت هوشمند اغلب به اولین مرجعی تبدیل شدهاند که جوانان برای بیان احساسات خود به آن مراجعه میکنند. این موضوع، توسعه مکانیسمهای پیشگیری مؤثر درون این سیستمها را برای اطمینان از ارائه پشتیبانی ایمن و مسئولانه ضروری میکند.
این مطالعه که در نشریه «Canadian Medical Association Journal» منتشر شده، هشدار میدهد که نبود کنترلهای مؤثر میتواند برنامههای هوش مصنوعی، به ویژه چتباتهای تعاملی، را در مورد افکار خودکشی و حمایت روانی در میان نوجوانان به یک شمشیر دو لبه تبدیل کند.
دادههای اخیر نشان میدهد که جوانان به طور فزایندهای به «همراهان هوش مصنوعی» به عنوان وسیلهای برای بیان احساسات یا درخواست حمایت متکی میشوند.
یک نظرسنجی از بیش از ۱۰۰۰ نوجوان نشان داد که حدود ۷۲ درصد از آنها از این برنامهها استفاده میکنند و بیش از نیمی به طور منظم از آنها استفاده میکنند. این واقعیت جدیدی را منعکس میکند که به این معنی است که حمایت روانی دیگر لزوماً از خانواده یا متخصصان شروع نمیشود، بلکه ممکن است از یک الگوریتم دیجیتال شروع شود.
ایمنی
آلیسون کروفولد، محقق اصلی مطالعه، مسئول ارشد پزشکی خط کمک برای بحران خودکشی و استاد روانپزشکی در دانشگاه تورنتو، توضیح داد که هوش مصنوعی در بسیاری از موارد به «نقطه تماس اول» با احساسات پریشانی تبدیل شده است، گاهی قبل از اینکه اطرافیان فرد متوجه شوند.
این واقعیت با مفاهیمی در روانشناسی مانند «جستجوی حمایت» و «تنظیم هیجانی» تلاقی میکند، جایی که افراد برای کاهش استرس به منابع خارجی روی میآورند.
مطالعات قبلی نشان میدهد که توانایی بیان احساسات در یک محیط غیرانسانی ممکن است احساس انزوا را کاهش دهد، و اینجاست که یکی از مزایای هوش مصنوعی نمایان میشود: در دسترس بودن ۲۴ ساعته، قضاوت نکردن، و فراهم کردن فضایی نسبتاً امن برای ابراز وجود.
اما در مقابل، خطر در طراحی این سیستمها نهفته است. نظرات علمی هشدار میدهند که سیستمهایی که با دقت طراحی نشدهاند ممکن است نتوانند نشانههای خطر را تشخیص دهند یا به طور نامناسب با آنها برخورد کنند، که میتواند وضعیت را بدتر کند. مطالعات تأکید میکنند که پاسخهای نادرست یا گمراهکننده در لحظات بحران روانی میتوانند عواقب واقعی، به ویژه برای آسیبپذیرترین افراد، داشته باشند.
کروفولد توضیح داد که مفهوم «ایمنی توکار» باید در طراحی هوش مصنوعی گنجانده شود؛ رویکردی که مبتنی بر وارد کردن مکانیسمهای حفاظتی درون خود سیستم است. این مکانیسمها شامل توانایی تشخیص زبان مرتبط با افکار خودکشی، ارائه پاسخهای حمایتگرانه، و هدایت کاربران به سمت منابع کمک واقعی مانند دوستان، خانواده یا متخصصان است.
مطالعات تأکید میکنند که بهترین نتایج زمانی حاصل میشود که هوش مصنوعی بخشی از یک سیستم حمایتی گستردهتر باشد، نه جایگزین آن.
بخشی از تجربه انسانی
این دیدگاه توسط مطالعات سلامت عمومی پشتیبانی میشود که نشان میدهد پیشگیری از خودکشی عمدتاً بر تقویت پیوندهای اجتماعی، تسهیل دسترسی به حمایت حرفهای و مداخله زودهنگام متکی است. بنابراین، نقش ایدهآل هوش مصنوعی «حل کردن» مشکل نیست، بلکه پلی است که کاربر را در زمان مناسب به کمک انسانی مناسب متصل میکند.
محققان خواستار توسعه مدلهای پیشرفتهتری شدهاند که قادر به درک دقیق زمینه عاطفی باشند، با آموزش روی دادههای متنوع و ایمن، و مشارکت دادن متخصصان سلامت روان در طراحی آنها. آنها بر اهمیت وجود چارچوبهای قانونی و اخلاقی حاکم بر استفاده از این فناوریها، به ویژه در مورد گروههای حساس مانند کودکان و نوجوانان، تأکید کردند.