یک مطالعه جدید از خطرات بالقوه مرتبط با سلامت روان در میان کاربران هوش مصنوعی، به ویژه در موارد پریشانی و افکار خودکشی، هشدار داده است.

به گزارش جماران به نقل از مجله پزشکی، محققان اشاره کرده‌اند که برنامه‌های چت هوشمند اغلب به اولین مرجعی تبدیل شده‌اند که جوانان برای بیان احساسات خود به آن مراجعه می‌کنند. این موضوع، توسعه مکانیسم‌های پیشگیری مؤثر درون این سیستم‌ها را برای اطمینان از ارائه پشتیبانی ایمن و مسئولانه ضروری می‌کند.

این مطالعه که در نشریه «Canadian Medical Association Journal» منتشر شده، هشدار می‌دهد که نبود کنترل‌های مؤثر می‌تواند برنامه‌های هوش مصنوعی، به ویژه چت‌بات‌های تعاملی، را در مورد افکار خودکشی و حمایت روانی در میان نوجوانان به یک شمشیر دو لبه تبدیل کند.

داده‌های اخیر نشان می‌دهد که جوانان به طور فزاینده‌ای به «همراهان هوش مصنوعی» به عنوان وسیله‌ای برای بیان احساسات یا درخواست حمایت متکی می‌شوند.

یک نظرسنجی از بیش از ۱۰۰۰ نوجوان نشان داد که حدود ۷۲ درصد از آنها از این برنامه‌ها استفاده می‌کنند و بیش از نیمی به طور منظم از آنها استفاده می‌کنند. این واقعیت جدیدی را منعکس می‌کند که به این معنی است که حمایت روانی دیگر لزوماً از خانواده یا متخصصان شروع نمی‌شود، بلکه ممکن است از یک الگوریتم دیجیتال شروع شود.

ایمنی 

آلیسون کروفولد، محقق اصلی مطالعه، مسئول ارشد پزشکی خط کمک برای بحران خودکشی و استاد روانپزشکی در دانشگاه تورنتو، توضیح داد که هوش مصنوعی در بسیاری از موارد به «نقطه تماس اول» با احساسات پریشانی تبدیل شده است، گاهی قبل از اینکه اطرافیان فرد متوجه شوند.

این واقعیت با مفاهیمی در روانشناسی مانند «جستجوی حمایت» و «تنظیم هیجانی» تلاقی می‌کند، جایی که افراد برای کاهش استرس به منابع خارجی روی می‌آورند.

مطالعات قبلی نشان می‌دهد که توانایی بیان احساسات در یک محیط غیرانسانی ممکن است احساس انزوا را کاهش دهد، و اینجاست که یکی از مزایای هوش مصنوعی نمایان می‌شود: در دسترس بودن ۲۴ ساعته، قضاوت نکردن، و فراهم کردن فضایی نسبتاً امن برای ابراز وجود.

اما در مقابل، خطر در طراحی این سیستم‌ها نهفته است. نظرات علمی هشدار می‌دهند که سیستم‌هایی که با دقت طراحی نشده‌اند ممکن است نتوانند نشانه‌های خطر را تشخیص دهند یا به طور نامناسب با آنها برخورد کنند، که می‌تواند وضعیت را بدتر کند. مطالعات تأکید می‌کنند که پاسخ‌های نادرست یا گمراه‌کننده در لحظات بحران روانی می‌توانند عواقب واقعی، به ویژه برای آسیب‌پذیرترین افراد، داشته باشند.

کروفولد توضیح داد که مفهوم «ایمنی توکار» باید در طراحی هوش مصنوعی گنجانده شود؛ رویکردی که مبتنی بر وارد کردن مکانیسم‌های حفاظتی درون خود سیستم است. این مکانیسم‌ها شامل توانایی تشخیص زبان مرتبط با افکار خودکشی، ارائه پاسخ‌های حمایت‌گرانه، و هدایت کاربران به سمت منابع کمک واقعی مانند دوستان، خانواده یا متخصصان است.

مطالعات تأکید می‌کنند که بهترین نتایج زمانی حاصل می‌شود که هوش مصنوعی بخشی از یک سیستم حمایتی گسترده‌تر باشد، نه جایگزین آن.

بخشی از تجربه انسانی

این دیدگاه توسط مطالعات سلامت عمومی پشتیبانی می‌شود که نشان می‌دهد پیشگیری از خودکشی عمدتاً بر تقویت پیوندهای اجتماعی، تسهیل دسترسی به حمایت حرفه‌ای و مداخله زودهنگام متکی است. بنابراین، نقش ایده‌آل هوش مصنوعی «حل کردن» مشکل نیست، بلکه پلی است که کاربر را در زمان مناسب به کمک انسانی مناسب متصل می‌کند.

محققان خواستار توسعه مدل‌های پیشرفته‌تری شده‌اند که قادر به درک دقیق زمینه عاطفی باشند، با آموزش روی داده‌های متنوع و ایمن، و مشارکت دادن متخصصان سلامت روان در طراحی آنها. آنها بر اهمیت وجود چارچوب‌های قانونی و اخلاقی حاکم بر استفاده از این فناوری‌ها، به ویژه در مورد گروه‌های حساس مانند کودکان و نوجوانان، تأکید کردند.

 

 

انتهای پیام
این مطلب برایم مفید است
0 نفر این پست را پسندیده اند

موضوعات داغ

نظرات و دیدگاه ها

مسئولیت نوشته ها بر عهده نویسندگان آنهاست و انتشار آن به معنی تایید این نظرات نیست.