پیشگیری از خودکشی با هوش مصنوعی

هوش مصنوعی با گسترش سریعش تاثیرات فراوانی در زندگی بشر داشته است و این بار نقش خود را در پیشگیری از خودکشی ایفا می‌کند.

لینک کوتاه کپی شد

جی پلاس، به نقل از webmd، در سال ۲۰۱۷، VHA برنامه هوش مصنوعی خود به نام REACH VET را به صورت آزمایشی اجرا کرد که هدف آن کمک به جلوگیری از مرگ جانبازان بر اثر خودکشی است.

هر ماه، یک کامپیوتر سوابق سلامت الکترونیکی همه بیماران VHA را که به هر دلیلی در ۲ سال گذشته ویزیت مراقبت‌های بهداشتی داشته‌اند، اسکن می‌کند. بیش از ۱۴۰ متغیر را بررسی کرده و آن‌ها را برای تخمین خطر کلی خودکشی در آن لحظه در زمان می‌سنجد.

برای ساختن الگوریتم خطر، رایانه‌ای با بررسی سوابق پزشکی ۶۳۶۰ جانباز تایید کرد که بین سال‌های ۲۰۰۹ تا ۲۰۱۱ بر اثر خودکشی جان باخته‌اند. (VHA به طور مداوم لیست متغیر‌های سوابق بهداشتی بیماران VHA را به روز می‌کند، از جمله افرادی که از آن زمان بر اثر خودکشی جان خود را از دست داده‌اند.)

هوش مصنوعی 

REACH VET خطرناک‌ترین موارد - ۰.۱ ٪ بالا - را برای یک ارائه دهنده سلامت روان یا مراقبت‌های اولیه برای بررسی علامت گذاری می‌کند. آن‌ها با بیمار تماس می‌گیرند تا به او بگویند که چگونه و چرا سابقه آن‌ها سنجیده می‌شود، در مورد تغییرات توصیه شده در درمان صحبت می‌کنند و از آن‌ها می‌خواهند که برای ویزیت مراجعه کنند.

تهیه یک طرح ایمنی برای خودکشی

طرح ایمنی سندی است که نشان می‌دهد چگونه یک فرد می‌تواند از خودکشی خود در یک بحران جلوگیری کند.

این طرح ممکن است شامل موارد زیر باشد:

فهرستی از محرک‌های شخصی یا علائم هشدار دهنده

چه چیزی در گذشته به آن‌ها کمک کرده است

اسامی افراد یا سازمان‌هایی که می‌توانند از آن‌ها حمایت کنند

برنامه‌هایی برای حذف وسایل خودکشی مانند اسلحه از محیط خود

در افرادی که در معرض خطر خودکشی هستند، تحقیقات نشان می‌دهد که داشتن یک برنامه ایمنی افکار و تلاش‌های خودکشی را کاهش داده و میزان افسردگی و ناامیدی را کم می‌کند و مشارکت جانبازان را با سیستم مراقبت‌های بهداشتی افزایش می‌دهد؛ همچنین ممکن است به افراد کمک کند تا چیز‌هایی را مدیریت کنند که افکار خودکشی آن‌ها را تحریک می‌کند.

امکان کنترل تمام خودکشی‌ها وجود ندارد اما REACH VET تاثیر دارد. در یک کارآزمایی بالینی، دامپزشکانی که از طریق REACH VET با آن‌ها تماس گرفته شد، مراجعات بیشتری به پزشک داشتند و احتمال بیشتری وجود داشت که یک طرح ایمنی کتبی برای پیشگیری از خودکشی داشته باشند و تعداد کمتری بستری در بیمارستان برای سلامت روان، مراجعه به اورژانس و اقدام به خودکشی داشتند.

استفاده از هوش مصنوعی برای پیشگیری از خودکشی

حتی اطلاع رسانی ساده می‌تواند تفاوت بزرگی ایجاد کند؛ و تحقیقاتی برای اثبات آن وجود دارد. مطالعه‌ای بر روی ۴۷۳۰ جانباز که اخیرا از مراقبت‌های روانپزشکی در VHA ترخیص شده بودند، انجام شد، گروهی که در معرض خطر بالای خودکشی قرار داشتند.

نیمی از آن‌ها ۱۳ ایمیل مراقبتی از کارکنان بیمارستان در هفته‌های پس از ترک بیمارستان دریافت کردند. ایمیل‌ها به موارد شخصی که بیمار به اشتراک گذاشته بود، مانند عشق به پیاده‌روی، اشاره می‌کردند و برای آن‌ها آرزوی موفقیت می‌کردند. سایر کهنه سربازان پیگیری معمولی دریافت کردند، اما ایمیلی دریافت نکردند.

دو سال بعد کسانی که ایمیل‌های مراقبتی را دریافت کردند، نسبت به سایرین کمتر به دلیل خودکشی جان خود را از دست دادند. این مطالعه در سال ۲۰۱۴ در Contemporary Clinical Trials منتشر شد.

هوش مصنوعی جایگزین نظارت بالینی نمی‌شود

هوش مصنوعی می‌تواند داده‌هایی را که به دلیل محدودیت‌های انسانیت خود از دست می‌دهیم، ضبط کند. فرآیند‌های پیشگیری از خودکشی مبتنی بر داده‌های بزرگ و هوش مصنوعی هستند، و فرآیند‌هایی هستند که بر اساس شهود بالینی و زیرکی بنا شده‌اند.

هوش مصنوعی تنها به اندازه داده‌هایی است که بر اساس آن است. اگر آن داده‌ها فاقد تنوع باشند، ممکن است چیز‌هایی را از دست بدهند؛ و متغیر‌هایی که برای کهنه سربازان اعمال می‌شود ممکن است در غیرنظامیان متفاوت باشد.

توقف افکار خودکشی

گوگل نیز هوش مصنوعی را برای مقابله با خودکشی قرار می‌دهد. فناوری MUM (مدل یکپارچه چند وظیفه ای) آن به دنبال درک هدفی در پس آنچه در گوگل جستجو می‌کنیم، است.

MUM جستجوی Google را تقویت می‌کند. اغلب می‌تواند تفاوت بین جستجوی اطلاعات در مورد خودکشی برای شخصی که یک مقاله تحقیقاتی در مورد موضوع می‌نویسد، در مقابل جستجو برای اطلاعات در مورد نحوه یا مکان انجام خودکشی را تشخیص دهد.

وقتی «جستجوی Google» تشخیص می‌دهد که فردی ممکن است در بحران و در معرض خطر خودکشی باشد، اولین نتایج جستجویی که فرد دریافت می‌کند شماره «خط حیاتی پیشگیری از خودکشی ملی» و سایر منابع برای افراد در بحران است.

Google Home Assistant به همین صورت کار می‌کند. هنگامی که یک کاربر درخواستی را ارائه می‌دهد که نشان دهنده یک بحران مربوط به خودکشی است، این ابزار منابعی را ارائه می‌دهد که کمک می‌کنند.

MUM در تلاش است تا تفاوت‌های ظریف زبان بحران را در ۷۵ زبان درک کند تا جستجوی Google بتواند خطوط تلفن یا منابع دیگر را در بسیاری از کشور‌ها به افراد در بحران ارائه دهد.


 

دیدگاه تان را بنویسید