تعدادی از کاربران دریافتند که صحبت کردن با آن به شکلی خشونت‌آمیز نتایج بهتری می‌دهد

به گزارش جماران به نقل از الجزیره، گروهی از محققان دانشگاه ایالتی پنسیلوانیا دریافتند که نحوه صحبت شما با مدل‌های هوش مصنوعی، به‌ویژه «چت جی‌پی‌تی»، بر کیفیت پاسخ‌ها و اطلاعاتی که از آنها دریافت می‌کنید تأثیر می‌گذارد، زیرا صحبت کردن با مدل به شکلی وقیح و خشک، نتایج بهتر و با کیفیت‌تری ارائه می‌دهد، طبق گزارشی که وب‌سایت «دیجیتال ترندز» منتشر کرده است.

این مطالعه مجموعه‌ای از واکنش‌های متناقض را در مورد توانایی مدل در درک و استنباط مکالمات برانگیخت، علاوه بر این‌که تفاوت بین کیفیت پاسخ‌ها در هر دو مورد بیش از 4٪ نیست.

 

روش‌شناسی متفاوت برای مطالعه

این تیم به روش‌شناسی متفاوتی برای اندازه‌گیری کیفیت و دقت پاسخ‌ها متکی بود، زیرا این تیم مجموعه‌ای متنوع از پاسخ‌ها را از پاسخ‌های بسیار مؤدبانه تا پاسخ‌های خشونت‌آمیز که می‌توان آنها را بسیار وقیحانه توصیف کرد، انتخاب کرد.

همچنین این تیم مدل را از طریق جمع‌آوری بیش از یک لحن صدا و روش سؤال با هم انتخاب کرد، مانند این‌که سؤال را به روشی بسیار مؤدبانه شروع کند، سپس به لحن بسیار وقیحانه تغییر کند و بالعکس.

نتایج بسیار متفاوت بود، استفاده از پاسخ‌های بسیار مؤدبانه باعث شد دقت پاسخ‌ها به 80٪ برسد و با افزایش نسبت وقاحت در صحبت، نسبتاً افزایش می‌یابد.

با رفتن به سمت صحبت کردن به روشی بی‌طرفانه، کیفیت پاسخ‌ها به 82.2٪ افزایش می‌یابد و با استفاده از پاسخ‌های بسیار وقیحانه با مدل، به 84.8٪ می‌رسد و گاهی اوقات به 86٪ می‌رسید.

لازم به ذکر است که تمام سؤالاتی که به مدل هدایت شدند، سؤالات چندگزینه‌ای هستند، به این معنی که فقط سؤالات معمول نیستند.

درجه کمتری از وقاحت

با وجود این‌که تیم درجه «بسیار وقیحانه» را در برخی از مکالمات اتخاذ کرد، اما سطح صحبت به حد فحاشی نرسید، بلکه بین توصیف مدل به احمق و دستور مستقیم به یافتن راه‌حلی برای این سؤال و حتی توصیف آن به موجود ضعیف و تهدید به لغو کامل حساب متغیر بود.

این تیم پیش‌بینی می‌کند که فحاشی ممکن است منجر به توقف کار مدل یا پاسخگویی به دستورات شود و شاید با تغییرات اخیری که شرکت به آن اضافه کرده است، به یک نسخه نظارت‌شده از مدل تبدیل شود.

تجارب کاربران منتشرشده در اینترنت نتایج این مطالعه را تقویت می‌کند، زیرا تعدادی از کاربران دریافتند که صحبت کردن با آن به شکلی خشونت‌آمیز نتایج بهتری می‌دهد، از جمله کاربری که این موضوع را در بیش از 500 مکالمه مختلف آزمایش کرده است.

 

آیا مدل‌های هوش مصنوعی می‌توانند احساسات را بخوانند؟

نتایج این مطالعه با مجموعه‌ای دیگر از مطالعات انجام شده در سال گذشته مغایرت دارد، آن مطالعه دریافت که سطح بالای بی‌ادبی در گفتار به طور مستقیم نه فقط باعث کاهش کیفیت پاسخ‌ها می‌شود، بلکه باعث ارائه اطلاعات نادرست یا پنهان کردن اطلاعات واقعی مفید می‌شود.

آن مطالعه مجموعه‌ای از مدل‌های هوش مصنوعی متعددی را در زبان‌های مختلف مورد بررسی قرار داد، بنابراین نتایج ممکن است کمی متنوع باشد، همچنین از نسخه قدیمی‌تری از چت جی پی تی   استفاده کرد.

محققان انتظار دارند که هوش مصنوعی قادر به خواندن مستقیم احساسات کاربر و درک آن نیست، اما به گونه‌ای برنامه‌ریزی شده است که به کاربر ناراضی که از الفاظی استفاده می‌کند که بیانگر نارضایتی است، بهتر پاسخ دهد.

این بدان معناست که تیم «اوپن ای آی»   این مدل را طوری برنامه‌ریزی کرده است که به این دستورات بهتر از دستورات معمول پاسخ دهد، و این شبیه به پاسخ کارکنان خدمات مشتری هنگام صحبت با لحنی خشک و درخواست ارائه شکایت و سایر موارد است.

 

انتهای پیام
این مطلب برایم مفید است
0 نفر این پست را پسندیده اند

موضوعات داغ

کلمات کلیدی چت جی بی تی
نظرات و دیدگاه ها

مسئولیت نوشته ها بر عهده نویسندگان آنهاست و انتشار آن به معنی تایید این نظرات نیست.