تعدادی از کاربران دریافتند که صحبت کردن با آن به شکلی خشونتآمیز نتایج بهتری میدهد
به گزارش جماران به نقل از الجزیره، گروهی از محققان دانشگاه ایالتی پنسیلوانیا دریافتند که نحوه صحبت شما با مدلهای هوش مصنوعی، بهویژه «چت جیپیتی»، بر کیفیت پاسخها و اطلاعاتی که از آنها دریافت میکنید تأثیر میگذارد، زیرا صحبت کردن با مدل به شکلی وقیح و خشک، نتایج بهتر و با کیفیتتری ارائه میدهد، طبق گزارشی که وبسایت «دیجیتال ترندز» منتشر کرده است.
این مطالعه مجموعهای از واکنشهای متناقض را در مورد توانایی مدل در درک و استنباط مکالمات برانگیخت، علاوه بر اینکه تفاوت بین کیفیت پاسخها در هر دو مورد بیش از 4٪ نیست.
روششناسی متفاوت برای مطالعه
این تیم به روششناسی متفاوتی برای اندازهگیری کیفیت و دقت پاسخها متکی بود، زیرا این تیم مجموعهای متنوع از پاسخها را از پاسخهای بسیار مؤدبانه تا پاسخهای خشونتآمیز که میتوان آنها را بسیار وقیحانه توصیف کرد، انتخاب کرد.
همچنین این تیم مدل را از طریق جمعآوری بیش از یک لحن صدا و روش سؤال با هم انتخاب کرد، مانند اینکه سؤال را به روشی بسیار مؤدبانه شروع کند، سپس به لحن بسیار وقیحانه تغییر کند و بالعکس.
نتایج بسیار متفاوت بود، استفاده از پاسخهای بسیار مؤدبانه باعث شد دقت پاسخها به 80٪ برسد و با افزایش نسبت وقاحت در صحبت، نسبتاً افزایش مییابد.
با رفتن به سمت صحبت کردن به روشی بیطرفانه، کیفیت پاسخها به 82.2٪ افزایش مییابد و با استفاده از پاسخهای بسیار وقیحانه با مدل، به 84.8٪ میرسد و گاهی اوقات به 86٪ میرسید.
لازم به ذکر است که تمام سؤالاتی که به مدل هدایت شدند، سؤالات چندگزینهای هستند، به این معنی که فقط سؤالات معمول نیستند.
درجه کمتری از وقاحت
با وجود اینکه تیم درجه «بسیار وقیحانه» را در برخی از مکالمات اتخاذ کرد، اما سطح صحبت به حد فحاشی نرسید، بلکه بین توصیف مدل به احمق و دستور مستقیم به یافتن راهحلی برای این سؤال و حتی توصیف آن به موجود ضعیف و تهدید به لغو کامل حساب متغیر بود.
این تیم پیشبینی میکند که فحاشی ممکن است منجر به توقف کار مدل یا پاسخگویی به دستورات شود و شاید با تغییرات اخیری که شرکت به آن اضافه کرده است، به یک نسخه نظارتشده از مدل تبدیل شود.
تجارب کاربران منتشرشده در اینترنت نتایج این مطالعه را تقویت میکند، زیرا تعدادی از کاربران دریافتند که صحبت کردن با آن به شکلی خشونتآمیز نتایج بهتری میدهد، از جمله کاربری که این موضوع را در بیش از 500 مکالمه مختلف آزمایش کرده است.
آیا مدلهای هوش مصنوعی میتوانند احساسات را بخوانند؟
نتایج این مطالعه با مجموعهای دیگر از مطالعات انجام شده در سال گذشته مغایرت دارد، آن مطالعه دریافت که سطح بالای بیادبی در گفتار به طور مستقیم نه فقط باعث کاهش کیفیت پاسخها میشود، بلکه باعث ارائه اطلاعات نادرست یا پنهان کردن اطلاعات واقعی مفید میشود.
آن مطالعه مجموعهای از مدلهای هوش مصنوعی متعددی را در زبانهای مختلف مورد بررسی قرار داد، بنابراین نتایج ممکن است کمی متنوع باشد، همچنین از نسخه قدیمیتری از چت جی پی تی استفاده کرد.
محققان انتظار دارند که هوش مصنوعی قادر به خواندن مستقیم احساسات کاربر و درک آن نیست، اما به گونهای برنامهریزی شده است که به کاربر ناراضی که از الفاظی استفاده میکند که بیانگر نارضایتی است، بهتر پاسخ دهد.
این بدان معناست که تیم «اوپن ای آی» این مدل را طوری برنامهریزی کرده است که به این دستورات بهتر از دستورات معمول پاسخ دهد، و این شبیه به پاسخ کارکنان خدمات مشتری هنگام صحبت با لحنی خشک و درخواست ارائه شکایت و سایر موارد است.