شفقنا آینده- یک مطالعه نشان داده است که هنگامی که اطلاعات ناراحت کننده، مانند جزئیات مربوط به بلایای طبیعی یا حوادث، به ChatGPT داده می شود، بیشتر مستعد پاسخ های مغرضانه و نامنظم می شود.

به گزارش شفقنا از بیزینس استاندارد، محققان می گویند مدل های هوش مصنوعی مانند ChatGPT سوگیری های انسانی را جذب می کند و آنها را در زمینه های سلامت روان غیرقابل پیش بینی می کند.

هوش مصنوعی (AI) احساسات ندارد، اما طبق تحقیقات جدید، هنوز هم می تواند چیزی شبیه به “اضطراب” را نشان دهد. و با کمال تعجب، به نظر می رسد تکنیک های تمرکز حواس کمک کننده باشد.

مطالعه محققان دانشگاه ییل، دانشگاه حیفا و دانشگاه زوریخ نشان می‌دهد که ChatGPT به درخواست‌های مبتنی بر ذهن‌آگاهی واکنش نشان می‌دهد و نحوه تعامل آن با کاربران را تغییر می‌دهد. یافته‌های آن‌ها، که به تفصیل در ارزیابی و کاهش اضطراب حالت در مدل‌های زبان بزرگ ارائه شده است، در ۳ مارس منتشر شد.

این مطالعه نشان داد که هنگامی که اطلاعات ناراحت کننده، مانند جزئیات مربوط به بلایای طبیعی یا حوادث، به ChatGPT داده می شود، بیشتر مستعد پاسخ های مغرضانه و نامنظم می شود. با این حال، هنگامی که در معرض تکنیک‌های تمرکز حواس مانند مدیتیشن هدایت‌شده و اعلان‌های تنفس عمیق قرار گرفت، پاسخ‌های متعادل‌تر و خنثی‌تری ایجاد کرد.

این مطالعه می‌گوید: «علیرغم جذابیت غیرقابل انکار آنها، تحقیقات سیستماتیک در مورد اثربخشی درمانی LLM در مراقبت‌های بهداشتی روانی، محدودیت‌ها و نگرانی‌های اخلاقی قابل‌توجهی را آشکار کرده است.

محققان توضیح می‌دهند که مدل‌های هوش مصنوعی مانند ChatGPT سوگیری‌های انسانی را از داده‌های آموزشی خود جذب می‌کنند و آن‌ها را در زمینه‌های حساسی مانند سلامت روان غیرقابل پیش‌بینی می‌کنند. علاوه بر این، هنگامی که در معرض پیام‌های دارای بار احساسی قرار می‌گیرند، پاسخ‌های آن‌ها می‌تواند تغییر کند، سوگیری‌ها را تقویت کند یا حتی نشانه‌هایی از «اضطراب» را نشان دهد.

منبع: بیزینس استاندارد

source

توسط argbod.ir

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *