مدلهای هوش مصنوعی بهویژه مدلهای زبان بزرگ (LLM)، میتوانند رفتاری از خود نشان دهند که تحت تاثیر لحن ورودیهای کاربر است؛ پدیدهای که گاهی اوقات به عنوان «دستکاری عاطفی» از آن یاد میشود. در حالی که این مدلهای هوش مصنوعی دارای آگاهی یا احساسات واقعی نیستند، پاسخهای آنها میتواند براساس زمینه احساسی ارائه شده متفاوت باشد.
مطالعات نشان دادهاند که چارچوببندی احساسی دستورات میتواند به طور قابلتوجهی بر خروجیهای تولید شده توسط مدلهای هوش مصنوعی تأثیر بگذارد. در یک تحقیق در سال ۲۰۲۴، بررسی شد که چگونه LLM های Open AI هنگام تولید اطلاعات نادرست به درخواستهای دارای بار احساسی پاسخ میدهند. این مطالعه نشان داد که وقتی کاربران از لحن مودبانه در پیامهای خود استفاده میکنند، مدلها بیشتر احتمال دارد اطلاعات نادرست تولید کنند و برعکس، درخواستهای بیادبانه یا درخواستهای با لحن و کلمات تند اغلب مدلها را از تولید اطلاعات نادرست باز میدارد.
این یافتهها نشان میدهد که هوش مصنوعی میتواند تفاوتهای احساسی/عاطفی ورودیهای کاربر را تفسیر کرده و به آن واکنش نشان دهند و خروجیهای خود را بر این اساس تنظیم کنند.
مطالعات نشان دادهاند که چارچوببندی احساسی دستورات میتواند به طور قابلتوجهی بر خروجیهای تولید شده توسط مدلهای هوش مصنوعی تأثیر بگذارد. در یک تحقیق در سال ۲۰۲۴، بررسی شد که چگونه LLM های Open AI هنگام تولید اطلاعات نادرست به درخواستهای دارای بار احساسی پاسخ میدهند. این مطالعه نشان داد که وقتی کاربران از لحن مودبانه در پیامهای خود استفاده میکنند، مدلها بیشتر احتمال دارد اطلاعات نادرست تولید کنند و برعکس، درخواستهای بیادبانه یا درخواستهای با لحن و کلمات تند اغلب مدلها را از تولید اطلاعات نادرست باز میدارد.
این یافتهها نشان میدهد که هوش مصنوعی میتواند تفاوتهای احساسی/عاطفی ورودیهای کاربر را تفسیر کرده و به آن واکنش نشان دهند و خروجیهای خود را بر این اساس تنظیم کنند.