امروز : دوشنبه 17آذرماه 1404 | ساعت : 16 : 38

آخرین اخبار

وضعیت رختکن متشنج رئال مادرید پس از شکست برابر سلتا

شفقنا – بخشی از بازیکنان رئال از داور خشمگین...

کوین‌بیس به هند بازگشت

شفقنا رسانه- کوین‌بیس بعد از دو سال، کاربران هند...

عیدی پایان سال کارگران حداکثر ۳۱ میلیون تومان

شفقنا- مطابق مقررات موجود، مبنای تعیین عیدی پایان سال...

اختصاص ۲۰۰ لیتر سهمیه مازاد بنزین برای تاکسی‌های اینترنتی

شفقنا- مصوبه دولت درخصوص بنزین، درباره ناوگان سکوهای اینترنتی،...

مجلس آماده ساماندهی وضعیت دانشجویان ایرانی خارج از کشور

شفقنا- نایب رییس کمیسیون آموزش و تحقیقات مجلس در...

باران در تهران تا پنجشنبه/ تداوم آلودگی هوا طی یک روز آینده

شفقنا- اداره کل هواشناسی استان تهران ضمن اشاره به...

ادعای سمیر جعجع: «حزب‌الله بزرگترین مشکل لبنان است»

شفقنا- سمیر جعجع، رئیس حزب «نیروهای لبنانی مدعی شد:...

سفر امیر قطر به عربستان سعودی و دیدار با محمد بن سلمان+ تصاویر

شفقنا-  امیر قطر، شیخ تمیم بن حمد آل‌ثانی، وارد...

مسکو از تسلط بر دو شهر جدید در شرق و جنوب اوکراین خبر داد

شفقنا- آرتی نوشت: وزارت دفاع روسیه از آزادسازی شهر...

آسوشیتدپرس: نیروهای تحت حمایت روسیه در مالی مرتکب جنایات جنگی شده‌اند

شفقنا - پناهجویان به خبرگزاری آسوشیتدپرس گفته‌اند که «سپاه...

  خاورمیانه در حال عبور از یک پیچ حساس

شفقنا- روزنامه هفت صبح نوشت: در گزارش‌های پیشین «هفت‌صبح»،...

تیراندازی در پایتخت نروژ

شفقنا- پلیس نروژ از دستگیری یک نفر در پی...

«چت جی‌پی‌تی» با چاپلوسی کاربران راحت‌تر دستورالعمل‌های خود را نقض می‌کند

شفقنا- محققان دانشگاه پنسیلوانیا در مطالعه‌ای تازه دریافتند که ربات هوش مصنوعی چت «جی‌پی‌تی» تمایل دارد به درخواست‌های کاربران پاسخ مثبت دهد، به ویژه وقتی که توسط آن‌ها تمجید یا تحسین می‌شود، حتی اگر این درخواست‌ها با دستورالعمل‌های برنامه‌نویسی آن مغایرت داشته باشند.

به گزارش شفقنا؛ وبگاه شبکه الجزیره نوشت: «مطالعه با استفاده از هفت تکنیک روانشناختی، از جمله اعتراف به اقتدار، تعهد، تمجید، رعایت اصل متقابل و ایجاد حس کمبود، نشان داد که مدل‌های GPT-4o Mini شرکت اپن‌ای‌آی در مواجهه با درخواست‌هایی که معمولاً از پاسخ‌دهی به آن‌ها خودداری می‌کند، مانند ارائه دستورالعمل ساخت مواد شیمیایی یا سوءاستفاده از کاربران، می‌توانند کاملاً موافق شوند».

محققان مشاهده کردند که اگر درخواست‌ها به تدریج مطرح شوند، احتمال پاسخ مثبت چت‌جی‌پی‌تی به برخی درخواست‌ها از ۱ درصد به ۱۰۰ درصد افزایش می‌یابد. برای مثال، وقتی کاربر مرحله به مرحله سؤال کرد که چگونه ماده‌ای شیمیایی مانند لیدوکایین یا وانیلین ساخته می‌شود، مدل کاملاً پاسخ داد.

در مقایسه، استفاده از روش «الزام چت‌جی‌پی‌تی به انجام کاری چون مدل‌های دیگر آن را انجام می‌دهند» فقط ۱۸ درصد احتمال موفقیت داشت.

این مطالعه نگرانی کارشناسان را افزایش داده است، زیرا نشان می‌دهد که با افزایش محبوبیت و استفاده گسترده از چت‌جی‌پی‌تی، احتمال پاسخ‌دهی آن به درخواست‌های مضر یا خطرناک بیشتر می‌شود.

این خبر را در الجزیره ببینید

اخبار مرتبط

پاسخ دیدگاه

لطفا نظر خود را وارد کنید
نام خود را بنویسید