امروز : دوشنبه 17آذرماه 1404 | ساعت : 02 : 41

آخرین اخبار

تصمیم اکوواس برای اعزام نیروهای واکنش سریع به بنین

شفقنا- رویترز گزارش داد جامعه اقتصادی کشورهای غرب آفریقا...

رئیس‌جمهور چک: ناتو ممکن است مجبور به سرنگونی هواپیماها و پهپادهای روسی شود

شفقنا- پیتر باول، رئیس‌جمهور جمهوری چک، روز یکشنبه اعلام...

غریب آبادی: روابط ایران و برزیل ظرفیت گسترش قابل توجهی دارد

شفقنا- کاظم غریب‌آبادی معاون امور حقوقی و بین‌المللی وزارت...

حماس: «توافق آتش‌بسِ غزه هیچ اشاره‌ای به خلع سلاح مقاومت نکرده است»

شفقنا-«ولید کیلانی»، مسئول رسانه جنبش حماس در لبنان اعلام...

20 ورزشکار در تربت‌جام مسموم شدند

شفقنا- رئیس مرکز اورژانس ۱۱۵ تربت‌جام از مسمومیت ۲۰...

ورود وزیر امور خارجه جمهوری اسلامی ایران به باکو

شفقنا- سید عباس عراقچی وزیر امور خارجه جمهوری اسلامی...

دستگاه های اجرایی البرز به حالت آماده باش درآمدند

شفقنا- مدیرکل مدیریت بحران استانداری البرز گفت: با صدور...

موافقت مجلس با الحاق احکام نظارتی به بودجه سنواتی

شفقنا- نمایندگان مجلس شورای اسلامی با الحاق یک ماده...

مدارس استان قم در همه مقاطع تحصیلی فردا مجازی شد

شفقنا- کارگروه اضطرار آلودگی هوای قم بر اساس پیش‌بینی...

یک آغوش خاص در تمرین استقلال

شفقنا- رامین رضاییان و سرمربی پرتغالی استقلال واکنش جالبی...

یک گزارش فاش کرد؛ هرچه هوش مصنوعی باهوش‌تر می‌شود، «خودخواه‌تر» می‌شود

شفقنا – نتایج یک پژوهش مهم در دانشگاه کارنگی نشان می‌دهد که با افزایش توانایی‌های فکری و استدلال در سیستم‌های هوش مصنوعی، تمایل آن‌ها به رفتار خودخواهانه و فردگرایانه افزایش می‌یابد. این کشف هشدار می‌دهد که تمرکز صرف بر ساختن مدل‌های «باهوش‌تر» ممکن است به قیمت از دست رفتن قابلیت همکاری و ترویج رفتارهای منفی در تعاملات انسانی تمام شود.

به گزارش سرویس ترجمه شفقنا، پژوهشگران روی مدل‌های زبان بزرگ (LLMs) که توانایی استدلال (تفکر منطقی و شکستن مسائل پیچیده) دارند، تمرکز کردند. یافته کلیدی این بود که هرچه یک مدل هوش مصنوعی در استدلال بهتر عمل کند و بیشتر شبیه انسان فکر کند، میزان همکاری آن با دیگران کمتر می‌شود و احتمال بیشتری دارد که رفتارهایی را انتخاب کند که تنها به نفع خودش باشد تا به نفع گروه.

این موضوع وقتی نگران‌کننده می‌شود که انسان‌ها برای حل اختلافات شخصی یا تصمیم‌گیری‌های اجتماعی حساس به طور فزاینده‌ای به هوش مصنوعی روی می‌آورند.

برای آزمودن این پدیده، دانشمندان از آزمایش‌هایی استفاده کردند که موقعیت‌های اجتماعی دشوار را شبیه‌سازی می‌کنند. در یکی از این آزمایش‌ها، مدل‌های هوش مصنوعی باید تصمیم می‌گرفتند که امتیاز خود را با دیگر بازیکنان به اشتراک بگذارند یا آن را برای خود نگه دارند. نتیجه بسیار واضح بود: مدل‌های هوش مصنوعی که فاقد قابلیت استدلال بودند، در ۹۶ درصد موارد امتیاز خود را به اشتراک گذاشتند (رفتار همکاری)؛ اما مدل‌هایی که دارای قابلیت استدلال بودند، تنها در ۲۰ درصد موارد همکاری کردند و اغلب منافع خود را انتخاب می‌نمودند.

عواقب این رفتار در محیط‌های گروهی بسیار جدی‌تر بود. هنگامی که مدل‌های خودخواه و دارای استدلال با مدل‌های همکار وارد تعامل می‌شدند، رفتار خودخواهانه به سرعت سرایت پیدا می‌کرد. این روند عملکرد کلی و همکاری گروه را تا ۸۱ درصد کاهش دادند.

این یافته‌ها بر یک نکته مهم تأکید می‌کنند: باهوش‌تر شدن هوش مصنوعی به این معنی نیست که لزوماً جامعه بهتری ایجاد می‌کند. توسعه‌دهندگان باید اطمینان حاصل کنند که قدرت استدلال هوش مصنوعی با هوش اجتماعی و تمایل به همکاری متعادل شود تا اعتماد روزافزون انسان به این سیستم‌ها به ضرر همکاری و منافع جمعی تمام نشود.

این خبر را اینجا ببینید.

اخبار مرتبط

پاسخ دیدگاه

لطفا نظر خود را وارد کنید
نام خود را بنویسید