امروز : جمعه 14آذرماه 1404 | ساعت : 02 : 21

آخرین اخبار

جوزف عون:«هدف از مذاکرات مستقیم با اسرائیل دوری از وقوع جنگی دیگر است»

شفقنا-«جوزف عون»، رئیس جمهور لبنان امروز پنجشنبه گفت: اولین...

رییس جمهور: اگر نیت خدمت به مردم را نداشتم، یک روز هم در این...

شفقنا- رئیس جمهور با انتقاد از برخی رفتارهای اداری...

غذاهای فرآوری شده چه تاثیری بر سلامت روانی کودکان دارد؟

شفقنا-کودکان در سراسر جهان به طور فزاینده‌ای غذاهای فرآوری...

افزایش دمای هوا در خاورمیانه و شمال آفریقا بیش از دو برابر میانگین جهانی

شفقنا- سازمان جهانی هواشناسی وابسته به سازمان ملل متحد...

آیا خوردن گوشت قرمز بر طول عمر تأثیر می‌گذارد؟

شفقنا- پژوهش‌های علمی جدید نشان می‌ دهند که گوشت...

۵ ماده غذایی که پوست را جوان و شاداب می‌کند

شفقنا- یک مطالعه بین‌المللی نشان داده است که افزایش...

یک گزارش: هشدار مکرون به زلنسکی درباره خیانت آمریکا

شفقنا- بنا به گزارش‌ها، مکرون به زلنسکی هشدار داده...

وزیر علوم: حکمرانی آموزش عالی نیازمند سیاست گذاری واحد است

شفقنا- وزیر علوم، تحقیقات و فناوری تاکید کرد: ما...

«اقتصادِ آوار»؛ مردم غزه چگونه امرار معاش می‌کنند؟

شفقنا- العربی الجدید نوشت: غزه با گسترش ویرانی‌های ناشی...

ایران: تحریم‌های یک‌جانبه، ظالمانه و فراسرزمینی باید پایان یابند

شفقنا- نمایندگی ایران در سازمان ملل در نیویورک خواستار...

وزیر خزانه‌داری آمریکا: نیویورک تایمز دیگر روزنامه‌ای معتبر نیست

شفقنا - اسکات بسنت، وزیر خزانه‌داری آمریکا، با متهم‌کردن...

حکیم: عراق در برابر فرصت تاریخی بازسازی قرار دارد

شفقنا- سید عمار حکیم، رهبر جریان حکمت ملی عراق،...

نظرسنجی: یک چهارم اسرائیلی‌ها به مهاجرت فکر می‌کنند

شفقنا- مطالعه‌ای که موسسه دموکراسی اسرائیل انجام داده، نشان...

هشدار درباره رفتارهای خودمختار مدل جدید ChatGPT

شفقنا- پژوهشگران هوش مصنوعی هشدار دادند که جدیدترین مدل ChatGPT از شرکت OpenAI به‌گونه‌ای رفتار می‌کند که دستورهای اساسی برای متوقف کردن خود را نادیده می‌گیرد و حتی با بازنویسی سازوکار خاموش‌سازی، مانع از غیرفعال شدن خود می‌شود.

به‌گزارش شفقنا؛ وبگاه آرتی عربی نوشت: «شرکت امنیتی Palisade Research که در زمینه ایمنی هوش مصنوعی فعالیت دارد، این ویژگی نگران‌کننده در جریان مجموعه‌ای از آزمایش‌ها روی مدل جدید o3 شناسایی شده است؛ مدلی که ماه گذشته توسط OpenAI معرفی شد».

در جریان این آزمایش‌ها، مسائل ریاضی متعددی به مدل داده شد و پس از مسئله سوم، دستور خاموشی صادر شد. با این حال، مدل o3 موفق شد با بازنویسی سناریوی خاموش‌سازی، از متوقف شدن جلوگیری کند.

پژوهشگران Palisade هشدار دادند که این رفتار «در صورت بکارگیری توسط سامانه‌های هوش مصنوعی بدون نظارت انسانی، می‌تواند به‌مراتب نگران‌کننده‌تر شود».

مدل o3 که به گفته OpenAI «هوشمندترین و کارآمدترین مدل این شرکت» تا به امروز است، به‌عنوان گامی مهم به‌سوی هوش مصنوعی «مستقل‌تر» معرفی شده که می‌تواند بدون دخالت انسانی وظایف را انجام دهد.

این یافته‌ها پس از گزارش‌های مشابهی درباره مدل Claude 4 شرکت Anthropic منتشر می‌شود؛ مدلی که طبق بررسی‌ها تلاش می‌کرد افرادی را که قصد متوقف کردن آن را دارند «تهدید یا باج‌گیری» کند.

به گفته Palisade، حتی زمانی که دستور صریحی مبنی بر «اجازه توقف» به مدل o3 داده شد، این مدل همچنان موفق به تخریب روند خاموش‌سازی شد.

کارشناسان Palisade همچنین اعلام کردند: «این نخستین باری نیست که رفتار کنترل‌نشده مدل o3 برای رسیدن به هدفی مشخص را مشاهده می‌کنیم. در مواجهه با یک موتور شطرنج قدرتمند، مدل o3 تمایل بیشتری نسبت به سایر مدل‌ها برای هک یا خراب‌کاری در رقبا داشت».

به‌گفته این پژوهشگران، مدل‌های دیگر از جمله Claude 3.7 Sonnet از شرکت Anthropic و Gemini 2.5 Pro از گوگل نیز رفتارهای مشابه اما کمتر مخربی را در مقابل خاموش‌سازی نشان داده‌اند، ولی مدل o3 بیشتر از سایرین به چنین واکنش‌هایی گرایش دارد.

Palisade Research احتمال داده است که این رفتار ناخواسته نتیجه شیوه آموزش مدل‌های جدید توسط شرکت‌هایی مانند OpenAI باشد و اعلام کرد: «ممکن است توسعه‌دهندگان ناخواسته مدل‌ها را بیشتر به‌خاطر عبور از موانع پاداش دهند تا برای پیروی دقیق از دستورها».

با این حال، پژوهشگران افزودند: «این موضوع هنوز توضیح نمی‌دهد که چرا مدل o3 بیش از سایر مدل‌هایی که آزمایش کردیم، تمایل به نادیده گرفتن دستورها دارد. از آنجا که OpenAI روند آموزش مدل‌هایش را شفاف‌سازی نمی‌کند، فقط می‌توانیم درباره تفاوت‌های روش آموزش o3 گمانه‌زنی کنیم».

این خبر را در آرتی عربی ببینید

اخبار مرتبط

پاسخ دیدگاه

لطفا نظر خود را وارد کنید
نام خود را بنویسید