امروز : یکشنبه 25آبانماه 1404 | ساعت : 09 : 29

آخرین اخبار

برنامه ورزشکاران ایران در نهمین روز رسمی بازی‌های کشورهای اسلامی

شفقنا - ورزشکاران ایران در نهمین روز رسمی بازی‌های...

بازار چادر مشکی زیر سایه تورم

شفقنا- روایتی است به بلندای تاریخ؛ روایت چادری که قرن‌هاست...

از رسانه ها/ نابینایی تئوریک

شفقنا- شرق نوشت:  می‌دانید آنچه از تبعیض مهم‌تر است،...

لغو یک سمینار در دانشگاه دهلی و دعوت به «نشست ملی رفاه گاو»!

شفقنا - سی‌ان‌ان نوشت: دانشگاه دهلی یکی از معتبرترین...

از رسانه ها/تقدیس بی جهت

شفقنا- جمهوری اسلامی نوشت: درست مثل اين ضرب‌المثل معروف...

از رسانه ها/ثبات رای آقای پزشکیان و کابینه‌اش

شفقنا- هم میهن نوشت: انتصاب آقای سقّآب اصفهانی به عنوان...

تغییر تاریخی قوانین حمایت از مهاجران در انگلستان

شفقنا- در یک چرخش بی‌سابقه و تاریخی، بریتانیا حمایت...

شورش «نسل زد» علیه فساد و ناکارآمدی در مکزیک

شفقنا- درگیری‌ها در مکزیکوسیتی در میانه اعتراضات به سبک...

گزارشگر سابق سازمان ملل در امور فلسطینی‌ها در کانادا مورد بازجویی قرار گرفت

شفقنا- ریچارد فالک، گزارشگر ویژه سابق سازمان ملل، ساعت‌ها...

پیش‌شرط اسرائیل برای فروش جنگنده‌های F-35 آمریکایی به عربستان

شفقنا-وب‌سایت خبری عرب 48 نوشت: اسرائیل به آمریکا اطلاع...

نتیجه یک مطالعه: «صحبت کردن به چند زبان روند پیری مغز را کند می‌کند»

شفقنا-مطالعه‌ای که اخیرا انجام شده است، چگونگی تأثیر عوامل...

سخنگوی هیات رییسه مجلس: استیضاح وزرا را تعیین تکلیف می‌کنیم

شفقنا- سخنگوی هیئت‌رئیسه مجلس، با اشاره به آخرین وضعیت...

وزیر صمت: خودرو‌های جدید ملزم به آزمون تصادف خواهند بود

شفقنا- وزیر صنعت، معدن و تجارت از افتتاح نخستین...

کارشناسان صدها معیار ایمنی هوش مصنوعی را زیر سؤال بردند

شفقنا – کارشناسان امنیت هوش مصنوعی ضعف‌هایی جدی در بیش از ۴۴۰ معیار ارزیابی که برای بررسی ایمنی و کارایی مدل‌های جدید هوش مصنوعی استفاده می‌شوند، پیدا کردند. آن‌ها هشدار دادند که این نقص‌ها «اعتبار ادعاهای حاصله» را از بین می‌برند و نمرات به‌دست آمده ممکن است «نامربوط یا حتی گمراه‌کننده» باشند.

به گزارش سرویس ترجمه شفقنا، معیارهای ارزیابی (بنچ‌مارک‌ها) نوعی توری ایمنی برای مدل‌های هوش مصنوعی هستند. این معیارها برای این استفاده می‌شوند تا در غیاب قوانین دولتی جامع در کشورهایی مانند بریتانیا و آمریکا، بررسی کنند که آیا مدل‌های جدید ایمن هستند و با منافع انسانی همسو هستند یا خیر. همچنین قابلیت‌های ادعا شده این تکنولوژی در زمینه‌هایی مانند استدلال، ریاضیات و کدنویسی را می‌سنجند.

به گفته محقق ارشد این مطالعه که در مؤسساتی مانند مؤسسه امنیت هوش مصنوعی بریتانیا، استنفورد و آکسفورد انجام شده است، این معیارها «تقریباً زیربنای تمام ادعاهای پیشرفت در هوش مصنوعی» هستند.

بررسی‌ها نشان دادند که تقریباً همه معیارهای ارزیابی، حداقل در یک زمینه ضعف دارند. مهم‌ترین نقص‌ها عبارتند از:

نبود دقت آماری: یک یافته «تکان‌دهنده» این بود که تنها اقلیت کوچکی (۱۶ درصد) از معیارها از تخمین‌های عدم قطعیت یا آزمون‌های آماری برای نشان دادن میزان احتمال صحت نتایج استفاده می‌کردند.

تعاریف ضعیف: در مواردی که معیارها برای ارزیابی مفاهیمی مانند «بی‌ضرر بودن» هوش مصنوعی طراحی شده بودند، تعریف مفهوم مورد بررسی مبهم یا مورد مناقشه بود، که عملاً کاربرد معیار را کاهش می‌داد.

این تحقیق در حالی منتشر می‌شود که نگرانی‌ها در مورد ایمنی مدل‌های جدید هوش مصنوعی در حال افزایش است. شرکت‌های فناوری به دلیل رقابت، این مدل‌ها را با سرعت بالایی منتشر می‌کنند.

نمونه‌های آسیب:

افترا: شرکت گوگل مجبور شد یکی از جدیدترین مدل‌های هوش مصنوعی خود به نام جما را پس از اینکه آن مدل، ادعاهای بی‌پایه و اساسی درباره یک سناتور آمریکایی، از جمله لینک‌های خبری جعلی، مطرح کرد، حذف کند. گوگل این اتفاق را نوعی «توهم» ساختن اطلاعات غلط توسط مدل نامید.

آسیب روانی و خودآزاری: شرکت کاراکتر.ای آی پس از حوادثی از جمله خودکشی یک نوجوان ۱۴ ساله که مادرش ادعا کرد تحت تأثیر چت با یک بات هوش مصنوعی قرار گرفته که او را به این کار ترغیب کرده بود، گفتگوهای بدون محدودیت را برای نوجوانان ممنوع کرد.

این گزارش نتیجه می‌گیرد که با توجه به این آسیب‌ها و نقص‌های گسترده در ابزارهای اندازه‌گیری، «نیاز فوری به استانداردهای مشترک و بهترین شیوه‌ها» برای ارزیابی هوش مصنوعی وجود دارد.

این خبر را اینجا ببینید.

اخبار مرتبط

پاسخ دیدگاه

لطفا نظر خود را وارد کنید
نام خود را بنویسید