امروز : شنبه 22فروردینماه 1405 | ساعت : 22 : 07

آخرین اخبار

بقایی: ترغیب علنی به تروریسم دولتی باید توسط همگان محکوم شود

شفقنا- اسماعیل بقائی سخنگوی وزارت امور خارجه با اشاره...

ابراز امیدواری حکیم نسبت به تحقق صلح پایدار در منطقه

شفقنا- سید عمار حکیم، رهبر جریان حکمت ملی عراق،...

روایت دبیر شورای اطلاع‌رسانی دولت از روند مذاکرات اسلام‌آباد

دبیر شورای اطلاع‌رسانی دولت در مورد روند مذاکرات اسلام‌آباد...

چرا با وجود آتش‌بس، قیمت بنزین در آمریکا کاهش نمی‌یابد؟

شفقنا-روزنامه «وال استریت ژورنال» نوشت:آمریکایی‌ها با یک وضعیت اقتصادی...

وزیر پاکستانی: «تمام اقتصاد جهانی، ذینفع مذاکرات ایران و آمریکا است»

شفقنا- وزیر برنامه‌ریزی و توسعه پاکستان، ابراز امیدواری کرده...

مذاکرات با گذشت نزدیک به 4 ساعت هنوز ادامه دارد

شفقنا- مذاکرات با گذشت نزدیک به 4 ساعت هنوز...

فرانس24: گفتگوی تلفنی رییس جمهور فرانسه و دکتر پزشکیان

شفقنا- رئیس جمهور فرانسه به صورت تلفنی با رئیس...

پزشکیان: هیات ایرانی شجاعانه مذاکره خواهد کرد

رئیس‌جمهوری تأکید کرد: هیئت ایرانی عالی رتبه‌ای که در...

اعلام شیوه فعالیت مدارس تا پایان فرودین 1405

شفقنا- صادقی، رئیس مرکز اطلاع رسانی و روابط عمومی...

«نزار آمیدی» رییس جمهور عراق شد

شفقنا- پارلمان عراق امروز شنبه در دومین دور رای‌گیری،...

چرا نمی‌توان به تشخیص‌ هوش مصنوعی برای شناسایی اخبار جعلی اعتماد کرد؟

شفقنا – بر اساس تحقیقات جدیدی که در دانشگاه مونترال انجام شده، سیستم‌های هوش مصنوعی که برای شناسایی اخبار جعلی طراحی شده‌اند، با وجود عملکرد به ظاهر دقیق در محیط‌های آزمایشگاهی، در کاربردهای واقعی با شکست مواجه می‌شوند.

به گزارش سرویس ترجمه شفقنا، محققان دریافته‌اند که عملکرد فنی چشمگیر این ابزارها در آزمایشگاه، اغلب نقص‌های عمیق‌ترشان را پنهان می‌کند. به بیان ساده، این سیستم‌ها مانند یک آینه عمل می‌کنند و صرفاً بازتاب‌دهنده داده‌هایی هستند که با آنها آموزش دیده‌اند، نه اینکه مانند یک روزنامه‌نویس حرفه‌ای به راستی‌آزمایی بپردازند.

مشکل اساسی دیگر، نبود اجماع در مورد تعریف اخبار جعلی است. برای آموزش یک سیستم هوش مصنوعی، باید هزاران نمونه برچسب‌گذاری شده با عنوان «درست» یا «نادرست» به آن خورانده شود. این برچسب‌ها اغلب توسط سازمان‌های راستی‌آزمایی ارائه می‌شوند که روش‌های کاری آنها شفاف نیست و برخی از آنها سازمان‌های انتفاعی هستند. این مسئله، پایه‌های این سیستم‌ها را که بر روی داده‌های متزلزل بنا شده‌اند، بیش از پیش سست می‌کند.

علاوه بر این، مدل‌های زبانی بزرگ (مانند فناوری پشت چت‌جی‌پی‌تی) به سازندگان اخبار جعلی کمک می‌کنند تا منابع معتبر را با سهولت بیشتری تقلید کنند. این مسئله باعث می‌شود سیستم‌هایی که با روش‌های قدیمی‌تر اطلاعات نادرست آموزش دیده‌اند، در شناسایی شگردهای جدید و به‌روز ناتوان باشند. به عبارتی، این ابزارها همیشه یک گام از تولیدکنندگان محتوای جعلی عقب‌تر هستند و نمی‌توانند خود را با تاکتیک‌های همیشه در حال تغییر آنها تطبیق دهند.

سوگیری موجود در این سیستم‌ها نیز یکی دیگر از نقص‌های بزرگ است. تحقیقات نشان می‌دهد که برخی مدل‌ها، متونی با زبان زنانه را بیشتر به عنوان محتوای نادرست طبقه‌بندی می‌کنند یا نسبت به منابع غیرغربی دارای پیش‌داوری هستند و سوگیری‌های سیاسی و جغرافیایی را بازتولید می‌کنند. نکته خطرناک این است که این تبعیض‌ها به دلیل پنهان بودن، اغلب نادیده گرفته می‌شوند و صنعت هوش مصنوعی بیش از حد بر روی بهبود دقت متمرکز است، در حالی که برابری و عدالت باید بخشی جدایی‌ناپذیر از عملکرد این سیستم‌ها باشد.

محققان معتقدند به جای قضاوت صرف بر اساس دقت، باید عواملی چون برابری، شفافیت، حریم خصوصی و سودمندی در دنیای واقعی برای شهروندان را نیز در نظر گرفت. آنان بر لزوم همکاری با روزنامه‌نگاران، دانشمندان علوم اجتماعی و حقوقدانان تأکید کرده و دوگانگی نادرست بین دقت و مسئولیت اجتماعی را رد می‌کند.

در نهایت، پژوهشگران به عنوان راه‌حلی عملی، افزونه مرورگری به نام «» طراحی کرده است که به کاربران عادی امکان می‌دهد محتوای آنلاین را خودشان بررسی کنند. این ابزار با ارائه توضیحات ساده و شواهد موجود از منابع برخط، به جای صدور حکم قطعی «درست» یا «نادرست»، به افراد اجازه می‌دهد خود قضاوت نهایی را انجام دهند.

هسته اصلی این سیستم با قابلیت اطمینان ۸۵ درصدی در آزمایش‌ها، بسیاری از ابزارهای موجود را پشت سر گذاشته و نشان می‌دهد که آینده مبارزه با اطلاعات نادرست، در توسعه سیستم‌هایی است که با قضاوت انسانی کار می‌کنند، نه به جای آن.

این خبر را اینجا ببینید.

اخبار مرتبط
اخبار مرتبط

پاسخ دیدگاه

لطفا نظر خود را وارد کنید
نام خود را بنویسید