شفقنا – بر اساس تحقیقات جدیدی که در دانشگاه مونترال انجام شده، سیستمهای هوش مصنوعی که برای شناسایی اخبار جعلی طراحی شدهاند، با وجود عملکرد به ظاهر دقیق در محیطهای آزمایشگاهی، در کاربردهای واقعی با شکست مواجه میشوند.
به گزارش سرویس ترجمه شفقنا، محققان دریافتهاند که عملکرد فنی چشمگیر این ابزارها در آزمایشگاه، اغلب نقصهای عمیقترشان را پنهان میکند. به بیان ساده، این سیستمها مانند یک آینه عمل میکنند و صرفاً بازتابدهنده دادههایی هستند که با آنها آموزش دیدهاند، نه اینکه مانند یک روزنامهنویس حرفهای به راستیآزمایی بپردازند.
مشکل اساسی دیگر، نبود اجماع در مورد تعریف اخبار جعلی است. برای آموزش یک سیستم هوش مصنوعی، باید هزاران نمونه برچسبگذاری شده با عنوان «درست» یا «نادرست» به آن خورانده شود. این برچسبها اغلب توسط سازمانهای راستیآزمایی ارائه میشوند که روشهای کاری آنها شفاف نیست و برخی از آنها سازمانهای انتفاعی هستند. این مسئله، پایههای این سیستمها را که بر روی دادههای متزلزل بنا شدهاند، بیش از پیش سست میکند.
علاوه بر این، مدلهای زبانی بزرگ (مانند فناوری پشت چتجیپیتی) به سازندگان اخبار جعلی کمک میکنند تا منابع معتبر را با سهولت بیشتری تقلید کنند. این مسئله باعث میشود سیستمهایی که با روشهای قدیمیتر اطلاعات نادرست آموزش دیدهاند، در شناسایی شگردهای جدید و بهروز ناتوان باشند. به عبارتی، این ابزارها همیشه یک گام از تولیدکنندگان محتوای جعلی عقبتر هستند و نمیتوانند خود را با تاکتیکهای همیشه در حال تغییر آنها تطبیق دهند.
سوگیری موجود در این سیستمها نیز یکی دیگر از نقصهای بزرگ است. تحقیقات نشان میدهد که برخی مدلها، متونی با زبان زنانه را بیشتر به عنوان محتوای نادرست طبقهبندی میکنند یا نسبت به منابع غیرغربی دارای پیشداوری هستند و سوگیریهای سیاسی و جغرافیایی را بازتولید میکنند. نکته خطرناک این است که این تبعیضها به دلیل پنهان بودن، اغلب نادیده گرفته میشوند و صنعت هوش مصنوعی بیش از حد بر روی بهبود دقت متمرکز است، در حالی که برابری و عدالت باید بخشی جداییناپذیر از عملکرد این سیستمها باشد.
محققان معتقدند به جای قضاوت صرف بر اساس دقت، باید عواملی چون برابری، شفافیت، حریم خصوصی و سودمندی در دنیای واقعی برای شهروندان را نیز در نظر گرفت. آنان بر لزوم همکاری با روزنامهنگاران، دانشمندان علوم اجتماعی و حقوقدانان تأکید کرده و دوگانگی نادرست بین دقت و مسئولیت اجتماعی را رد میکند.
در نهایت، پژوهشگران به عنوان راهحلی عملی، افزونه مرورگری به نام «» طراحی کرده است که به کاربران عادی امکان میدهد محتوای آنلاین را خودشان بررسی کنند. این ابزار با ارائه توضیحات ساده و شواهد موجود از منابع برخط، به جای صدور حکم قطعی «درست» یا «نادرست»، به افراد اجازه میدهد خود قضاوت نهایی را انجام دهند.
هسته اصلی این سیستم با قابلیت اطمینان ۸۵ درصدی در آزمایشها، بسیاری از ابزارهای موجود را پشت سر گذاشته و نشان میدهد که آینده مبارزه با اطلاعات نادرست، در توسعه سیستمهایی است که با قضاوت انسانی کار میکنند، نه به جای آن.
این خبر را اینجا ببینید.











