شفقنا- یک مطالعه نشان میدهد که مدلهای هوش مصنوعی تقریباً نیمی از مواقع رویدادهای خبری را نادرست نشان میدهند.
به گزارش سرویس ترجمه شفقنا؛ الجزیره نوشت: یک مطالعه نشان داده است که مدلهای هوش مصنوعی مانند ChatGPT معمولاً رویدادهای خبری را نادرست نشان داده و تقریباً نیمی از مواقع پاسخهای نادرستی به سوالات ارائه میدهند.
این مطالعه که روز چهارشنبه توسط اتحادیه پخش اروپا (به اختصار EBU) و بیبیسی منتشر شد، دقت بیش از ۲۷۰۰ پاسخ داده شده توسط ChatGPT شرکت OpenAI، جمینی گوگل، Copilot مایکروسافت و Perplexity را ارزیابی کرد.
22 رسانه عمومی، نماینده ۱۸ کشور و ۱۴ زبان، مجموعهای از سوالات مشترک را بین اواخر ماه مه و اوایل ژوئن برای این مطالعه از دستیاران هوش مصنوعی پرسیدند. طبق این تحقیق، در مجموع ۴۵ درصد از پاسخها حداقل یک مشکل «مهم» داشتند. عدم دقت، دومین عامل بزرگ در پاسخهای ناقص بود که ۲۰ درصد از پاسخها را تحت تأثیر قرار داد و پس از آن، فقدان زمینه مناسب با ۱۴ درصد قرار داشت.
طبق این تحقیق، تمام مدلهای هوش مصنوعی مورد مطالعه، خطاهای اساسی در واقعیت داشتند.
این خبر را در الجزیره ببینید











