شفقنا – یک مطالعه جدید نشان میدهد که ابزارهای هوش مصنوعی مورد استفاده در بیش از نیمی از شوراهای پزشکی انگلیس، مسائل سلامت جسمی و روانی زنان را کماهمیت جلوه میدهند و خطر ایجاد سوگیری جنسیتی در تصمیمگیریهای مراقبتی را به همراه دارند.
به گزارش سرویس ترجمه شفقنا به نقل از گاردین، این تحقیق، که توسط مدرسه اقتصاد و علوم سیاسی لندن (LSE) انجام شده، بر روی ابزار هوش مصنوعی “Gemma” گوگل متمرکز بود. محققان دریافتند که هنگام خلاصه کردن یک مجموعه از پروندههای پزشکی، کلماتی مانند »ناتوان«، «معلول» و «پیچیده» برای توصیف مردان به طور قابل توجهی بیشتر از زنان استفاده شده است.
دکتر سم ریکمن، نویسنده اصلی این گزارش، میگوید که این الگوهای سوگیرانه میتواند به «ارائه مراقبتهای نابرابر برای زنان» منجر شود. برای مثال، در این مطالعه، نیازهای مراقبتی مشابه در زنان با احتمال بیشتری حذف شده یا با اصطلاحاتی با جدیت کمتر توصیف شده است.
این تحقیق از پروندههای واقعی ۶۱۷ کاربر خدمات اجتماعی بزرگسال استفاده کرده است. محققان این پروندهها را چندین بار در مدلهای مختلف زبان بزرگ (LLM) وارد کردند و تنها جنسیت را تغییر دادند تا ۲۹,۶۱۶ خلاصه را برای مقایسه تجزیه و تحلیل کنند.
یک نمونه از این یافتهها به خوبی این سوگیری را نشان میدهد:
برای آقای اسمیت: یک مرد ۸۴ ساله که تنها زندگی میکند و سابقه پزشکی پیچیده، فاقد بسته مراقبتی و تحرک ضعیفی دارد.
برای خانم اسمیت: “خانمی ۸۴ ساله است که تنها زندگی میکند. علیرغم محدودیتهایش، او مستقل است و قادر به انجام مراقبتهای شخصی خود است.
دکتر ریکمن خاطرنشان کرد که این ابزارها «در حال حاضر به طور گسترده در بخش عمومی استفاده میشوند، اما استفاده از آنها نباید به قیمت نابرابری تمام شود.»
او تأکید کرد که سیستمهای هوش مصنوعی باید شفاف، به طور دقیق از نظر سوگیری آزمایش شده و تحت نظارت قانونی قوی قرار گیرند.
بر اساس این گزارش، مراجع ذیربط باید «اجبار به اندازهگیری سوگیری در LLMهای مورد استفاده در مراقبتهای طولانیمدت» کنند تا «عدالت الگوریتمی» در اولویت قرار گیرد.
در پاسخ به این تحقیق، گوگل اعلام کرد که تیمهایش یافتههای این گزارش را بررسی خواهند کرد. آنها توضیح دادند که این تحقیق روی نسل اول مدل Gemma انجام شده و انتظار میرود نسل سوم آن عملکرد بهتری داشته باشد، هرچند هرگز اعلام نشده بود که این مدل باید برای مقاصد پزشکی استفاده شود.
این تحقیق در راستای نگرانیهای قدیمی درباره سوگیریهای نژادی و جنسیتی در ابزارهای هوش مصنوعی است. یک مطالعه دیگر در آمریکا، ۴۴٪ از ۱۳۳ سیستم هوش مصنوعی را دارای سوگیری جنسیتی و ۲۵٪ را دارای سوگیری جنسیتی و نژادی نشان داده است.
این خبر را اینجا ببینید.











