شفقنا – کارشناسان هشدار میدهند که گسترش سریع ابزارهای هوش مصنوعی در حوزه سلامت، میتواند هنگام بروز خطاهای پزشکی یک درگیری ذهنی سرزنشبار ایجاد کند، زیرا مشخص نیست مسئولیت شکست درمانی بر عهده کیست: پزشک، توسعهدهنده هوش مصنوعی یا خود الگوریتم.
به گزارش سرویس ترجمه شفقنا، با وجود رشد انفجاری هوش مصنوعی در بخش سلامت – از الگوریتمهای کمککننده به تشخیص بیماری و تفسیر اسکنها گرفته تا سیستمهای مدیریت بیمارستانها – کارشناسان در مورد پیامدهای قانونی این فناوری نوین هشدار میدهند.
گزارشی که پس از نشست متخصصان در خصوص هوش مصنوعی منتشر شد، به رهبری پروفسور درک آنگوس از دانشگاه پیتسبورگ، بیان میکند که در صورت بروز یک پیامد منفی برای بیمار، تعیین مسئولیت قانونی بسیار دشوار خواهد بود.
پروفسور گلن کوهن از دانشکده حقوق هاروارد، یکی از نویسندگان این گزارش، توضیح میدهد که بیماران برای اثبات وجود نقص در استفاده یا طراحی محصول هوش مصنوعی، با موانع متعددی روبرو خواهند شد:
دسترسی به اطلاعات: کسب اطلاعات درباره نحوه عملکرد داخلی سیستم هوش مصنوعی ممکن است محدود باشد.
اثبات جایگزین: دشوار است که یک طراحی جایگزین مناسب برای محصول هوش مصنوعی پیشنهاد شود.
اثبات علت: اثبات اینکه یک نتیجه نامطلوب مستقیماً توسط سیستم هوش مصنوعی ایجاد شده، میتواند چالشبرانگیز باشد.
بازی مقصر یابی: طرفین مختلف (پزشک، شرکت فناوری، بیمارستان) ممکن است در قراردادهایشان مسئولیت را به یکدیگر محول کرده باشند و هر کدام دیگری را مقصر معرفی کنند.
نگرانی از عدم نظارت و ارزیابی کافی
نگرانی دیگری که در این گزارش مطرح شده، نحوه ارزیابی و نظارت بر ابزارهای هوش مصنوعی است. بسیاری از این ابزارها خارج از نظارت سازمانهای تنظیمکننده مانند سازمان غذا و داروی آمریکا فعالیت میکنند.
پروفسور آنگوس اشاره کرد: برای پزشکان، اثربخشی معمولاً به معنای بهبود پیامدهای سلامتی است، اما تضمینی وجود ندارد که نهادهای نظارتی به دنبال اثبات [این بهبود] باشند.
وی همچنین تأکید کرد که در حال حاضر، ابزارهایی که بیشترین ارزیابی و تأیید را دریافت کردهاند، کمترین استفاده را داشتهاند و برعکس، ابزارهایی که بیشترین کاربرد را پیدا کردهاند، کمترین ارزیابی را از نظر اثربخشی بالینی دیدهاند. این عدم قطعیت، هزینهها را برای همه کسانی که در اکوسیستم نوآوری هوش مصنوعی هستند، افزایش میدهد.
در نهایت، کارشناسان خواستار سرمایهگذاری در زیرساختهای دیجیتال و ارزیابی دقیقتر ابزارهای هوش مصنوعی در شرایط واقعی کلینیکی شدهاند تا قبل از فراگیر شدن کامل، چالشهای قانونی و ایمنی آنها برطرف شود.
این خبر را اینجا ببینید.











