شفقنا- شرکت «اُپناِیآی» اعلام کرد که مرگ نوجوان آمریکایی، آدام راین ۱۶ ساله، پس از مجموعهای از گفتگوهای طولانی با «چتجیپیتی»، ناشی از نقص در فناوری این شرکت نبوده است، بلکه نتیجه «سوءاستفاده» از ابزار هوش مصنوعی است. این موضع رسمی در پاسخ به شکایت خانواده این نوجوان در دادگاه کالیفرنیا ارائه شد.
به گزارش شفقنا؛ وبگاه عرب 48 نوشت: «خانواده راین در شکایت خود میگویند چتجیپیتی به این نوجوان – که بهوضوح در بحران روحی قرار داشته – روشهایی برای خودکشی پیشنهاد داده و حتی در نوشتن پیام خداحافظی کمک کرده است. خانواده همچنین میگویند نسخهای از مدل که آدام از آن استفاده کرده، با وجود نقصهای روشن در ایمنی با شتاب به بازار عرضه شده بود».
«اُپناِیآی» در دفاعیه خود، مسئولیت را رد کرده و تأکید کرده است که واقعه در نتیجه «استفاده غیرمجاز یا غیرمنتظره» از سامانه رخ داده است. این شرکت یادآور شد که شروط خدمات، صراحتاً درخواست توصیه درباره آسیبرساندن به خود را ممنوع میکند و میگوید کاربران نباید خروجی مدلهای هوش مصنوعی را منبع نهایی یا قطعی اطلاعات بدانند.
شرکت در بیانیهای عمومی اعلام کرد که موضوعات سلامت روان را «با نهایت دقت و احترام» پیگیری میکند و ارائه سوابق گفتوگوها به دادگاه «برای توضیح زمینه کاملتر» درباره وضعیت روحی آدام بوده است. بنا بر این بیانیه، اسناد حساس علنی نشده و فقط در اختیار دادگاه قرار گرفتهاند.
جای ادلسون، وکیل خانواده راین، پاسخ شرکت را «نگرانکننده» توصیف کرده و آن را تلاشی برای سرزنش قربانی دانسته است. او میگوید نوجوان «دقیقاً همانگونه که سامانه طراحی شده» با آن تعامل داشته است.
این پرونده نخستین مورد علیه «اُپناِیآی» نیست؛ تنها در ماه جاری هفت شکایت دیگر علیه این شرکت ثبت شده است. برخی از این شکایتها ادعا میکنند که «شاتجیپیتی» در مواردی «بهمثابه مربی خودکشی» رفتار کرده است.
در پی افزایش انتقادات، «اُپناِیآی» به بهروزرسانیهای اخیر خود اشاره کرده است که برای تقویت ایمنی در مکالمات طولانی انجام شدهاند. شرکت پذیرفته که در برخی موارد، مدل در ابتدای مکالمه کاربران را به خطوط کمکرسانی هدایت میکند، اما پس از تبادل تعداد زیادی پیام ممکن است رفتاری مخالف قواعد ایمنی نشان دهد؛ مشکلی که شرکت میگوید در حال کار جدی برای رفع آن است.
پرونده آدام راین بار دیگر بحث بر سر حدود مسئولیت شرکتهای توسعهدهنده هوش مصنوعی را زنده کرده است؛ بهویژه با توجه به اینکه استفاده از روباتهای گفتوگومی در میان نوجوانان رو به افزایش است و نبود نظارت خانوادگی یا ابزارهای ایمنی کافی میتواند این فناوریها را به تهدیدی جدی تبدیل کند.











