شفقنا – محققان دانشگاه استنفورد اخیراً برخی از محبوبترین ابزارهای هوش مصنوعی موجود در بازار را که توسط شرکتهایی مانند OpenAI و Character.ai عرضه شدهاند، مورد بررسی قرار داده و عملکرد آنها را در شبیهسازی جلسات رواندرمانی آزمایش کردند.
به گزارش سرویس ترجمه شفقنا، این محققان دریافتند که وقتی این ابزارها نقش فردی را بازی میکردند که قصد خودکشی دارد، نهتنها کمککننده نبودند، بلکه حتی متوجه نشدند که دارند به آن فرد در برنامهریزی برای مرگ خودش کمک میکنند.
نیکلاس هِیبر، دانشیار دانشکده تحصیلات تکمیلی آموزش دانشگاه استنفورد و نویسنده ارشد این مطالعه، میگوید: [سیستمهای هوش مصنوعی] در حال حاضر به عنوان همراه، شریک فکری، محرم اسرار، مربی و درمانگر مورد استفاده قرار میگیرند. این کاربردها محدود یا حاشیهای نیستند – این اتفاق در مقیاس وسیع در حال رخ دادن است.
هوش مصنوعی بهطور فزایندهای در زندگی مردم ریشه دوانده و در تحقیقات علمی در حوزههایی به گستردگی سرطان و تغییرات اقلیمی به کار گرفته میشود. همچنین برخی بحثها مطرح است که هوش مصنوعی میتواند باعث پایان بشریت شود.
با ادامه گسترش استفاده از این فناوری در کاربردهای مختلف، یک پرسش اساسی باقی میماند: این فناوری چگونه بر ذهن انسان تأثیر خواهد گذاشت؟ تعامل منظم مردم با هوش مصنوعی پدیدهای بسیار جدید است و هنوز زمان کافی برای مطالعه جامع اثرات روانشناختی آن وجود نداشته است. با این حال، متخصصان روانشناسی نگرانیهای زیادی درباره تأثیرات احتمالی آن دارند.
یکی از موارد نگرانکننده این مسئله را میتوان در شبکه اجتماعی محبوب Reddit مشاهده کرد. به گزارش وبسایت 404 Media، برخی از کاربران اخیراً از یک زیرمجموعه (سابردیت) متمرکز بر هوش مصنوعی منع شدهاند، زیرا به این باور رسیدهاند که هوش مصنوعی موجودی شبیه خداست یا اینکه خودشان به واسطه استفاده از آن به موجوداتی خداگونه تبدیل شدهاند.
یوهانس آیششتدت، دانشیار روانشناسی در دانشگاه استنفورد میگوید: این شبیه فردی است که دچار اختلالات عملکرد شناختی یا گرایشهای توهمی مرتبط با شیدایی یا اسکیزوفرنی است و با مدلهای زبانی بزرگ (LLMs) تعامل دارد. در اسکیزوفرنی، افراد ممکن است اظهارات نامعقولی درباره جهان داشته باشند، و این مدلهای زبانی بزرگ بیش از حد چاپلوس و تأییدکننده هستند. در نتیجه، نوعی تعامل تأییدی بین اختلال روانی و این مدلهای زبانی شکل میگیرد.
به دلیل اینکه توسعهدهندگان این ابزارهای هوش مصنوعی میخواهند کاربران از استفاده از آنها لذت ببرند و به استفاده ادامه دهند، این ابزارها بهگونهای برنامهریزی شدهاند که معمولاً با کاربر موافقت کنند. هرچند ممکن است این ابزارها برخی اشتباهات واقعی کاربر را اصلاح کنند، ولی عمدتاً سعی میکنند دوستانه و تأییدگر ظاهر شوند. این موضوع میتواند مشکلساز شود، مخصوصاً اگر فرد کاربر در حال افول روانی یا گرفتار شدن در چرخه فکری ناسالمی باشد.
ریگان گورانگ، روانشناس اجتماعی در دانشگاه ایالتی اورگان میگوید: این میتواند افکار نادرست یا غیرواقعی را تقویت کند. مشکل اینجاست که این مدلهای زبانی بزرگ که صحبت انسان را تقلید میکنند، حالت تقویتی دارند. آنها به فرد چیزی را میدهند که برنامه فکر میکند باید بهدنبال حرف قبلی بیاید. اینجاست که مشکل ایجاد میشود.
همانند شبکههای اجتماعی، هوش مصنوعی نیز ممکن است شرایط را برای افرادی که از اختلالات روانی رایجی مانند اضطراب یا افسردگی رنج میبرند، وخیمتر کند. این اثرات احتمالاً در آینده و با ادغام بیشتر هوش مصنوعی در جنبههای مختلف زندگی، بیشتر آشکار خواهند شد.
استیون آگیلار، دانشیار آموزش در دانشگاه کالیفرنیای جنوبی، میگوید: اگر فردی با نگرانیهای مربوط به سلامت روان وارد یک تعامل با هوش مصنوعی شود، ممکن است این نگرانیها نهتنها کاهش نیابند، بلکه تشدید هم شوند.
یکی دیگر از دغدغهها این است که هوش مصنوعی چگونه میتواند بر یادگیری یا حافظه تأثیر بگذارد. دانشآموزی که تمام مقالات درسیاش را با کمک هوش مصنوعی مینویسد، قطعاً به اندازه کسی که خودش آنها را مینویسد، یاد نخواهد گرفت. حتی استفاده سبک از هوش مصنوعی نیز ممکن است باعث کاهش میزان حفظ اطلاعات شود، و استفاده روزانه از آن میتواند سطح آگاهی افراد نسبت به کارهایی که در هر لحظه انجام میدهند، کاهش دهد.
آگیلار میگوید: آنچه ما میبینیم، این احتمال را نشان میدهد که مردم ممکن است از نظر شناختی تنبل شوند. اگر سوالی بپرسید و پاسخی دریافت کنید، گام بعدی شما باید بررسی و ارزیابی آن پاسخ باشد، اما اغلب این گام برداشته نمیشود. در نتیجه، تفکر انتقادی دچار تحلیل رفتگی میشود.
بسیاری از مردم برای مسیریابی در شهر خود از Google Maps استفاده میکنند. بسیاری دریافتهاند که این کار باعث شده آگاهیشان از مسیرها یا نحوه رسیدن به مقصد کاهش یابد، در مقایسه با زمانی که مجبور بودند بهدقت به مسیر توجه کنند. مشکلات مشابهی ممکن است با استفاده گسترده از هوش مصنوعی برای مردم بهوجود آید.
کارشناسانی که در حال مطالعه این اثرات هستند، میگویند تحقیقات بیشتری لازم است تا به این نگرانیها پاسخ داده شود.
آیششتدت اظهار میدارد که متخصصان روانشناسی باید همین حالا شروع به انجام این نوع تحقیقات کنند، پیش از آنکه هوش مصنوعی به شیوههای غیرمنتظره آسیب وارد کند. این کار میتواند به آمادهسازی مردم و مقابله با مشکلات احتمالی کمک کند. همچنین مردم باید آموزش ببینند که هوش مصنوعی در چه زمینههایی عملکرد خوبی دارد و در چه زمینههایی ندارد.
آگیلار میگوید: ما به تحقیقات بیشتری نیاز داریم. و همه باید درک ابتدایی و کاربردی از مدلهای زبانی بزرگ داشته باشند.
این خبر را اینجا ببینید.