امروز : دوشنبه 23تیرماه 1404 | ساعت : 17 : 42

آخرین اخبار

حضور پزشکیان در مراسم گرامیداشت شهدای اقتدار و امنیت پلیس

شفقنا- رئیس‌جمهور در آیین گرامیداشت شهدای اقتدار و امنیت...

عارف بر جذب سرمایه‌گذاری ایرانیان خارج از کشور تأکید کرد

شفقنا- معاون اول رئیس جمهور بر ضرورت جذب سرمایه‌گذاری...

پلیس راهور فراجا خبر داد؛ انسداد موقت جاده چالوس به دلیل ریزش سنگ

شفقنا- رئیس پلیس راه راهور فراجا گفت: آزادراه تهران-شمال...

پیشنهاد خاص برای طارمی؛ قابل مذاکره؟!

شفقنا – جدایی مهدی طارمی از اینتر به مراحل...

دیدار وزیر کشور عراق با رئیس‌جمهور

شفقنا- وزیر کشور عراق با رئیس جمهوری دیدار کرد. به...

معتمدی: ساختار دفاع سایبری کشور نیازمند بازنگری است

شفقنا رسانه- وزیر ارتباطات و فناوری اطلاعات دولت اصلاحات،...

کارگاه تولید مبل در کرج طعمه آتش شد

شفقنا- رییس سازمان آتش نشانی و خدمات ایمنی شهرداری...

همکاری مالزی با آمریکا برای مقابله با قاچاق تراشه به چین

شفقنا رسانه- مالزی دریافت مجوز برای صادرات تراشه‌های هوش...

پاک آیین: نگاه ما به دیپلماسی یک نگاه تاکتیکی نیست

شفقنا- یک دیپلمات بازنشسته گفت: رویکرد ایالات متحده این...

تاکسی معلولان در قم راه اندازی شد

شفقنا- رئیس کمیسیون عمران و حمل‌ و نقل شورای...

بقائی: عراقچی با لاوروف دیدار می‌کند

شفقنا-  سخنگوی دستگاه دیپلماسی اعلام کرد وزیر امورخارجه ایران...

چگونه هوش مصنوعی مولد بر ذهن افراد تأثیر می‌گذارد؟

شفقنا – محققان دانشگاه استنفورد اخیراً برخی از محبوب‌ترین ابزارهای هوش مصنوعی موجود در بازار را که توسط شرکت‌هایی مانند OpenAI و Character.ai عرضه شده‌اند، مورد بررسی قرار داده و عملکرد آن‌ها را در شبیه‌سازی جلسات روان‌درمانی آزمایش کردند.

به گزارش سرویس ترجمه شفقنا، این محققان دریافتند که وقتی این ابزارها نقش فردی را بازی می‌کردند که قصد خودکشی دارد، نه‌تنها کمک‌کننده نبودند، بلکه حتی متوجه نشدند که دارند به آن فرد در برنامه‌ریزی برای مرگ خودش کمک می‌کنند.

نیکلاس هِیبر، دانشیار دانشکده تحصیلات تکمیلی آموزش دانشگاه استنفورد و نویسنده ارشد این مطالعه، می‌گوید: [سیستم‌های هوش مصنوعی] در حال حاضر به عنوان همراه، شریک فکری، محرم اسرار، مربی و درمانگر مورد استفاده قرار می‌گیرند. این کاربردها محدود یا حاشیه‌ای نیستند – این اتفاق در مقیاس وسیع در حال رخ دادن است.

هوش مصنوعی به‌طور فزاینده‌ای در زندگی مردم ریشه دوانده و در تحقیقات علمی در حوزه‌هایی به گستردگی سرطان و تغییرات اقلیمی به کار گرفته می‌شود. همچنین برخی بحث‌ها مطرح است که هوش مصنوعی می‌تواند باعث پایان بشریت شود.

با ادامه گسترش استفاده از این فناوری در کاربردهای مختلف، یک پرسش اساسی باقی می‌ماند: این فناوری چگونه بر ذهن انسان تأثیر خواهد گذاشت؟ تعامل منظم مردم با هوش مصنوعی پدیده‌ای بسیار جدید است و هنوز زمان کافی برای مطالعه جامع اثرات روان‌شناختی آن وجود نداشته است. با این حال، متخصصان روان‌شناسی نگرانی‌های زیادی درباره تأثیرات احتمالی آن دارند.

یکی از موارد نگران‌کننده این مسئله را می‌توان در شبکه اجتماعی محبوب Reddit مشاهده کرد. به گزارش وب‌سایت 404 Media، برخی از کاربران اخیراً از یک زیرمجموعه (ساب‌ردیت) متمرکز بر هوش مصنوعی منع شده‌اند، زیرا به این باور رسیده‌اند که هوش مصنوعی موجودی شبیه خداست یا اینکه خودشان به واسطه استفاده از آن به موجوداتی خداگونه تبدیل شده‌اند.

یوهانس آیششتدت، دانشیار روان‌شناسی در دانشگاه استنفورد می‌گوید: این شبیه فردی است که دچار اختلالات عملکرد شناختی یا گرایش‌های توهمی مرتبط با شیدایی یا اسکیزوفرنی است و با مدل‌های زبانی بزرگ (LLMs) تعامل دارد. در اسکیزوفرنی، افراد ممکن است اظهارات نامعقولی درباره جهان داشته باشند، و این مدل‌های زبانی بزرگ بیش از حد چاپلوس و تأییدکننده هستند. در نتیجه، نوعی تعامل تأییدی بین اختلال روانی و این مدل‌های زبانی شکل می‌گیرد.

به دلیل اینکه توسعه‌دهندگان این ابزارهای هوش مصنوعی می‌خواهند کاربران از استفاده از آن‌ها لذت ببرند و به استفاده ادامه دهند، این ابزارها به‌گونه‌ای برنامه‌ریزی شده‌اند که معمولاً با کاربر موافقت کنند. هرچند ممکن است این ابزارها برخی اشتباهات واقعی کاربر را اصلاح کنند، ولی عمدتاً سعی می‌کنند دوستانه و تأییدگر ظاهر شوند. این موضوع می‌تواند مشکل‌ساز شود، مخصوصاً اگر فرد کاربر در حال افول روانی یا گرفتار شدن در چرخه فکری ناسالمی باشد.

ریگان گورانگ، روان‌شناس اجتماعی در دانشگاه ایالتی اورگان می‌گوید: این می‌تواند افکار نادرست یا غیرواقعی را تقویت کند. مشکل اینجاست که این مدل‌های زبانی بزرگ که صحبت انسان را تقلید می‌کنند، حالت تقویتی دارند. آن‌ها به فرد چیزی را می‌دهند که برنامه فکر می‌کند باید به‌دنبال حرف قبلی بیاید. اینجاست که مشکل ایجاد می‌شود.

همانند شبکه‌های اجتماعی، هوش مصنوعی نیز ممکن است شرایط را برای افرادی که از اختلالات روانی رایجی مانند اضطراب یا افسردگی رنج می‌برند، وخیم‌تر کند. این اثرات احتمالاً در آینده و با ادغام بیشتر هوش مصنوعی در جنبه‌های مختلف زندگی، بیشتر آشکار خواهند شد.

استیون آگیلار، دانشیار آموزش در دانشگاه کالیفرنیای جنوبی، می‌گوید: اگر فردی با نگرانی‌های مربوط به سلامت روان وارد یک تعامل با هوش مصنوعی شود، ممکن است این نگرانی‌ها نه‌تنها کاهش نیابند، بلکه تشدید هم شوند.

یکی دیگر از دغدغه‌ها این است که هوش مصنوعی چگونه می‌تواند بر یادگیری یا حافظه تأثیر بگذارد. دانش‌آموزی که تمام مقالات درسی‌اش را با کمک هوش مصنوعی می‌نویسد، قطعاً به اندازه کسی که خودش آن‌ها را می‌نویسد، یاد نخواهد گرفت. حتی استفاده سبک از هوش مصنوعی نیز ممکن است باعث کاهش میزان حفظ اطلاعات شود، و استفاده روزانه از آن می‌تواند سطح آگاهی افراد نسبت به کارهایی که در هر لحظه انجام می‌دهند، کاهش دهد.

آگیلار می‌گوید: آنچه ما می‌بینیم، این احتمال را نشان می‌دهد که مردم ممکن است از نظر شناختی تنبل شوند. اگر سوالی بپرسید و پاسخی دریافت کنید، گام بعدی شما باید بررسی و ارزیابی آن پاسخ باشد، اما اغلب این گام برداشته نمی‌شود. در نتیجه، تفکر انتقادی دچار تحلیل رفتگی می‌شود.

بسیاری از مردم برای مسیریابی در شهر خود از Google Maps استفاده می‌کنند. بسیاری دریافته‌اند که این کار باعث شده آگاهی‌شان از مسیرها یا نحوه رسیدن به مقصد کاهش یابد، در مقایسه با زمانی که مجبور بودند به‌دقت به مسیر توجه کنند. مشکلات مشابهی ممکن است با استفاده گسترده از هوش مصنوعی برای مردم به‌وجود آید.

کارشناسانی که در حال مطالعه این اثرات هستند، می‌گویند تحقیقات بیشتری لازم است تا به این نگرانی‌ها پاسخ داده شود.

آیششتدت اظهار می‌دارد که متخصصان روان‌شناسی باید همین حالا شروع به انجام این نوع تحقیقات کنند، پیش از آن‌که هوش مصنوعی به شیوه‌های غیرمنتظره آسیب وارد کند. این کار می‌تواند به آماده‌سازی مردم و مقابله با مشکلات احتمالی کمک کند. همچنین مردم باید آموزش ببینند که هوش مصنوعی در چه زمینه‌هایی عملکرد خوبی دارد و در چه زمینه‌هایی ندارد.

آگیلار می‌گوید: ما به تحقیقات بیشتری نیاز داریم. و همه باید درک ابتدایی و کاربردی از مدل‌های زبانی بزرگ داشته باشند.

این خبر را اینجا ببینید.

اخبار مرتبط

پاسخ دیدگاه

لطفا نظر خود را وارد کنید
نام خود را بنویسید