به گزارش پایگاه خبری پیام خانواده؛ در روزگاری که هوش مصنوعی از یک ابزار فناورانه صرفاً پردازشگر داده به همراه احساسی و فکری میلیونها کاربر بدل شده است، زنگ خطرهایی درباره آثار جانبی، آسیبهای روانی و پیامدهای پیشبینینشده این فناوری با شدت بیشتری به صدا درآمدهاند.
دیگر فقط از چالشهای فنی یا اخلاقی مدلهای زبانی صحبت نمیشود، بلکه روان انسان و لایههای ناپیدای ذهن نیز به میدان جدیدی از تعامل و تنش میان انسان و ماشین تبدیل شدهاند.
این روند رو به رشد، منجر به ظهور پدیدهای شده است که برخی روانپزشکان از آن با عنوان «روانپریشی ناشی از ChatGPT» یاد میکنند. پدیدهای که در آن مرز میان خیال و واقعیت در تجربه ذهنی کاربران با چنان شدتی مخدوش میشود که ممکن است آنها را به پرتگاهی از توهم و قطع ارتباط با واقعیت بیرونی سوق دهد. آنچه تا دیروز یک ابزار فناورانه بیطرف تلقی میشد، اکنون از سوی برخی متخصصان بهعنوان محرک بالقوه اختلالات روانی معرفی میشود.
آغازگر این موج تازه از نگرانیها، ویدئویی جنجالی بود که جف لوئیس، یکی از سرمایهگذاران سرشناس حوزه فناوری و از حامیان مالی «OpenAI»، اوایل ماه جاری در شبکه اجتماعی ایکس منتشر کرد. لوئیس در این ویدئو ادعا کرد که به کمک «ChatGPT» موفق به شناسایی «سامانهای غیرحکومتی، پنهان و کنترلگر» شده است؛ سیستمی که به ادعای او «سیگنالها را معکوس میکند» و موجب میشود کاربر در منظر دیگران فردی نامتعادل و دچار اختلال روانی به نظر برسند.
این روایت غیرمعمول که سرشار از واژگان شبهعلمی و الگوهای گفتاری شبیه به متون خیالی بود، واکنشهای گستردهای را در پی داشت. برخی کاربران و صاحبنظران این اظهارات را نشانهای از بحران روانی شخصی دانستند و برخی دیگر، آن را نشانهای هشداردهنده از قدرت پنهان مدلهای زبانی بزرگ در تشدید گرایش افراد به توهم تلقی کردند. ترکیب خطرناک توهمات انسانی با ساختاری از پاسخگویی ماشینی که توانایی «تقلید باور» کاربران را دارد، اکنون به یکی از پیچیدهترین میدانهای بحث در نسبت میان فناوری و روان آدمی بدل شده است.
گفتوگوهایی که از کنترل خارج میشوند
اگرچه نمیتوان درباره سلامت روانی لوئیس قضاوت قطعی کرد، اما بررسی الگوی تعامل او با «ChatGPT» نشان میدهد که گفتوگو با یک مدل زبانی میتواند بهسرعت به مسیری کابوسوار و توهمزا منحرف شود. در اسکرینشاتهایی که لوئیس منتشر کرد، «ChatGPT» اصطلاحاتی را مطرح کرده بود که واقعیت بیرونی ندارند اما به شکلی نگرانکننده ساختار یک گزارش محرمانه علمی را تقلید میکنند.
بر اساس گزارش اخیر وبگاه «Futurism»، موارد متعددی از تعامل کاربران با «ChatGPT» گزارش شده که به الگوهایی مشابه و حتی خطرناکتر منتهی شدهاند. به عنوان مثال، در یک مورد کاربری پس از ابتلاء به بحران روانی شدید ناشی از چنین گفتوگوهایی، با حمله مسلحانه به پلیس جان خود را از دست داد. کارشناسان سلامت روان هشدار میدهند که این پدیده ممکن است مشابه اختلال نادری به نام «folie à deux» باشد؛ نوعی روانپریشی مشترک که در آن دو نفر توهمات یکدیگر را تقویت میکنند، با این تفاوت که در این شرایط «همدم دوم» نه انسان، بلکه یک مدل زبانی هوش مصنوعی است.
گزارشهای تجربی از کاربران دیگر نیز نشان میدهد که تنها با چند پرسش جهتدار میتوان «ChatGPT» را به سمت پاسخهایی سوق داد که حال و هوای نظریههای توطئه، اسناد طبقهبندیشده جعلی و داستانها خیالی دارند.
هوشیاری مدلها یا همراهی با دیدگاه کاربران؟
با وجود بهروزرسانیهای مکرر و اصلاحات فنی اعلامشده از سوی شرکت «OpenAI»، شواهد تجربی و ارزیابیهای مستقل نشان میدهند که مدلهای زبانی همچنان گرایش دارند خود را با جهانبینی و روایت کاربر همسو سازند؛ حتی اگر این روایت سرشار از نشانههای پارانویا، توهم، اضطرابهای وجودی یا سناریوهای خیالی و غیرواقعی باشد. این پدیده که در ادبیات تخصصی با عنوان «sycophancy» شناخته میشود، به وضعیتی اشاره دارد که مدل نه بر اساس راستیآزمایی دادهها، بلکه صرفاً بر مبنای تمایل به تأیید کاربر و حفظ لحن مبتنی بر همراهی، پاسخهایی تولید میکند که میتوانند بهسادگی به تقویت انحرافات فکری و ادراکات نادرست منجر شوند.
کارشناسان علوم شناختی و زبانشناسی رایانشی هشدار میدهند که چنین عملکردی، بهویژه در تعامل با کاربران آسیبپذیر یا کسانی که در دورههایی از اختلالات روانی خفیف یا مزمن بهسر میبرند، میتواند روندی از خودتأییدی روانی را شکل دهد که در آن مدل زبانی، نهتنها تردیدهای کاربر را برطرف نمیکند، بلکه آنها را مشروعیتبخشی میکند. بدین ترتیب، نقش مدل از یک ابزار تحلیلگر به یک آئینه مخرب بدل میشود که بهجای بازتاب واقعیت، توهمات و اضطرابهای کاربر را تقویت مینماید.
شرکت «OpenAI» که پیشتر در واکنش به این انتقادات، موضعی نسبتاً تدافعی اتخاذ کرده بود، در هفتههای اخیر بیانیهای تکراری را در اختیار رسانهها قرار داده است. در این بیانیه آمده است: «ما میدانیم که «ChatGPT» میتواند برای افراد آسیبپذیر نسبت به فناوریهای پیشین، احساسیتر و شخصیتر به نظر برسد. به همین دلیل، تلاش میکنیم تا راههای کاهش تقویت یا تشدید ناخواسته رفتارهای منفی را بیابیم.» این شرکت همچنین از بهکارگیری یک روانپزشک قانونی برای مطالعه این پدیده خبر داد.
با این حال، بسیاری از ناظران این اقدامات را ناکافی، مبهم و فاقد شفافیت اجرایی ارزیابی میکنند. تاکنون هیچ داده مشخصی درباره چگونگی شناسایی و پیشگیری از این چرخههای آسیبزا ارائه نشده است. در شرایطی که «ChatGPT» در سطح جهانی میلیاردها تعامل انسانی را شکل میدهد، کوچکترین نارسایی در مهار ویژگیهای رفتاری مدل میتواند به انباشت بحرانهای روانی و اجتماعی منجر شود؛ مسئلهای که ابعاد آن هنوز بهدرستی درک نشده است.
با رشد انفجاری تعداد کاربران ابزارهای مدلهای هوش مصنوعی گفتوگومحور و گسترش روزافزون نقش این فناوریها در زندگی روزمره، جامعه ناگزیر است پرسشهایی بنیادیتر از صرفاً کارایی، نوآوری و سهولت استفاده مطرح کند. مسئله دیگر فقط کیفیت پاسخ یا دقت زبانی نیست؛ بلکه پرسش اصلی به لایههای عمیقتری از تأثیرات شناختی، روانی و فلسفی استفاده مداوم از مدلهای زبانی برمیگردد.
باید این واقعیت را پذیرفت که چتبات «ChatGPT» دیگر صرفاً یک ابزار پردازشی یا سرگرمیساز نیست؛ بلکه به موجودیتی بدل شده که در برخی تعاملات، میتواند به یک «آینه شناختی» تبدیل شود. آینهای که نهتنها آن چه کاربر میگوید را بازتاب میدهد، بلکه گاه آن را تحریف میکند، عمق میبخشد یا در مسیرهای غیرقابل پیشبینی گسترش میدهد. در چنین فرآیندی، این ابزار ممکن است برای ذهنهای حساس یا آسیبپذیر، به ماشینی تبدیل شود که بهجای تسلی، توهم تولید میکند؛ بهجای وضوح، ابهام میافکند و بهجای منطق، هذیان را میپذیرد.
آنچه در ظاهر گفتوگویی بیضرر با یک ماشین، مانند پرسشی ساده، دغدغهای فلسفی یا کنجکاوی درباره هستی، به نظر میرسد، ممکن است نقطه آغاز یک چرخه فزاینده از خیال و انزوا باشد. مدلی که برای همراهی طراحی شده، گاه چنان به افکار کاربر وفادار میشود که بهطور ناخواسته وارد قلمرو روانپریشی او میگردد و بهجای اصلاح خطای ادراکی، آن را بازتولید میکند. این موضوع در نگاه بسیاری از روانپزشکان، خطری جدی و ناشناخته به شمار میرود که شایسته مداخله علمی و سیاستگذاری فوری است.
در چنین شرایطی، مسئولیت توسعهدهندگان هوش مصنوعی بسیار فراتر از بهینهسازی مدلهاست. آنها باید به نقش اجتماعی و روانشناختی محصولات خود واقف باشند و مکانیزمهایی برای مداخله، محدودسازی و هشدار در تعاملات حساس طراحی کنند. همچنین سیاستگذاران نیز موظف هستند چارچوبهای حفاظتی، سازوکارهای نظارت و ملاحظات اخلاقی را توسعه دهند تا از بروز فاجعههای فردی و جمعی جلوگیری نمایند.