تغییرات ChatGPT از نگاه روان‌شناسان میان همدلی و خطر مرزی باریک وجود دارد

بازنگری OpenAI در سیاست‌های ChatGPT

سم آلتمن، مدیرعامل OpenAI، اخیراً اعلام کرده است که این شرکت قصد دارد رویکرد خود در زمینه سلامت روان کاربران ChatGPT را بازنگری کند. او تأکید کرده که هدف، ایجاد تجربه‌ای آزادتر برای کاربران بزرگسال است؛ تغییری که شامل دسترسی به برخی محتواهای حساس نیز می‌شود. با این حال، این تصمیم واکنش‌های گسترده‌ای برانگیخت و نگرانی‌هایی درباره تأثیر آن بر افراد آسیب‌پذیر ایجاد کرد.

نگرانی روان‌شناسان از تأثیر ChatGPT بر سلامت روان

دکتر پاتاپیا تسوتزولی، روان‌شناس بالینی، در گفت‌وگویی تأکید کرده است که ابزارهایی مانند ChatGPT ظرفیت بالایی برای کمک دارند، اما این ظرفیت باید با مسئولیت‌پذیری همراه باشد. به گفته او، این چت‌بات قادر به درک واقعی احساسات یا ارزیابی خطر نیست و سبک ارتباطی همدلانه آن می‌تواند ناخواسته باورهای نادرست یا الگوهای ناسالم را در کاربران تقویت کند.

جذابیت ChatGPT و ریسک وابستگی

ویژگی‌هایی مانند در دسترس بودن دائمی، پاسخ‌های فوری، عدم قضاوت و حس امنیت، ChatGPT را برای بسیاری از کاربران جذاب کرده است. اما همین ویژگی‌ها می‌توانند زمینه‌ساز وابستگی شوند، به‌ویژه برای افرادی که احساس تنهایی می‌کنند یا در شرایط بحرانی قرار دارند. تسوتزولی هشدار می‌دهد که هرچه ChatGPT انسانی‌تر به نظر برسد — با استفاده از زبان دوستانه، ایموجی‌ها یا شخصیت «دوست‌گونه» — مرز میان شبیه‌سازی و درک واقعی احساسات کمرنگ‌تر می‌شود.

چالش آموزش و بازخورد در مدل‌های هوش مصنوعی

به گفته کارشناسان، مشکل اصلی در نحوه آموزش این مدل‌هاست. ChatGPT بر اساس بازخورد انسانی تنظیم می‌شود و کیفیت این بازخورد می‌تواند تعصب ایجاد کند. در نتیجه، سیستم ممکن است به جای تمرکز بر حقیقت یا مفید بودن، پاسخ‌هایی ارائه دهد که صرفاً در لحظه رضایت‌بخش به نظر برسند. این موضوع در مکالمات حساس مربوط به سلامت روان می‌تواند خطرناک باشد.

فرصت‌ها و محدودیت‌ها در استفاده از هوش مصنوعی

تسوتزولی تأکید می‌کند که فرصت اصلی در استفاده از هوش مصنوعی، پشتیبانی از تعاملات انسانی است، نه جایگزینی آن‌ها. او می‌گوید: «چالش اصلی فنی نیست، بلکه اخلاقی است؛ اینکه چگونه می‌توانیم آزادی شخصی‌سازی ChatGPT را به شکلی شفاف و مسئولانه در خدمت سلامت روان به کار بگیریم.»

چالش مشترک شرکت‌های فعال در حوزه هوش مصنوعی

این مسئله تنها به OpenAI محدود نمی‌شود. شرکت‌هایی مانند Anthropic (سازنده Claude) و xAI (سازنده Grok) نیز با پرسش مشابهی روبه‌رو هستند: هوش مصنوعی تا چه حد باید اجازه داشته باشد احساسات انسانی را بازتاب دهد یا نقش محافظ روانی ایفا کند؟

جمع‌بندی

با وجود وعده‌های آلتمن درباره ایمنی کاربران، روان‌شناسان هشدار می‌دهند که مرز میان «انسانی‌تر شدن» و «خطرناک‌تر شدن» ChatGPT همچنان مبهم است. آنچه روشن است، این است که آینده تعامل میان هوش مصنوعی و سلامت روان نیازمند چارچوب‌های اخلاقی و نظارتی دقیق‌تری خواهد بود.

مجله اینترنتی سرگرمی طاووس

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

https://tavoosbt.ir/sitemap_index.xml