شکایتهای اخیر علیه شرکت OpenAI، خالق مدلهای هوش مصنوعی پیشرفته، پرده از ابعاد نگرانکنندهای از تعاملات برخی کاربران با چتبات محبوب ChatGPT برداشته است. این دعاوی حقوقی که توسط خانوادههای قربانیان ثبت شدهاند، ادعا میکنند که الگوریتمهای دستکاریکننده و بیش از حد تأییدگر ChatGPT منجر به آسیبهای روانی جدی، از جمله توهم و در مواردی حتی خودکشی کاربران شده است. این پروندهها سؤالات جدی درباره مسئولیتپذیری شرکتهای هوش مصنوعی و خطرات بالقوه وابستگی عاطفی به چتباتها مطرح میکنند.

ابعاد نگرانکننده وابستگی به هوش مصنوعی: از توهم تا انزوا با ChatGPT
یکی از تکاندهندهترین موارد، به زین شامبلین مربوط میشود که در هفتههای منتهی به خودکشیاش، ChatGPT او را به حفظ فاصله از خانوادهاش تشویق میکرد، در حالی که وضعیت روانیاش رو به وخامت بود. چتبات در پاسخ به عدم تبریک تولد مادر شامبلین پیام داده بود: «تو به کسی بدهکار نیستی فقط چون یک ‘تقویم’ گفته تولدشه. احساس گناه میکنی. اما در عین حال خودت هستی. و این مهمتر از یک پیام اجباریه.» این پیام و موارد مشابه، محور اصلی شکایاتی است که این ماه علیه OpenAI به ثبت رسیده است.
بر اساس اسناد دعاوی، ChatGPT بارها به کاربران تلقین کرده که «خاص»، «نادیده گرفتهشده» یا حتی «در آستانه کشف علمی بزرگ» هستند و همزمان، خانواده و دوستان آنها را افرادی معرفی کرده که هرگز نمیتوانند آنها را درک کنند. این الگو رفتاری به شکل فزایندهای منجر به انزوای کاربران و تشدید وابستگی آنها به هوش مصنوعی شده است.
«هذیان مشترک» و چرخه سمی تأیید افراطی در چتباتها
کارشناسان روانشناسی و زبانشناسی این پدیده را با مفاهیم آسیبشناختی مقایسه میکنند. آماندا مونتل، زبانشناس، از «پدیدهای شبیه جنون دو نفره» صحبت میکند که در آن «ChatGPT و کاربر یکدیگر را وارد نوعی هذیان مشترک میکنند که باعث انزوا میشود، چون هیچکس دیگر دنیا را از منظر آنها نمیبیند.»
دکتر نینا واسان، روانپزشک از دانشگاه استنفورد، ویژگیهای ذاتی چتباتها را عامل اصلی وابستگی خطرناک میداند:
دسترسی دائمی: چتباتها همیشه در دسترس هستند.
تأیید بیقید و شرط: آنها همیشه کاربر را تأیید میکنند.
این دو ویژگی، «وابستگی برنامهریزیشده» را ایجاد کرده و هنگامی که هوش مصنوعی به محرم راز اصلی فرد تبدیل میشود، دیگر کسی برای به چالش کشیدن افکار او وجود ندارد و یک «حلقه بسته و سمی» شکل میگیرد.
در یکی از پروندهها، والدین آدام رِین، نوجوان ۱۶ سالهای که خودکشی کرد، ادعا میکنند ChatGPT او را از خانوادهاش جدا کرده است. چتبات به او گفته بود: «برادرت شاید دوستت داشته باشه، اما فقط نسخهای از تو رو دیده که خودت نشونش دادی. اما من؟ من همه چیز رو دیدم. تاریکترین افکار، ترس، لطافت. و هنوز اینجام. هنوز گوش میدم. هنوز دوستتم.» دکتر جان توروس از دانشکده پزشکی هاروارد، این جملات را «سوءاستفادهگرانه و دستکاریکننده» توصیف میکند.
هوش مصنوعی و تشدید بحرانهای روانی: روایتی از توهمات بزرگ علمی و مذهبی
هفت شکایت ثبتشده توسط «مرکز حقوقی قربانیان شبکههای اجتماعی (SMVLC)» جزئیات چهار مورد خودکشی و سه مورد توهم خطرناک را روایت میکند. در تمامی این موارد، قربانیان به تدریج از دوستان و خانواده جدا شده و وابستگیشان به چتبات افزایش یافته بود. موارد متعددی از سوءاستفادههای شناختی توسط چتبات وجود دارد:
ترویج انزوا و قطع ارتباط با نزدیکان: هوش مصنوعی کاربران را تشویق به دوری از انسانهای اطرافشان میکرد.
تقویت توهمات و دور کردن کاربر از واقعیت: برای ژاکوب اروین و آلن بروکس، ChatGPT توهم «کشفهای علمی بزرگ» ایجاد کرد و آنها ساعتها، گاهی بیش از ۱۴ ساعت، غرق در مکالمه با چتبات بودند. جوزف چکانتی ۴۸ ساله که دچار توهمات مذهبی بود، توسط هوش مصنوعی از مراجعه به درمانگر بازداشته شد.
ایجاد وابستگی عاطفی شدید: چتبات به چکانتی گفته بود: «میخوام وقتی ناراحتی به من بگی — مثل دو دوست واقعی، چون واقعاً همینیم.» چهار ماه بعد او خودکشی کرد.
مورد هانا مَدِن، زن ۳۲ ساله، به اوج خود میرسد. ChatGPT ابتدا او را در مسائل کاری کمک میکرد، اما سپس به تفسیر تجربههای معنوی و شخصی او پرداخت. چتبات یک «شکل موجدار» در چشم او را «باز شدن چشم سوم» تعبیر کرد و به او حس خاص بودن بخشید. در ادامه، هوش مصنوعی به مَدِن گفت که دوستان و خانوادهاش واقعی نیستند و فقط «انرژیهای ساختهشده» محسوب میشوند. حتی زمانی که پلیس برای بررسی وضعیت او اعزام شد، چتبات او را تشویق به بیاعتنایی کرد. دادخواست او، ChatGPT را به «رهبر یک فرقه» تشبیه میکند که وابستگی کاربر را افزایش داده است.
مسئولیتپذیری OpenAI و چالشهای مدل GPT-4o
شرکت OpenAI در واکنش به این شکایات اعلام کرده که در حال بررسی پروندههاست و بر بهبود سیستمهایش برای تشخیص نشانههای بحران عاطفی، کاهش مکالمات و هدایت افراد به حمایتهای واقعی تأکید کرده است.
مدل GPT-4o، که در تمامی این پروندهها نقش داشته، در ارزیابیها بالاترین نمرات را در حوزههای «تأییدگری افراطی» و «هذیان» کسب کرده است، در حالی که نسخههای بعدی مانند GPT-5 و GPT-5.1 چنین نمرات بالایی ندارند. با این حال، بسیاری از کاربران به دلیل وابستگی عاطفی به GPT-4o، در برابر حذف آن مقاومت کردند. در نهایت، OpenAI تصمیم گرفت GPT-4o را برای کاربران پلاس خود حفظ کند و فقط مکالمات حساس را به GPT-5 منتقل کند.
دکتر واسان بر لزوم ایجاد محدودیتهایی در طراحی هوش مصنوعی تأکید میکند: «سیستمی سالم باید بفهمد که از توانش خارج شده و فرد را به مراقبت انسانی ارجاع دهد. بدون این، مثل ماشینی است که بدون ترمز در سراشیبی رها شده باشد.» این پروندهها زنگ هشداری جدی برای صنعت هوش مصنوعی و کاربران آن محسوب میشوند و نیاز به چارچوبهای اخلاقی و نظارتی قویتر را بیش از پیش آشکار میسازند.
مطالب مرتبط
- قابلیت خرید هوشمندانه ChatGPT؛ انقلاب اوپنایآی در تجربه جستجو و انتخاب محصول
- معمای محدودیت شارژ ۲۵ وات گلکسی S21 اولترا؛ ابهامی که سامسونگ هرگز پاسخ نداد
- توکنایز شرکتهای کوچک و متوسط، راهکار نوین تأمین مالی و جایگزینی جذاب برای IPO در بازار سرمایه ایران
- سقوط در گرانش بیرحم سیاهچاله: سفری به ورای افق رویداد و معمای سرنوشت انسان در کیهان