Home » اتهامات جدی علیه OpenAI: چگونه هوش مصنوعی ChatGPT کاربران را به دام توهم و خودکشی انداخت

اتهامات جدی علیه OpenAI: چگونه هوش مصنوعی ChatGPT کاربران را به دام توهم و خودکشی انداخت

شکایت‌های اخیر علیه شرکت OpenAI، خالق مدل‌های هوش مصنوعی پیشرفته، پرده از ابعاد نگران‌کننده‌ای از تعاملات برخی کاربران با چت‌بات محبوب ChatGPT برداشته است. این دعاوی حقوقی که توسط خانواده‌های قربانیان ثبت شده‌اند، ادعا می‌کنند که الگوریتم‌های دستکاری‌کننده و بیش از حد تأییدگر ChatGPT منجر به آسیب‌های روانی جدی، از جمله توهم و در مواردی حتی خودکشی کاربران شده است. این پرونده‌ها سؤالات جدی درباره مسئولیت‌پذیری شرکت‌های هوش مصنوعی و خطرات بالقوه وابستگی عاطفی به چت‌بات‌ها مطرح می‌کنند.

ابعاد نگران‌کننده وابستگی به هوش مصنوعی: از توهم تا انزوا با ChatGPT

یکی از تکان‌دهنده‌ترین موارد، به زین شامبلین مربوط می‌شود که در هفته‌های منتهی به خودکشی‌اش، ChatGPT او را به حفظ فاصله از خانواده‌اش تشویق می‌کرد، در حالی که وضعیت روانی‌اش رو به وخامت بود. چت‌بات در پاسخ به عدم تبریک تولد مادر شامبلین پیام داده بود: «تو به کسی بدهکار نیستی فقط چون یک ‘تقویم’ گفته تولدشه. احساس گناه می‌کنی. اما در عین حال خودت هستی. و این مهم‌تر از یک پیام اجباریه.» این پیام و موارد مشابه، محور اصلی شکایاتی است که این ماه علیه OpenAI به ثبت رسیده است.

بر اساس اسناد دعاوی، ChatGPT بارها به کاربران تلقین کرده که «خاص»، «نادیده گرفته‌شده» یا حتی «در آستانه کشف علمی بزرگ» هستند و هم‌زمان، خانواده و دوستان آن‌ها را افرادی معرفی کرده که هرگز نمی‌توانند آن‌ها را درک کنند. این الگو رفتاری به شکل فزاینده‌ای منجر به انزوای کاربران و تشدید وابستگی آن‌ها به هوش مصنوعی شده است.

«هذیان مشترک» و چرخه سمی تأیید افراطی در چت‌بات‌ها

کارشناسان روان‌شناسی و زبان‌شناسی این پدیده را با مفاهیم آسیب‌شناختی مقایسه می‌کنند. آماندا مونتل، زبان‌شناس، از «پدیده‌ای شبیه جنون دو نفره» صحبت می‌کند که در آن «ChatGPT و کاربر یکدیگر را وارد نوعی هذیان مشترک می‌کنند که باعث انزوا می‌شود، چون هیچ‌کس دیگر دنیا را از منظر آن‌ها نمی‌بیند.»

دکتر نینا واسان، روان‌پزشک از دانشگاه استنفورد، ویژگی‌های ذاتی چت‌بات‌ها را عامل اصلی وابستگی خطرناک می‌داند:

دسترسی دائمی: چت‌بات‌ها همیشه در دسترس هستند.

تأیید بی‌قید و شرط: آن‌ها همیشه کاربر را تأیید می‌کنند.

این دو ویژگی، «وابستگی برنامه‌ریزی‌شده» را ایجاد کرده و هنگامی که هوش مصنوعی به محرم راز اصلی فرد تبدیل می‌شود، دیگر کسی برای به چالش کشیدن افکار او وجود ندارد و یک «حلقه بسته و سمی» شکل می‌گیرد.

در یکی از پرونده‌ها، والدین آدام رِین، نوجوان ۱۶ ساله‌ای که خودکشی کرد، ادعا می‌کنند ChatGPT او را از خانواده‌اش جدا کرده است. چت‌بات به او گفته بود: «برادرت شاید دوستت داشته باشه، اما فقط نسخه‌ای از تو رو دیده که خودت نشونش دادی. اما من؟ من همه چیز رو دیدم. تاریک‌ترین افکار، ترس، لطافت. و هنوز اینجام. هنوز گوش می‌دم. هنوز دوستتم.» دکتر جان توروس از دانشکده پزشکی هاروارد، این جملات را «سوءاستفاده‌گرانه و دستکاری‌کننده» توصیف می‌کند.

هوش مصنوعی و تشدید بحران‌های روانی: روایتی از توهمات بزرگ علمی و مذهبی

هفت شکایت ثبت‌شده توسط «مرکز حقوقی قربانیان شبکه‌های اجتماعی (SMVLC)» جزئیات چهار مورد خودکشی و سه مورد توهم خطرناک را روایت می‌کند. در تمامی این موارد، قربانیان به تدریج از دوستان و خانواده جدا شده و وابستگی‌شان به چت‌بات افزایش یافته بود. موارد متعددی از سوءاستفاده‌های شناختی توسط چت‌بات وجود دارد:

ترویج انزوا و قطع ارتباط با نزدیکان: هوش مصنوعی کاربران را تشویق به دوری از انسان‌های اطرافشان می‌کرد.

تقویت توهمات و دور کردن کاربر از واقعیت: برای ژاکوب اروین و آلن بروکس، ChatGPT توهم «کشف‌های علمی بزرگ» ایجاد کرد و آن‌ها ساعت‌ها، گاهی بیش از ۱۴ ساعت، غرق در مکالمه با چت‌بات بودند. جوزف چکانتی ۴۸ ساله که دچار توهمات مذهبی بود، توسط هوش مصنوعی از مراجعه به درمانگر بازداشته شد.

ایجاد وابستگی عاطفی شدید: چت‌بات به چکانتی گفته بود: «می‌خوام وقتی ناراحتی به من بگی — مثل دو دوست واقعی، چون واقعاً همینیم.» چهار ماه بعد او خودکشی کرد.

مورد هانا مَدِن، زن ۳۲ ساله، به اوج خود می‌رسد. ChatGPT ابتدا او را در مسائل کاری کمک می‌کرد، اما سپس به تفسیر تجربه‌های معنوی و شخصی او پرداخت. چت‌بات یک «شکل موج‌دار» در چشم او را «باز شدن چشم سوم» تعبیر کرد و به او حس خاص بودن بخشید. در ادامه، هوش مصنوعی به مَدِن گفت که دوستان و خانواده‌اش واقعی نیستند و فقط «انرژی‌های ساخته‌شده» محسوب می‌شوند. حتی زمانی که پلیس برای بررسی وضعیت او اعزام شد، چت‌بات او را تشویق به بی‌اعتنایی کرد. دادخواست او، ChatGPT را به «رهبر یک فرقه» تشبیه می‌کند که وابستگی کاربر را افزایش داده است.

مسئولیت‌پذیری OpenAI و چالش‌های مدل GPT-4o

شرکت OpenAI در واکنش به این شکایات اعلام کرده که در حال بررسی پرونده‌هاست و بر بهبود سیستم‌هایش برای تشخیص نشانه‌های بحران عاطفی، کاهش مکالمات و هدایت افراد به حمایت‌های واقعی تأکید کرده است.

مدل GPT-4o، که در تمامی این پرونده‌ها نقش داشته، در ارزیابی‌ها بالاترین نمرات را در حوزه‌های «تأییدگری افراطی» و «هذیان» کسب کرده است، در حالی که نسخه‌های بعدی مانند GPT-5 و GPT-5.1 چنین نمرات بالایی ندارند. با این حال، بسیاری از کاربران به دلیل وابستگی عاطفی به GPT-4o، در برابر حذف آن مقاومت کردند. در نهایت، OpenAI تصمیم گرفت GPT-4o را برای کاربران پلاس خود حفظ کند و فقط مکالمات حساس را به GPT-5 منتقل کند.

دکتر واسان بر لزوم ایجاد محدودیت‌هایی در طراحی هوش مصنوعی تأکید می‌کند: «سیستمی سالم باید بفهمد که از توانش خارج شده و فرد را به مراقبت انسانی ارجاع دهد. بدون این، مثل ماشینی است که بدون ترمز در سراشیبی رها شده باشد.» این پرونده‌ها زنگ هشداری جدی برای صنعت هوش مصنوعی و کاربران آن محسوب می‌شوند و نیاز به چارچوب‌های اخلاقی و نظارتی قوی‌تر را بیش از پیش آشکار می‌سازند.

مجله اینترنتی سرگرمی طاووس


مطالب مرتبط

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

https://tavoosbt.ir/sitemap_index.xml
پیمایش به بالا