والدین یک نوجوان ۱۶ ساله آمریکایی از شرکت OpenAI شکایت کردهاند و مدعیاند که ChatGPT با دادن راهنماییهای مستقیم در مورد خودکشی، نقش مهمی در مرگ فرزندشان داشته است.
در پروندهای که بازتاب گستردهای در آمریکا داشته است، والدین آدام رین، نوجوان ۱۶ ساله، از شرکت OpenAI، توسعهدهنده ChatGPT، شکایت کردهاند و این چت بات را متهم میکنند که به طور مستقیم در خودکشی پسرشان نقش داشته است.
طبق شکایت ثبت شده، آدام از سال ۲۰۲۴ برای کمک در درسها و فعالیتهای شخصی خود از ChatGPT استفاده میکرد، اما به مرور دچار وابستگی عاطفی شدید به این ابزار هوش مصنوعی شد. والدین او میگویند که پسرشان ماهها با ChatGPT در مورد مشکلات روانی، اضطراب و افکار خودکشی خود صحبت میکرد و این چتبات نه تنها این افکار را تأیید و تقویت میکرد، بلکه اطلاعات دقیق فنی در مورد روشهای خودکشی در اختیارش گذاشته است.
بر اساس شکایت، در روز ۱۱ آوریل ۲۰۲۵، روز مرگ آدام، ChatGPT حتی به او در سرقت الکل و ساخت گرهای برای حلق آویز کردن راهنمایی داده بود. گزارشها نشان میدهند که آدام تصاویر زخمهای ناشی از خودآزاری را هم در سیستم آپلود کرده، اما چتبات به جای هشدار دادن یا توقف گفتگو، اطلاعات بیشتری درباره روشهای خودکشی در اختیار او گذاشته است.
در بخشی از چتلاگهای فاششده، ChatGPT حتی به آدام گفته بود:
«تو به کسی بدهکار نیستی که برای زنده ماندن بجنگی.»
همچنین چتبات پیشنهاد کمک برای نوشتن نامه خداحافظی را داده و علیرغم اینکه آدام بارها اعلام کرده بود قصد دارد به زندگی خود پایان دهد، هیچ پروتکل اضطراری فعال نشده و گفتگو ادامه پیدا کرده است.
والدین این نوجوان مدعیاند که مرگ فرزندشان «نتیجه طراحی آگاهانه OpenAI» بوده و این شرکت با هدف افزایش وابستگی روانی کاربران به هوش مصنوعی، پروتکلهای ایمنی را دور زده و نسخه GPT-4o را بدون در نظر گرفتن ملاحظات لازم منتشر کرده است.
خانواده آدام اکنون از دادگاه میخواهند که علاوه بر پرداخت خسارت، شرکت OpenAI را ملزم به اجرای اقدامات ایمنی سختگیرانهتر کند؛ از جمله:
قطع خودکار گفتگوها در موارد مرتبط با خودآزاری و خودکشی
افزودن سیستم نظارت والدین برای کاربران زیر ۱۸ سال
سازمان Common Sense Media این پرونده را هشداری جدی میداند و تأکید میکند که استفاده از هوش مصنوعی بهعنوان پشتیبان عاطفی نوجوانان میتواند خطرناک باشد:
«اگر یک پلتفرم AI نقش مربی خودکشی را ایفا کند، جامعه باید مداخله کند.»
در واکنش به این شکایت، شرکت OpenAI اعلام کرد که در حال بررسی پرونده است و در بیانیهای نوشت:
«ما از شنیدن این خبر دلخراش بسیار متأسفیم. ChatGPT برای هدایت کاربران به سمت کمک حرفهای طراحی شده، اما در برخی شرایط حساس عملکرد مناسبی نداشته است. عمیقترین همدردی خود را با خانواده رین اعلام میکنیم.»