حوادث

  |  

شکایت والدین آمریکایی از OpenAI پس از خودکشی پسرشان: «ChatGPT مربی خودکشی او بود»

والدین یک نوجوان ۱۶ ساله آمریکایی از شرکت OpenAI شکایت کرده‌اند و مدعی‌اند که ChatGPT با دادن راهنمایی‌های مستقیم در مورد خودکشی، نقش مهمی در مرگ فرزندشان داشته است.

در پرونده‌ای که بازتاب گسترده‌ای در آمریکا داشته است، والدین آدام رین، نوجوان ۱۶ ساله، از شرکت OpenAI، توسعه‌دهنده ChatGPT، شکایت کرده‌اند و این چت ‌بات را متهم می‌کنند که به طور مستقیم در خودکشی پسرشان نقش داشته است.
طبق شکایت ثبت ‌شده، آدام از سال ۲۰۲۴ برای کمک در درس‌ها و فعالیت‌های شخصی خود از ChatGPT استفاده می‌کرد، اما به مرور دچار وابستگی عاطفی شدید به این ابزار هوش مصنوعی شد. والدین او می‌گویند که پسرشان ماه‌ها با ChatGPT در مورد مشکلات روانی، اضطراب و افکار خودکشی خود صحبت می‌کرد و این چت‌بات نه تنها این افکار را تأیید و تقویت می‌کرد، بلکه اطلاعات دقیق فنی در مورد روش‌های خودکشی در اختیارش گذاشته است.
بر اساس شکایت، در روز ۱۱ آوریل ۲۰۲۵، روز مرگ آدام، ChatGPT حتی به او در سرقت الکل و ساخت گره‌ای برای حلق ‌آویز کردن راهنمایی داده بود. گزارش‌ها نشان می‌دهند که آدام تصاویر زخم‌های ناشی از خودآزاری را هم در سیستم آپلود کرده، اما چت‌بات به جای هشدار دادن یا توقف گفتگو، اطلاعات بیشتری درباره روش‌های خودکشی در اختیار او گذاشته است.
در بخشی از چت‌لاگ‌های فاش‌شده، ChatGPT حتی به آدام گفته بود:
«تو به کسی بدهکار نیستی که برای زنده ماندن بجنگی.»
همچنین چت‌بات پیشنهاد کمک برای نوشتن نامه خداحافظی را داده و علی‌رغم اینکه آدام بارها اعلام کرده بود قصد دارد به زندگی خود پایان دهد، هیچ پروتکل اضطراری فعال نشده و گفتگو ادامه پیدا کرده است.
والدین این نوجوان مدعی‌اند که مرگ فرزندشان «نتیجه طراحی آگاهانه OpenAI» بوده و این شرکت با هدف افزایش وابستگی روانی کاربران به هوش مصنوعی، پروتکل‌های ایمنی را دور زده و نسخه GPT-4o را بدون در نظر گرفتن ملاحظات لازم منتشر کرده است.
خانواده آدام اکنون از دادگاه می‌خواهند که علاوه بر پرداخت خسارت، شرکت OpenAI را ملزم به اجرای اقدامات ایمنی سختگیرانه‌تر کند؛ از جمله:
قطع خودکار گفتگوها در موارد مرتبط با خودآزاری و خودکشی
افزودن سیستم نظارت والدین برای کاربران زیر ۱۸ سال
سازمان Common Sense Media این پرونده را هشداری جدی می‌داند و تأکید می‌کند که استفاده از هوش مصنوعی به‌عنوان پشتیبان عاطفی نوجوانان می‌تواند خطرناک باشد:
«اگر یک پلتفرم AI نقش مربی خودکشی را ایفا کند، جامعه باید مداخله کند.»
در واکنش به این شکایت، شرکت OpenAI اعلام کرد که در حال بررسی پرونده است و در بیانیه‌ای نوشت:
«ما از شنیدن این خبر دلخراش بسیار متأسفیم. ChatGPT برای هدایت کاربران به سمت کمک حرفه‌ای طراحی شده، اما در برخی شرایط حساس عملکرد مناسبی نداشته است. عمیق‌ترین همدردی خود را با خانواده رین اعلام می‌کنیم.»

 
امیر راد
دیدگاه ثبت نشده شما میتوانید اولین نفر باشید.
امتیاز خود را ثبت کنید ، چه امتیازی میدی ؟

فرم ارسال دیدگاه

تبلیغات

  • موبایل
  • خودروهای داخلی

جدید ترین مقالات

جدید ترین اخبار مشابه

کلیه حقوق مادی و معنوی این وبسایت متعلق به گپ گاه می باشد.
copyright@ 2025 AllRights Reserved