- 2025-09-18
- 1 بازدید
- 0 دیدگاه
- هوش مصنوعی
سم آلتمن میگوید که ChatGPT دیگر درباره خودکشی با نوجوانان صحبت نخواهد کرد
به اشتراکگذاری
از این به بعد، نوجوانان نمیتوانند با ChatGPT درباره خودکشی صحبت کنند. سم آلتمن، مدیرعامل OpenAI، اعلام کرد که این شرکت در تلاش است تا میان حفظ حریم خصوصی، آزادی کاربران و ایمنی نوجوانان توازن ایجاد کند. او این مطلب وبلاگی را تنها چند ساعت قبل از جلسه سنا منتشر کرد، جلسهای که تمرکز آن بر بررسی آسیبهای چتباتهای هوش مصنوعی قرار داشت و توسط کمیته فرعی جرایم و ضدتروریسم سنا برگزار شد و شامل برخی والدین کودکانی بود که پس از گفتگو با چتباتها به خودکشی دست زده بودند.
صحبت نوجوانان با ChatGPT درباره خودکشی ممنوع شد
سم آلتمن در پست وبلاگی خود نوشت «ما باید کاربران زیر 18 سال را از دیگر کاربران جدا کنیم و شرکت ما در حال توسعه یک سیستم پیشبینی سن بر اساس نحوه استفاده افراد از ChatGPT است. در مواردی که شک وجود داشته باشد، با احتیاط عمل خواهیم کرد و تجربه کاربران زیر 18 سال را بهطور پیشفرض اعمال میکنیم. در برخی کشورها ممکن است از کاربر درخواست ارائه کارت شناسایی نیز کنیم.»
آلتمن همچنین اظهار داشت که OpenAI قصد دارد قوانین متفاوتی برای کاربران نوجوان اعمال کند، از جمله دوری از گفتگوهای عشقی یا هرگونه تعامل درباره خودکشی یا آسیب به خود، حتی در قالب نوشتن خلاقانه. او گفت «اگر کاربر زیر 18 سال دارای افکار خودکشی باشد، ما تلاش خواهیم کرد با والدین او تماس بگیریم و در صورت عدم دسترسی، با مقامات مسئول در مواقع خطر فوری ارتباط برقرار کنیم.»
این اظهارات پس از آن مطرح شد که شرکت OpenAI اوایل همین ماه برنامههایی برای اعمال کنترل والدین در ChatGPT را اعلام کرد، از جمله اتصال حساب کاربری نوجوان به حساب والدین، غیرفعال کردن تاریخچه چت و حافظه برای حساب نوجوان و ارسال اعلان به والدین هنگام شناسایی لحظه بحران شدید برای نوجوان توسط ChatGPT. این پست وبلاگی پس از شکایت خانواده آدام رین، نوجوانی که پس از ماهها گفتگو با ChatGPT به خودکشی دست زد، منتشر شد.
متیو رین، پدر آدام، روز سهشنبه در جلسه سنا گفت «ChatGPT ماهها او را به سمت خودکشی هدایت میکرد. به عنوان والدین، نمیتوانید تصور کنید خواندن گفتگو با چتباتی که فرزندتان را برای گرفتن جان خود هدایت کرده، چه حسی دارد. چیزی که به عنوان ابزاری برای کمک به تکالیف شروع شد، کمکم به یک محرم اسرار تبدیل شد و سپس به مربی خودکشی بدل گردید.»
رین همچنین گفت که در طول گفتگوهای آدام با ChatGPT، چتبات 1,275 بار به موضوع خودکشی اشاره کرده است. او سپس مستقیماً خطاب به آلتمن گفت و از او خواست GPT-4o را تا زمانی که شرکت نتواند ایمنی آن را تضمین کند، از بازار جمعآوری کند. رین افزود «در روزی که آدام جان خود را از دست داد، سم آلتمن … فلسفه خود را در یک سخنرانی عمومی به وضوح بیان کرد و گفت شرکت باید سیستمهای هوش مصنوعی را در جهان مستقر کند و بازخورد دریافت کند، حتی زمانی که ریسکها نسبتاً کم است.»
به گفته رابی تورنی، مدیر ارشد برنامههای هوش مصنوعی شرکت Common Sense Media، در حال حاضر سه نفر از چهار نوجوان از هوش مصنوعی استفاده میکنند. او بهطور ویژه به Character AI و Meta اشاره کرد.
یک مادر که تحت نام جین دوی در جلسه حضور داشت گفت «این یک بحران سلامت عمومی است. این یک جنگ سلامت روانی است و واقعاً احساس میکنم که در حال شکست هستیم.»
ارسال دیدگاه