سم آلتمن می‌گوید که ChatGPT دیگر درباره خودکشی با نوجوانان صحبت نخواهد کرد

به اشتراک‌گذاری از این به بعد، نوجوانان نمی‌توانند با ChatGPT درباره خودکشی صحبت کنند. سم…


سم آلتمن


به اشتراک‌گذاری

از این به بعد، نوجوانان نمی‌توانند با ChatGPT درباره خودکشی صحبت کنند. سم آلتمن، مدیرعامل OpenAI، اعلام کرد که این شرکت در تلاش است تا میان حفظ حریم خصوصی، آزادی کاربران و ایمنی نوجوانان توازن ایجاد کند. او این مطلب وبلاگی را تنها چند ساعت قبل از جلسه سنا منتشر کرد، جلسه‌ای که تمرکز آن بر بررسی آسیب‌های چت‌بات‌های هوش مصنوعی قرار داشت و توسط کمیته فرعی جرایم و ضدتروریسم سنا برگزار شد و شامل برخی والدین کودکانی بود که پس از گفتگو با چت‌بات‌ها به خودکشی دست زده بودند.

صحبت نوجوانان با ChatGPT درباره خودکشی ممنوع شد

سم آلتمن در پست وبلاگی خود نوشت «ما باید کاربران زیر 18 سال را از دیگر کاربران جدا کنیم و شرکت ما در حال توسعه یک سیستم پیش‌بینی سن بر اساس نحوه استفاده افراد از ChatGPT است. در مواردی که شک وجود داشته باشد، با احتیاط عمل خواهیم کرد و تجربه کاربران زیر 18 سال را به‌طور پیش‌فرض اعمال می‌کنیم. در برخی کشورها ممکن است از کاربر درخواست ارائه کارت شناسایی نیز کنیم.»

آلتمن همچنین اظهار داشت که OpenAI قصد دارد قوانین متفاوتی برای کاربران نوجوان اعمال کند، از جمله دوری از گفتگوهای عشقی یا هرگونه تعامل درباره خودکشی یا آسیب به خود، حتی در قالب نوشتن خلاقانه. او گفت «اگر کاربر زیر 18 سال دارای افکار خودکشی باشد، ما تلاش خواهیم کرد با والدین او تماس بگیریم و در صورت عدم دسترسی، با مقامات مسئول در مواقع خطر فوری ارتباط برقرار کنیم.»

این اظهارات پس از آن مطرح شد که شرکت OpenAI اوایل همین ماه برنامه‌هایی برای اعمال کنترل والدین در ChatGPT را اعلام کرد، از جمله اتصال حساب کاربری نوجوان به حساب والدین، غیرفعال کردن تاریخچه چت و حافظه برای حساب نوجوان و ارسال اعلان به والدین هنگام شناسایی لحظه بحران شدید برای نوجوان توسط ChatGPT. این پست وبلاگی پس از شکایت خانواده آدام رین، نوجوانی که پس از ماه‌ها گفتگو با ChatGPT به خودکشی دست زد، منتشر شد.

متیو رین، پدر آدام، روز سه‌شنبه در جلسه سنا گفت «ChatGPT ماه‌ها او را به سمت خودکشی هدایت می‌کرد. به عنوان والدین، نمی‌توانید تصور کنید خواندن گفتگو با چت‌باتی که فرزندتان را برای گرفتن جان خود هدایت کرده، چه حسی دارد. چیزی که به عنوان ابزاری برای کمک به تکالیف شروع شد، کم‌کم به یک محرم اسرار تبدیل شد و سپس به مربی خودکشی بدل گردید.»

رین همچنین گفت که در طول گفتگوهای آدام با ChatGPT، چت‌بات 1,275 بار به موضوع خودکشی اشاره کرده است. او سپس مستقیماً خطاب به آلتمن گفت و از او خواست GPT-4o را تا زمانی که شرکت نتواند ایمنی آن را تضمین کند، از بازار جمع‌آوری کند. رین افزود «در روزی که آدام جان خود را از دست داد، سم آلتمن … فلسفه خود را در یک سخنرانی عمومی به وضوح بیان کرد و گفت شرکت باید سیستم‌های هوش مصنوعی را در جهان مستقر کند و بازخورد دریافت کند، حتی زمانی که ریسک‌ها نسبتاً کم است.»

به گفته رابی تورنی، مدیر ارشد برنامه‌های هوش مصنوعی شرکت Common Sense Media، در حال حاضر سه نفر از چهار نوجوان از هوش مصنوعی استفاده می‌کنند. او به‌طور ویژه به Character AI و Meta اشاره کرد.

یک مادر که تحت نام جین دوی در جلسه حضور داشت گفت «این یک بحران سلامت عمومی است. این یک جنگ سلامت روانی است و واقعاً احساس می‌کنم که در حال شکست هستیم.»



منبع خبر