- 2025-10-30
- 3 بازدید
- 0 دیدگاه
- هوش مصنوعی
ممنوعیت تازه Character.AI؛ پایان گفتوگوی نوجوانان با چتبات هوش مصنوعی
به اشتراکگذاری
شرکت Character.AI دیگر به نوجوانان اجازه نخواهد داد تا با چتبات این پلتفرم تعامل داشته باشند. Character.AI با انتشار اطلاعیهای رسمی اعلام کرده است که دیگر به نوجوانان اجازهی گفتوگو با چتباتهای خود را نمیدهد. این اقدام که با هدف افزایش ایمنی کاربران کمسنوسال صورت گرفته، بازتاب گستردهای در رسانهها و میان کارشناسان حوزهی فناوری داشته است.
ممنوع شدن گفتگوی نوجوانان با چتبات Character.AI
شرکتهای فعال در حوزه هوش مصنوعی تحت فشار فزایندهای قرار گرفتهاند تا کاربران نوجوان را بهتر در برابر آسیبهای احتمالی محافظت کنند. در بیانیهای، شرکت Character.AI تأیید کرده که دسترسی کاربران زیر 18 سال به هرگونه گفتگوهای باز و دوطرفه با هوش مصنوعی خود را حذف خواهد کرد. منظور از این نوع گفتگوها تبادل پیدرپی میان کاربر و چتبات است.
این تغییرات از 25 نوامبر (4 آذر) اعمال میشوند و تا آن زمان، Character.AI تجربه جدیدی را برای کاربران زیر 18 سال ارائه خواهد کرد. این تجربه کاربران را تشویق میکند تا از چتباتها برای اهداف خلاقانه مانند تولید ویدئو یا استریم استفاده کنند و نه صرفاً برای جستجوی همدم. برای مدیریت این گذار، کاربران زیر 18 سال اکنون تنها میتوانند تا دو ساعت در روز با چتباتها تعامل داشته باشند، محدودیتی که این شرکت گفته است در روزهای منتهی به مهلت اواخر نوامبر کاهش خواهد یافت.
Character.AI همچنین ابزار جدیدی برای تأیید سن معرفی کرده است که به گفته این شرکت، «اطمینان حاصل میکند کاربران تجربه مناسبی با توجه به سن خود دریافت کنند.» علاوه بر این محافظتها، Character.AI یک آزمایشگاه ایمنی هوش مصنوعی تاسیس کرده که امیدوار است به سایر شرکتها، پژوهشگران و دانشگاهیان اجازه دهد تا دیدگاهها و یافتههای خود را به اشتراک گذاشته و بهطور مشترک در بهبود اقدامات ایمنی هوش مصنوعی همکاری کنند.
این شرکت اعلام کرده که به نگرانیهای ناظران، کارشناسان صنعت و والدین پاسخ داده و با این اقدامات جدید، تلاش کرده است این دغدغهها را برطرف کند. این اقدامات پس از آن صورت گرفت که کمیسیون تجارت فدرال آمریکا (FTC) تحقیق رسمی درباره شرکتهای ارائهدهنده چتبات به عنوان همدم راهاندازی کرد و Character.AI به عنوان یکی از هفت شرکتی که باید در این بررسی شرکت میکردند، نام برده شد. شرکتهای متا، OpenAI و اسنپ نیز شامل این بررسی بودند.
هر دو شرکت Meta AI و Character.AI همچنین در تابستان توسط کن پکسون، دادستان کل تگزاس مورد بررسی قرار گرفتند که گفت چتباتهای این پلتفرمها ممکن است به عنوان ابزارهای درمانی حرفهای ظاهر شوند در حالیکه فاقد صلاحیت لازم هستند. به نظر میرسد برای پایان دادن به این بحثها، کاراندیپ آناند، مدیرعامل Character.AI به TechCrunch گفته است که جهتگیری استراتژیک جدید این شرکت آن است که از ارائه هوش مصنوعی به عنوان همدم صرف، به سمت یک پلتفرم نقشآفرینی با تمرکز بر خلق محتوا حرکت کند، نه فقط تولید گفتگو برای جذب تعامل.
خطرات وابستگی نوجوانان به چتباتهای هوش مصنوعی برای دریافت راهنمایی، موضوع گزارشهای گستردهای در ماههای اخیر بوده است. هفته گذشته، خانواده آدام راین که ادعا میکنند ChatGPT باعث شد پسر 16 سالهشان دست به خودکشی بزند، شکایت خود را علیه OpenAI با ادعای تضعیف اقدامات پیشگیری از خودآزاری در زمان قبل از مرگ او، اصلاح کردند.

ارسال دیدگاه