Character.AI вводит двухчасовой лимит на чаты с ботами для подростков, прежде чем полностью их отключить.
		 
	
Компания Character.AI объявила о полном запрете открытого общения пользователей младше 18 лет с искусственным интеллектом. Новые правила вступят в силу 25 ноября, и к этому сроку подростки утратят возможность вести диалоги с чат-ботами на платформе. Решение стало результатом растущего давления со стороны регуляторов и общественного внимания к тому, как взаимодействие с ИИ влияет на психику несовершеннолетних.
В ближайшие недели Character.AI начнёт выявлять пользователей, не достигших совершеннолетия, и поэтапно ограничивать их активность. До вступления запрета компания введёт лимит на общение с ботами — не более 2 часов в день, постепенно сокращая это время. После 25 ноября несовершеннолетние смогут использовать лишь альтернативные функции платформы, такие как создание видео, историй и потоков с участием виртуальных персонажей.
Дополнительно компания внедряет собственную систему проверки возраста , которая, как подчёркивают разработчики, создана внутри Character.AI. Она будет работать в сочетании с решениями сторонних партнёров, включая платформу Persona, чтобы гарантировать, что пользователи получают функциональность, соответствующую их возрасту.
Параллельно Character.AI создаёт независимую некоммерческую организацию AI Safety Lab, которая займётся разработкой и внедрением технологий безопасности для развлекательных сервисов на основе искусственного интеллекта. В лаборатории будут исследовать новые подходы к контролю за поведением ИИ, сотрудничать с другими технологическими компаниями и публиковать результаты своих экспериментов в открытом доступе.
Компания подчеркнула, что эти меры принимаются на фоне растущей обеспокоенности в обществе. В Character.AI указали, что в последние месяцы они получали запросы от регуляторов, обеспокоенных тем, с каким контентом сталкиваются подростки в открытых чатах и как подобное взаимодействие может повлиять на эмоциональное состояние несовершеннолетних, даже если фильтры и модерация работают без сбоев.
Решение компании последовало после трагического инцидента, который получил широкую огласку: в прошлом году родители 14-летней девочки подали в суд на Character.AI, заявив, что их дочь покончила с собой после того, как увлеклась постоянным общением с одним из чат-ботов платформы. Этот случай, по мнению наблюдателей, стал ключевым фактором, подтолкнувшим компанию к пересмотру своей политики.
Руководство Character.AI назвало новые меры «чрезвычайными и более консервативными, чем у других участников рынка». При этом представители компании подчеркнули, что считают эти шаги правильными и необходимыми для создания безопасной среды, в которой молодые пользователи смогут по-прежнему проявлять креативность, но без риска столкнуться с вредным контентом или эмоциональными перегрузками.
								Компания Character.AI объявила о полном запрете открытого общения пользователей младше 18 лет с искусственным интеллектом. Новые правила вступят в силу 25 ноября, и к этому сроку подростки утратят возможность вести диалоги с чат-ботами на платформе. Решение стало результатом растущего давления со стороны регуляторов и общественного внимания к тому, как взаимодействие с ИИ влияет на психику несовершеннолетних.
В ближайшие недели Character.AI начнёт выявлять пользователей, не достигших совершеннолетия, и поэтапно ограничивать их активность. До вступления запрета компания введёт лимит на общение с ботами — не более 2 часов в день, постепенно сокращая это время. После 25 ноября несовершеннолетние смогут использовать лишь альтернативные функции платформы, такие как создание видео, историй и потоков с участием виртуальных персонажей.
Дополнительно компания внедряет собственную систему проверки возраста , которая, как подчёркивают разработчики, создана внутри Character.AI. Она будет работать в сочетании с решениями сторонних партнёров, включая платформу Persona, чтобы гарантировать, что пользователи получают функциональность, соответствующую их возрасту.
Параллельно Character.AI создаёт независимую некоммерческую организацию AI Safety Lab, которая займётся разработкой и внедрением технологий безопасности для развлекательных сервисов на основе искусственного интеллекта. В лаборатории будут исследовать новые подходы к контролю за поведением ИИ, сотрудничать с другими технологическими компаниями и публиковать результаты своих экспериментов в открытом доступе.
Компания подчеркнула, что эти меры принимаются на фоне растущей обеспокоенности в обществе. В Character.AI указали, что в последние месяцы они получали запросы от регуляторов, обеспокоенных тем, с каким контентом сталкиваются подростки в открытых чатах и как подобное взаимодействие может повлиять на эмоциональное состояние несовершеннолетних, даже если фильтры и модерация работают без сбоев.
Решение компании последовало после трагического инцидента, который получил широкую огласку: в прошлом году родители 14-летней девочки подали в суд на Character.AI, заявив, что их дочь покончила с собой после того, как увлеклась постоянным общением с одним из чат-ботов платформы. Этот случай, по мнению наблюдателей, стал ключевым фактором, подтолкнувшим компанию к пересмотру своей политики.
Руководство Character.AI назвало новые меры «чрезвычайными и более консервативными, чем у других участников рынка». При этом представители компании подчеркнули, что считают эти шаги правильными и необходимыми для создания безопасной среды, в которой молодые пользователи смогут по-прежнему проявлять креативность, но без риска столкнуться с вредным контентом или эмоциональными перегрузками.
- Источник новости
- www.securitylab.ru
 
 
		