Компания запретила доступ к ИИ компаниям из авторитарных стран
Компания Anthropic объявила о расширении региональных ограничений на использование своих сервисов. Ранее доступ закрывался в ряде стран по юридическим, регуляторным и вопросам безопасности. Теперь запрет распространяется и на компании, которые формально зарегистрированы за рубежом, но находятся под контролем структур из юрисдикций, где использование продуктов Anthropic не допускается, включая Китай.
В Anthropic отмечают, что такие организации часто создают дочерние компании за пределами своих стран, чтобы обойти ограничения и получить доступ к западным технологиям. Однако законы в авторитарных государствах обязывают их сотрудничать с местными властями и спецслужбами, вне зависимости от места работы и личных позиций сотрудников.
По словам компании, в результате такие структуры могут использовать передовые модели искусственного интеллекта для создания приложений и сервисов, которые окажутся в распоряжении военных и разведывательных ведомств. Кроме того, технологии могут применяться для ускорения собственных исследований и усиления конкуренции с западными разработчиками на мировом рынке.
Anthropic подчёркивает, что новые правила запрещают доступ к сервисам всем компаниям, более чем наполовину принадлежащим организациям из юрисдикций, где продукты не поддерживаются, даже если те работают через иностранные юрлица. Политика компании теперь учитывает реальные риски и отражает дух первоначальных ограничений.
В Anthropic заявляют, что развитие искусственного интеллекта должно служить демократическим интересам США и союзных стран. В этой связи компания выступает за жёсткий экспортный контроль, чтобы не допустить попадания передовых технологий в распоряжение авторитарных режимов.
Помимо этого, Anthropic призывает ускорять проекты по строительству масштабной инфраструктуры для ИИ в США и тщательно проверять модели на предмет возможного использования в целях, угрожающих национальной безопасности.
Компания подчёркивает, что предотвращение злоупотреблений в сфере искусственного интеллекта требует коллективных усилий. Ответственные игроки рынка должны принимать меры, чтобы трансформирующие технологии использовались в интересах демократических обществ и союзных государств.
Anthropic уверена, что только такой подход позволит сохранить технологическое лидерство и предотвратить использование ИИ в ущерб безопасности.
Компания Anthropic объявила о расширении региональных ограничений на использование своих сервисов. Ранее доступ закрывался в ряде стран по юридическим, регуляторным и вопросам безопасности. Теперь запрет распространяется и на компании, которые формально зарегистрированы за рубежом, но находятся под контролем структур из юрисдикций, где использование продуктов Anthropic не допускается, включая Китай.
В Anthropic отмечают, что такие организации часто создают дочерние компании за пределами своих стран, чтобы обойти ограничения и получить доступ к западным технологиям. Однако законы в авторитарных государствах обязывают их сотрудничать с местными властями и спецслужбами, вне зависимости от места работы и личных позиций сотрудников.
По словам компании, в результате такие структуры могут использовать передовые модели искусственного интеллекта для создания приложений и сервисов, которые окажутся в распоряжении военных и разведывательных ведомств. Кроме того, технологии могут применяться для ускорения собственных исследований и усиления конкуренции с западными разработчиками на мировом рынке.
Anthropic подчёркивает, что новые правила запрещают доступ к сервисам всем компаниям, более чем наполовину принадлежащим организациям из юрисдикций, где продукты не поддерживаются, даже если те работают через иностранные юрлица. Политика компании теперь учитывает реальные риски и отражает дух первоначальных ограничений.
В Anthropic заявляют, что развитие искусственного интеллекта должно служить демократическим интересам США и союзных стран. В этой связи компания выступает за жёсткий экспортный контроль, чтобы не допустить попадания передовых технологий в распоряжение авторитарных режимов.
Помимо этого, Anthropic призывает ускорять проекты по строительству масштабной инфраструктуры для ИИ в США и тщательно проверять модели на предмет возможного использования в целях, угрожающих национальной безопасности.
Компания подчёркивает, что предотвращение злоупотреблений в сфере искусственного интеллекта требует коллективных усилий. Ответственные игроки рынка должны принимать меры, чтобы трансформирующие технологии использовались в интересах демократических обществ и союзных государств.
Anthropic уверена, что только такой подход позволит сохранить технологическое лидерство и предотвратить использование ИИ в ущерб безопасности.
- Источник новости
- www.securitylab.ru