Публикации

В пресс-центр

Китай озаботился угрозами со стороны сервисов наподобие ChatGPT после презентации местных аналогов

Иностранный ИИ рассматривается в Пекине как угроза нацбезопасности

Иностранный ИИ рассматривается в Пекине как угроза нацбезопасности

Управление по вопросам киберпространства КНР (CAC) опубликовало 11 апреля проект мер по регулированию сервисов генеративного искусственного интеллекта (ИИ). Самая известная подобная система — чат-бот ChatGPT, разработанный американской компанией OpenAI. 10 апреля Ассоциация платежной и клиринговой индустрии Китая опубликовала предостережение: использование сервисов вроде ChatGPT несет риски трансграничной утечки данных.

Новые правила CAC вынесены для общественного обсуждения до 10 мая 2023 г. В преамбуле отмечается, что документ призван содействовать «здоровому развитию и стандартизированному применению» генеративного ИИ. Утверждается, что Китай готов к международному сотрудничеству в области генеративного ИИ и поддерживает независимое создание таких алгоритмов. При этом они, по мнению регулятора, не должны представлять угрозу безопасности страны и противоречить идеологии КНР. «Контент, создаваемый генеративным ИИ, должен отражать основные ценности социализма и не должен призывать к подрыву государственной власти, свержению социалистического строя, подстрекательству к расколу страны, подрыву национального единства», — говорится в тексте документа.

Слишком строгие ограничения могут затормозить развитие технологии, дающей значительные преимущества в области повышения производительности труда и превосходящей риски от распространения недостоверной информации. Но именно по такому пути, очевидно, пойдет китайское руководство, согласны опрошенные «Ведомостями» эксперты в области ИИ.

Схожим негативным примером можно считать ограничение в EС развития атомной энергетики, полагает руководитель практики комплексной цифровизации процессов Naumen Никита Кардашин. Вопросы этичности и безопасности применения моделей ИИ важны, но решаться они должны не запретами, считает эксперт. В Италии, где уже введены запретительные меры, речь идет о нарушениях ChatGPT конфиденциальности персональных данных, т. е. уже существующего законодательства, и поэтому нового регулирования вводить не стоит, подчеркивает Андрей Незнамов, председатель комиссии по реализации Кодекса этики в сфере ИИ, функционирующей на базе Альянса в сфере ИИ. Власти Индии, напротив, решили никак не регулировать развитие ИИ, поскольку это стратегически важная область для страны, отмечает Незнамов.

Полная версия статьи доступна по ссылке

Ведомости

Ссылка на источник