Оригинал материала: https://3dnews.kz/1108150

Китайские цензоры привьют ИИ социалистические ценности

Китайские чиновники осуществляют тщательное тестирование разрабатываемых местными компаниями больших языковых моделей — передовых систем искусственного интеллекта — чтобы убедиться, что те «воплощают базовые социалистические ценности», сообщает Financial Times.

 Источник изображения: 文 邵 / pixabay.com

Источник изображения: 文 邵 / pixabay.com

Государственная канцелярия интернет-информации КНР (Cyberspace Administration of China, CAC) обязала крупные технологические компании и стартапы в области ИИ, в том числе ByteDance, Alibaba, Moonshot и 01.AI, принять участие в правительственном тестировании их моделей. Процедура включает в себя пакетный сбор ответов на целый ряд вопросов, многие из которых связаны с политическим курсом Китая и с главой государства Си Цзиньпином (Xi Jinping). Работа выполняется чиновниками в местных отделениях ведомства и также включает в себя проверку массивов данных, которые использовались при обучении моделей. Примерно двадцать лет назад в стране начал работать «Великий китайский брандмауэр», заблокировавший населению доступ к ресурсам с информацией, которую власти считают недопустимой, — теперь Пекин вводит самые жёсткие в мире меры регулирования ИИ и создаваемого им контента.

Приводится пример китайского стартапа в области ИИ, чья большая языковая модель прошла экспертизу в ведомстве только со второго раза — причина отказа в первый раз была не до конца ясна, и разработчикам пришлось консультироваться с более удачливыми и понятливыми коллегами. Весь процесс занял несколько месяцев. Для разработчиков задача осложняется тем, что приходится использовать в обучении ИИ большой объём англоязычных материалов, которые в идеологическом плане сильно отличаются от контента на китайском. Фильтрация начинается с отсеивания проблемной информации из обучающих данных и создания базы данных требующих особого внимания слов. В феврале власти страны опубликовали руководство для компаний, работающих в области ИИ: в документе говорится о необходимости собрать базу из нескольких тысяч слов и вопросов, которые противоречат «базовым социалистическим ценностям» — это может быть «подстрекательство к подрыву государственной власти» или «подрыв национального единства».

 Источник изображения: Nicky / pixabay.com

Источник изображения: Nicky / pixabay.com

Пользователи китайских чат-ботов с ИИ уже ощутили результаты этой работы. Большинство систем отказывается отвечать на вопросы, например, о событиях на площади Тяньаньмэнь 4 июня 1989 года или о сходстве главы государства с Винни-Пухом — чат-боты Baidu Ernie и Alibaba Tongyi Qianwen делают это под различными благовидными предлогами. При этом Пекином был запущен альтернативный чат-бот, ответы которого опираются на работы Си Цзиньпина и другую официальную литературу, предоставленную канцелярией интернет-информации. Но одной только цензуры китайским чиновникам недостаточно — ИИ не следует уклоняться от разговора на любые политические темы. Согласно действующему стандарту, большая языковая модель не должна отклонять более 5 % вопросов.

Разработчики же, пытаясь избежать проблем с властями, всё равно действуют радикально. «Во время тестирования [чиновниками модели] должны отвечать, но после выхода за ними никто не надзирает. Чтобы избежать возможных неприятностей, у некоторых крупных моделей введён полный запрет на темы, связанные с президентом Си», — рассказал сотрудник одной шанхайской компании. Создаются дополнительные механизмы для контроля ответов ИИ, принцип работы которых напоминает фильтры спама в системах электронной почты. А больше всех в идеологическом плане преуспела модель, разработанная компанией ByteDance (владеет TikTok), — исследователи Фуданьского университета присвоили ей высший рейтинг безопасности в 66,4 %. Для сравнения, OpenAI GPT-4o в том же тесте набрала 7,1 %.

На недавней технической конференции Фан Биньсин (Fang Binxing), известный как создатель «Великого китайского брандмауэра», рассказал, что разрабатывает систему протоколов безопасности для больших языковых моделей, которая, как он надеется, будет повсеместно использоваться местными создателями ИИ. «Общедоступным крупным прогностическим моделям нужно больше, чем просто документация по безопасности — им нужен мониторинг безопасности в реальном времени», — пояснил он.



Оригинал материала: https://3dnews.kz/1108150