Искусственный интеллект на поводке - эксперт предложил четыре шага вместо цензуры
вчераKrasnodarMedia, 20 апреля. Регулирование искусственного интеллекта в России должно фокусироваться на чётких стандартах безопасности и распределении ответственности за результаты работы нейросетей, а не на грубой фильтрации пользовательских запросов. Такое мнение в беседе с информагентством высказал генеральный директор "Альянса перспективных технологий" Ильдар Саттаров. Он прокомментировал недавнее заявление замглавы Минцифры Александра Шойтова о необходимости введения цензуры для ИИ.

Эксперт предложил четыре шага вместо запретов. Фото: Из личного архива И. Саттарова
Ильдар Саттаров считает, что в публичной дискуссии происходит подмена понятий, когда под общим термином "цензура" объединяются три принципиально разные категории. Смешение этих уровней, по его словам, создаёт риски для развития отечественных технологий.
— Первая ступень — то, что уже сейчас фильтруют все крупные модели мира без исключения: рецептуры отравляющих веществ, создание самодельных взрывных устройств, материалы сексуального насилия над детьми, пошаговые сценарии терактов. Это не цензура, а техническая гигиена, — убеждён эксперт.
Он провёл аналогию с регулированием в других сферах.
— Так же, как аптека не продаёт яд без рецепта, а оружейный магазин не отпускает автомат без лицензии. Ни один вменяемый разработчик в мире — ни американский, ни китайский, ни российский — не оставляет эти категории без фильтров, — говорит эксперт.
Второй уровень, по мнению Саттарова, относится к "серой зоне", где фильтрация становится вопросом ответственности, а не морали. К такой категории имеет отношение генерация дипфейков с лицами реальных людей, медицинские рекомендации, которые пользователь может ошибочно принять за назначение врача, инструкции по обходу систем информационной безопасности и юридические консультации, выдаваемые моделью без должной лицензии и понимания контекста.
— Законопроект Минцифры, кстати, пытается выстроить эту цепочку, и подобное решение — одна из немногих его по-настоящему здравых частей, — отметил он.
Наиболее сложным Саттаров назвал третий уровень — зону, где "разговор о безопасности незаметно перетекает в управление нарративом".
— Трактовка исторических событий, оценка решений власти, неудобные вопросы о статистике, экономике, социальных процессах, — перечислил он и добавил: — Когда чиновник произносит слово "цензура" по отношению к ИИ, у практика возникает законный вопрос: какой именно слой имеется в виду?
По мнению Саттарова, контроль необходим, но сама идея тотальной фильтрации задаёт неверную рамку. Он выделил, что ИИ в 2026 году — уже не игрушка для энтузиастов, а интерфейс, через который миллионы людей получают информацию, принимают решения, формируют мнения.
— Когда чиновник говорит о тотальном надзоре, он будто бы утверждает, что пользователю нельзя думать, говорить и спрашивать. Хотя задача прямо противоположная — выстроить правила для создателей систем ИИ. Здесь речь не о табу, а об ответственности, — пояснил собеседник агентства.
Он высоко оценил европейский подход к регулированию нейросетей, основанный на классификации по уровню риска. Суть его проста: чем выше потенциальный риск применения модели, тем строже требования к её разработчику.

Цензура для ИИ убьёт отечественные модели - Саттаров. Фото: Евгений Кулешов
— Модель для подбора музыки требует минимальных барьеров. Та же, что принимает решения в медицине или юриспруденции, обязана пройти сертификацию, аудит и обеспечить прозрачность алгоритмов. В такой системе нет места лимиту на вопросы, но есть чёткая ответственность за результат, — заострил внимание спикер, обозначив, что российский законопроект, представленный Минцифры в марте, во многом следует этой логике.
— Суверенные и доверенные модели для критической инфраструктуры, маркировка контента, цепочка ответственности от разработчика до пользователя — это рабочие механизмы, — уверен Ильдар Саттаров.
Однако, по мнению собеседника, риторика о "фильтрации на входе и на выходе" представляет собой откат от системного подхода к самому примитивному: поставить забор и надеяться, что никто не перелезет.
Специалист в области цифровых технологий провёл аналогию, что контроль подобно правилам дорожного движения, а грубые табу — попытка запретить человеку думать о скорости. Первое работает. Второе — нет.
— Почему грубая фильтрация запросов контрпродуктивна? — задаётся вопросом эксперт и тут же отвечает. — Я выделяю три причины. Первое: техническая уязвимость.
Саттаров пояснил, что фильтр на запросы можно обойти переформулировкой в считанные секунды. Любой школьник, который провёл с нейросетью хотя бы месяц, знает, как задать тот же вопрос другими словами и получить ответ. Это как калитка посреди поля: стоит, скрипит, а зайти можно с любой стороны.
— Второе — конкурентный аспект, когда пользователь, которому отечественная модель отказала в ответе, не отступится от поиска информации, — предупреждает спикер. — Он откроет иностранный сервис и получит всё то же самое, но уже без какого-либо контроля со стороны российского законодательства. Мы не ограничили вопрос, а отдали пользователя конкуренту.
Третье, и для практиков особенно болезненно, считает Саттаров, — деградация качества моделей. Чрезмерно ограниченная нейросеть теряет способность к честному анализу. Она начинает обходить острые углы, давать обтекаемые ответы, соглашаться с пользователем вместо того, чтобы указать на ошибку. В промышленном применении подобное создаёт прямые риски.
— Пользователю не нужен ИИ-подхалим, который боится собственных выводов, а нужен инструмент, который скажет: "Вот здесь в вашем проекте системный риск, и его нужно закрывать немедленно", — уверен эксперт.
Он высоко оценил отдельные положения законопроекта Минцифры: реестр доверенных моделей для госсектора, маркировку нейросетевого контента, прописанную цепочку ответственности и планы по созданию тестового полигона. Однако, по мнению специалиста, публичные заявления о цензуре формируют у рынка негативные сигналы.

Цензура для ИИ убьёт отечественные модели - Саттаров. Фото: Евгений Кулешов
— Когда замглавы профильного министерства публично говорит о тотальной фильтрации, бизнес слышит: неопределённость, ручное управление, непредсказуемые правила. Для инвестиций в отечественные ИИ-разработки это яд, — констатировал Эльдар Саттаров.
Глава отраслевого альянса предложил четыре конкретных шага для более эффективного управления ИИ. Первое — публичные и прозрачные критерии ограничений. Вместо закрытых внутренних списков министерство должно представить открытый документ, что позволит разработчикам заранее понимать, какие категории контента подлежат фильтрации и почему.
— Бизнес готов работать по любым правилам, если они предсказуемы, — не сомневается аналитик.
Второе — дифференциация требований по сферам применения, это когда развлекательный чат-бот и система управления энергосетью решают принципиально разные задачи.
— Требование одинаковых ограничений для них приведёт либо к подавлению бытовых сервисов, либо к недостаточному регулированию критически важных систем, — размышляет Саттаров.
Третье — реальные площадки для тестирования. Собеседник считает, что необходимо создать не формальный орган, а действующую среду, где разработчики смогут проверять свои модели на соответствие требованиям до выхода на рынок.
— Такое похоже на краш-тесты для автомобилей, когда никто не запрещает ездить быстро, но машина обязана пройти проверку безопасности, — проводит аналогию спикер.
Четвёртое — смещение фокуса с ограничения вопросов на ответственность за ответы.
— Не нужно делать из ИИ врага, которого нужно обезвредить, его следует рассматривать как инструмент, за который кто-то несёт ответственность, — говорит Саттаров, проводя параллель с атомной энергетикой. — АЭС — один из самых зарегулированных объектов на планете. Тысячи правил, постоянный контроль, жесточайшая ответственность. При этом никому не приходит в голову цензурировать знание физики ядерного распада. Регулируют не знание, а его применение.

Цензура для ИИ убьёт отечественные модели - Саттаров. Фото: Ольга Брютова
Гендиректор компании также отметил важный, но мало обсуждаемый аспект: чрезмерно зарегулированная система ИИ неизбежно проигрывает конкурентам.
Он сослался на опыт Китая, где жёсткие идеологические фильтры привели к тому, что модели стали слабее в аналитике, хуже справляются с открытыми задачами и уступают на международных тестах.
— Российский ИИ сейчас находится на развилке. Мы можем создать среду, в которой отечественные разработчики будут создавать конкурентоспособные модели мирового уровня с чёткими правилами, ответственностью и контролем качества. Или же мы можем загнать их в рамки, где модель будет бояться собственных выводов. Первый путь сложен, но перспективен. Второй прост, но ведёт в тупик, — заключил Ильдар Саттаров.
Напомним, что искусственный интеллект для контроля питания внедрят в школах Краснодара и Сочи.
Помимо этого, школьники Кубани начали подготовку к ЕГЭ вместе с ИИ.