
Нужен ли отдельный закон об искусственном интеллекте?
На фоне стремительного развития технологий искусственного интеллекта правительства по всему миру обсуждают необходимость регулирования этой области. В одних странах уже появляются рамочные законы, в других — лишь первые попытки выработки этических норм. Казахстан не исключение, сегодня разрабатывается проект Закона “Об искусственном интеллекте”.
Нужен ли отдельный закон об искусственном интеллекте? На первый взгляд — да: технология развивается стремительно, риски велики, и значит, государство должно реагировать специальным регулированием. Однако всё больше специалистов указывают на обратное — правовая система не обязана отвечать на каждую технологическую новинку отдельным законом.
Альфия КАЗИ – одна из ключевых фигур, стоявших у истоков цифровой трансформации Казахстана. Начав свою карьеру на государственной службе, она за более чем два десятилетия прошла путь до международного консультанта, внесшего значимый вклад в развитие цифровых стратегий и законодательных инициатив как на национальном, так и на глобальном уровне.
За 22 года профессиональной деятельности Кази участвовала в разработке базовых нормативно-правовых актов, определяющих вектор цифрового развития страны. Среди них – законы "Об информатизации", "О персональных данных и их защите". Помимо этого, ее участие стало решающим в формировании подзаконной базы, включая нормативы по управлению данными, регламенты цифровой трансформации государственного сектора, архитектуру электронного правительства и порядок функционирования информационно-коммуникационных сервисов.
Автор книги "Практические рекомендации по регулированию общественных отношений в сфере ИКТ" (2018). Издание стало настольной книгой для специалистов госаппарата и IT-компаний, занятых внедрением цифровых решений в различных сферах.
Как консультант Всемирного банка Альфия совместно с коллегами разрабатывала рекомендации по развитию искусственного интеллекта в Республик Казахстан, которые легли в основу утверждённой Концепции развития искусственного интеллекта на 2024-2029 годы.
Сегодня она входит в состав Общественного совета при Министерстве цифрового развития, инноваций и аэрокосмической промышленности РК, где продолжает влиять на цифровую повестку страны, предоставляя экспертные заключения по проектам стратегий и нормативных актов, связанных с ИИ, связью и цифровыми технологиями.
В настоящее время обучается в Иллинойском университете Урбана Шампейн (UIUC) (США). Вместе с профессорами работает над исследованием подходов к регулированию искусственного интеллекта.
В интервью она объясняет, почему правовая система должна оставаться технологически нейтральной, регулировать нужно не саму технологию, а последствия её применения — например, вопросы ответственности, прозрачности, недискриминации.
- Альфия, как вы оцениваете текущее состояние цифрового регулирования в Казахстане? Насколько правовая база соответствует вызовам цифровой трансформации?
– Цифровое регулирование в Казахстане проделало значительный путь за последние два десятилетия. Мы действительно создали базовую правовую инфраструктуру: действуют законы об информатизации, о персональных данных, об электронном документе и электронно-цифровой подписи, о связи, о доступе к информации, о госуслугах, сделаны заделы регламентирования процессов управления данными в рамках Административного процедурно-процессуального Кодекса, разрабатывается закон об искусственном интеллекте. В реализацию законодательных актов приняты около 200 подзаконных нормативных правовых актов. Это серьезный прогресс.
Однако реальность цифровой трансформации меняется стремительно, и сегодняшние вызовы — будь то этика использования ИИ, трансграничные потоки данных, безопасность алгоритмических решений или цифровая инклюзия — требуют более гибкого и проактивного подхода. Правовая база всё ещё носит фрагментарный характер: есть пробелы в регулировании данных как экономического актива, в обеспечении прозрачности и подотчётности алгоритмов, в защите прав пользователей цифровых сервисов.
Кроме того, требуется институциональные изменения. Регуляторная среда часто реагирует постфактум, а не предупреждает риски на стадии проектирования технологий.
Казахстан обладает высоким уровнем цифровой зрелости среди органов власти, активно участвует в международных инициативах и демонстрирует политическую волю к реформам. Главное — перейти от нормативного "реагирования" к стратегическому "упреждению", где право опирается на принципы, а не только на правила, и где в центре стоит человек, его права и цифровое достоинство.
- Альфия, сегодня много дискуссий о рисках ИИ и необходимости его регулирования. Почему вы считаете, что с правовой точки зрения вводить отдельный закон пока рано?
- Правовая система должна оперировать стабильными, определёнными понятиями. А искусственный интеллект — это пока даже не технология в узком смысле, а совокупность методов, применяемых в самых разных сферах. Мы регулируем не термин, а последствия — например, автоматическое принятие решений, вмешательство в частную жизнь, дискриминацию. Всё это уже охватывается действующим законодательством. У нас есть нормы о цифровых услугах, информационной безопасности, защите данных — и, при необходимости, их можно адаптировать. Вводить сейчас отдельный закон только на том основании, что технология "новая" - значит, рисковать перегрузкой системы правом, которое быстро устареет.
- Но ведь технологическая динамика требует гибкости. Разве отсутствие специального регулирования не создаёт правовой вакуум?
– Как раз наоборот. Попытка срочно и универсально закрыть все риски через рамочный закон зачастую приводит к правовому перекосу и технологической стагнации. На данном этапе гораздо продуктивнее сосредоточиться на адаптации подзаконных актов, разработке методических рекомендаций и внедрении механизмов оценки рисков по каждому конкретному кейсу. Речь идёт не о регулировании "технологии как сущности", а о регулировании функций: кто принимает решения, кто несёт ответственность, каким образом обеспечивается прозрачность и подотчётность.
Мы часто сталкиваемся с тем, что появляется технология и нам нужно срочно принять отдельный закон. Но при этом забывается, что уже сейчас в руках регуляторов и правительства есть весь необходимые полномочия. В рамках действующего законодательства можно утверждать нормы на уровне подзаконных актов, адаптировать существующие правила и использовать так называемое "мягкое право" — принципы, стандарты, кодексы этики, которые особенно эффективно работают в быстроразвивающихся сферах.
Мировая практика показывает: даже в странах с развитой правовой системой ставка делается именно на гибкость, тестирование подходов, диалог с бизнесом и обществом. Главное — не перегрузить систему регуляцией, а обеспечить её адаптивность и способность к оперативному реагированию. И в этом смысле Казахстану стоит активнее использовать имеющиеся правовые механизмы, не дожидаясь принятия "больших законов".
- Вы сейчас обучаетесь в Иллинойском университете и занимаетесь сравнительным исследованием по ИИ. Расскажите подробнее.
- Моя работа фокусируется на сравнении подходов к регулированию искусственного интеллекта в США и Казахстане. Я изучаю, как разные страны формируют своё отношение к рискам, ответственности и этике ИИ, какие инструменты они используют — законы, стандарты, саморегулирование — и какие эффекты это даёт. С профессорами мы исследуем, как институциональный дизайн влияет на правовые решения. Это позволяет взглянуть на казахстанскую практику со стороны и предложить пути адаптации, а не простого копирования.
- Какие основные различия вы видите между подходами США и Казахстана?
- США делают акцент на минимальное вмешательство государства. Там преобладает подход "innovation first": сначала развиваем технологию, потом — регулируем, если возникают риски. В Казахстане — наоборот: сначала рамки, потом действия. Это объясняется разной зрелостью институтов и уровнем доверия. В США действует многоуровневая система soft law: руководства, стандарты от NIST, рекомендации федеральных агентств. В Казахстане предпочитают нормативные акты с формулировками, как "разрешено" или "запрещено". Такой подход даёт ощущение стабильности, но может задушить гибкость.
- Как США обеспечивают баланс между инновациями и ответственностью?
- Через создание экосистемы доверия. Большое внимание уделяется этике: компании обязаны внедрять внутренние принципы, раскрывать, как работает ИИ, оценивать риски и воздействие. Но при этом нет жёсткой формальной обязанности. Это стимулирует ответственность изнутри, а не извне. Пример — AI Risk Management Framework от NIST. Он не обязателен, но считается отраслевым стандартом и активно используется.
- Альфия, а как вы относитесь к идее создания единого цифрового кодекса? Может ли он стать пространством, где будут учтены и нормы, касающиеся ИИ?
Это очень перспективная идея. Разработка цифрового кодекса уже ведётся - и именно он может стать тем правовым пространством, где удастся системно и логично объединить нормы, касающиеся цифровых технологий, включая ИИ. Сейчас регулирование распылено по множеству законов: об информатизации, о персональных данных, о госуслугах, об электронной торговле и так далее. Это создаёт фрагментированность и правовую неопределённость.
Цифровой кодекс, если он будет построен по принципу технологической нейтральности, может стать тем инструментом, который позволит не создавать отдельный закон об ИИ, а встроить соответствующие положения в общую логику регулирования цифровой среды. Это обеспечит как предсказуемость, так и гибкость. Главное — не стремиться охватить всё сразу, а закладывать модульную, адаптивную архитектуру.
- Что бы вы посоветовали странам вроде Казахстана, которые находятся на старте этой дискуссии?
Во-первых, не спешить с рамочными законами. Сначала стоит провести юридическую инвентаризацию — какие сферы уже охвачены, где есть пробелы, а где достаточно лишь уточнений. Во-вторых, нужно выстраивать институциональные процессы: процедуры оценки рисков, публичного обсуждения, этического анализа. И, конечно, важно воспитывать экспертизу - чтобы и юристы, и айтишники говорили на одном языке. Только в таком диалоге возможно создать работающую правовую систему для ИИ.
ПОДЕЛИТЬСЯ СВОИМ МНЕНИЕМ И ОБСУДИТЬ СТАТЬЮ ВЫ МОЖЕТЕ НА НАШЕМ КАНАЛЕ В TELEGRAM!