
Почему некоторые эксперты считают, что депутаты зря просидели десятки часов, рождая законопроект об искусственном интеллекте
Как известно, в мае 2025 года Мажилис одобрил в первом чтении проект Закона “Об искусственном интеллекте”. Из самого интересного: запрещается создание и эксплуатация полностью автономных систем, способных принимать решения без участия человека. То есть никакого “Терминатора” или робота-судьи, принимающего необратимые решения. Такой запрет прописан в явном виде далеко не во всех странах – Казахстан одним из первых в СНГ вводит это на уровне закона.
Если товар, услуга или контент создаётся или поддерживается ИИ, пользователь обязательно должен быть об этом уведомлён. Особенно – если продукт способен ввести в заблуждение или повлиять на поведение. Это касается как deepfake-видео, так и ИИ-чатов, принимающих решения или дающих рекомендации. ИИ нельзя использовать для удалённой биометрической идентификации граждан в реальном времени в публичных местах – например, распознавания лиц на улицах или в ТЦ – без специальных правовых оснований.
Почему же эксперты отнеслись к законопроекту скептически? Мы поговорили об этом с Олжасом АБИШЕВЫМ – единственным казахстанским экспертом, приглашённым 12 июня в Техас в качестве спикера на главное событие в мире искусственного интеллекта – AI Global Frontier Summit, где 25 лидеров из 11 стран соберутся, чтобы представить новейшие прорывные идеи и разработки в сфере ИИ и обсудить, как он трансформирует ключевые сферы нашей жизни.
- Вы были членом рабочей группы по проекту закона РК об ИИ в Мажилисе Парламента РК, но оказались не в восторге от получившегося результата. Почему?
- Да, меня пригласили в эту рабочую группу в этом году, я до сих пор являюсь членом этой рабочей группы, там есть много казахстанских экспертов по ИИ. И многие эксперты со мной согласны, что необходимость данного закона несущественна, потому что прописанные в нём нормы уже есть в других законах. Их достаточно было немного “апгрейдить” (обновить) – и этого было бы достаточно. Что, по идее разработчиков, должен дать закон об ИИ? Чтобы в дальнейшем не было разработок и внедрения проектов, причиняющих вред людям, их сознанию, физический вред, нарушающих информационную безопасность, безопасность общественного строя, личные границы каждого гражданина Казахстана. Это основные постулаты. У нас эти постулаты имеются как в Конституции, так и в законах и подзаконных актах – в законе о персональных данных, законе о защите семьи и брака, Уголовном кодексе.
К примеру, обработка персональных данных искусственным интеллектом. На данный момент у нас есть отдельный закон о персональных данных, где регулируются процессы и инструменты передачи и обработки в сфере информационно-коммуникационных технологий. У нас что, ИИ не является информационно-коммуникационной технологией? Или говорят: нужно создать единое хранилище для сбора, обработки персональных данных искусственным интеллектом. Но у нас единое хранилище уже имеется в виде электронного правительства, и в том, чтобы вводить отдельный процесс сбора для искусственного интеллекта, я не вижу логики. И смысл тогда делать работу, которая уже проделана? Собираться экспертам и депутатам два раза в неделю и по полтора-два часа обсуждать процесс сбора и обработки персональных данных искусственным интеллектом, тратя на это деньги налогоплательщиков?
- А вы какие предложения вносили?
- Мои предложения, судя по появившемуся в итоге документу, не были приняты. Первое предложение – по классификации искусственного интеллекта. Он может иметь низкий, средний или высокий импакт, или, другими словами, – насколько искусственный интеллект может воздействовать на ту или иную сферу. Это очень важный момент. Например, по линии Министерства здравоохранения, высокий импакт – это если ИИ сам будет обследовать пациента, говорить, как ему лечиться, без врача. Но где гарантия, что завтра искусственный интеллект не посоветует не то, что надо, и не случится фатальный случай либо осложнения у этого пациента? Вот эти процессы сейчас никак не урегулированы.
- Низкое воздействие в сфере здравоохранения – это что?
- Написать песню про геморрой – она никак не влияет на заболевание человека, зато рассмешит. А среднее – это когда ИИ генерирует совет, но окончательное решение остаётся за человеком. Но человек, в связи с обладанием или не обладанием определённых навыков, может пойти на поводу у искусственного интеллекта и тоже ввести не тот препарат пациенту. У пациента осложнения либо реакция, а врач говорит: “Я следовал инструкции ИИ”.
- И что даст нам эта классификация по силе воздействия?
- Мы будем понимать, какие меры и контрмеры нужно предпринимать по управлению этими проектами. Но сейчас эта категоризация пока остаётся ещё не принятой. А второе моё предложение – классификация по технологической зрелости. То есть в каких госорганах можно и нужно внедрять искусственный интеллект, а в каких – нельзя. Это тоже была система классификации на основе закрытого либо открытого решения. Открытое решение – это у нас ChatGPT, который в интернете гуляет. Его всем госслужащим запретили на работе, чтобы данные не уходили в США и не обрабатывались там на серверах американских компаний. И есть искусственный интеллект, который разрабатывается в закрытом виде, его устанавливают на сервер госорганов и начинают с ним работать по определённым задачам. Но обратно же – как его использовать и в каких направлениях – сейчас представления и понимания, к сожалению, нет.
А я говорю, что нужно классифицировать, какие системы можно, например, использовать открытые. Вот в образовании же нет ничего секретного в школах? Можно использовать ChatGPT. Почему им запрещать? Если это оборона – да, ChatGPT нельзя. И вообще, нужен ли ИИ Минобороны или не нужен? Для чего внедрять? Какой результат? Внедрять ради внедрения? Об этом никто не думал.
- И всё-таки, в этом законопроекте что-то полезное, интересное для народа есть, или он вообще полностью бесполезный?
- Полезный с точки зрения пропаганды. Что мы завтра не должны позволить, чтобы искусственный интеллект захватил казахстанцев, должны исключить любое влияние на сознание, восприятие мира. Это такой больше философский, а не законодательный труд. Это, наверное, в рамках какой-то концепции можно рассматривать либо в стратегии, но не закона. Закон должен быть чётким: отделять белое от чёрного, чёрное от белого.
Наверное, сейчас нужен закон не об искусственном интеллекте как таковом, а об инновационных технологиях, которые могут самоуправляться. Нужен закон, который делает акцент на всех новых технологиях, которые могут в ближайшие пять-шесть лет развиваться. Это те же нанотехнологии, углублённые нейронные сети. Сейчас вы отправляете запрос, получаете ответ – всё, на этом заканчивается. Завтра появится, например, автономный искусственный интеллект. Вы просыпаетесь, и телефон вам говорит: “Сегодня вы спали столько-то, я отправил запрос в кофемашину, она уже готовит кофе, у вас сегодня пониженный сахар – нужно что-то сладкое съесть”. Это генеративные нейронные алгоритмы, которые думают и дают вам рекомендации по улучшению вашей жизни, уже не дожидаясь вашего запроса.
- Это как в современной фантастике, где вместо жены – робот.
- Да, и внутри робота алгоритм, который сам думает и догадывается, что вам сегодня нужно сделать яичницу. Я и многие эксперты предлагали писать закон, который будет распространяться и на генеративные алгоритмы, и вообще на все новые технологии с компонентами нейронных сетей – чтобы немного шире его сделать. Чтобы его польза была не только на месяц или год, а хотя бы на ближайшие три-четыре года.
Здесь мы можем, в принципе, сделать глубокую интеграцию с тремя законами робототехники американского писателя-фантаста и биохимика Айзека Азимова:
“Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат первому закону.
Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит первому или второму законам”.
Не нужно придумывать велосипед – нужно просто существующие догмы, прописанные в научной фантастике, интегрировать в текущее законодательство, потому что они уже описывают и регулируют деятельность независимых робототехнических систем искусственного интеллекта.
- То есть фантасты уже придумали всё за наших депутатов?
- Да, можно сказать и так – придумали и расписали. Просто нужно это взять и немного пересмотреть в рамках нашего законодательства.
Фото: со страницы Олжаса Абишева в facebook.
ПОДЕЛИТЬСЯ СВОИМ МНЕНИЕМ И ОБСУДИТЬ СТАТЬЮ ВЫ МОЖЕТЕ НА НАШЕМ КАНАЛЕ В TELEGRAM!