«ИИ против коррупции: Искусственный интеллект как альтернатива законодателям — интервью с депутатом Смышляевой»

В среду депутаты Мажилиса приступят к первому чтению закона об искусственном интеллекте и его поправок. Почему Казахстану нужен закон об ИИ, как он будет функционировать и следует ли опасаться последствий появления нейросетей? Об этих вопросах рассказала депутат Мажилиса, глава рабочей группы по законопроекту Екатерина Смышляева.
- Екатерина Васильевна, расскажите, почему в стране возникла необходимость создания отдельного закона для регулирования искусственного интеллекта? Есть ли у Казахстана шанс стать мировым центром ИИ?
- Мы должны адаптироваться к быстро меняющимся условиям. Искусственный интеллект активно внедряется в повседневную жизнь, а правовая база для его регулирования пока отсутствует. Казахстан не одинок в этой ситуации – это общемировая проблема. Когда закон будет принят, мы станем второй страной после Евросоюза, где есть отдельный закон об ИИ. Эта инициатива получила одобрение на самом высоком уровне. На недавнем заседании Национального курултая в Бурабае наш Президент выделил цифровизацию и развитие ИИ как приоритетные направления, подчеркивая значимость создания условий для роста этой технологии в стране.
Екатерина Смышляева. Фото: пресс-служба Мажилиса
Чтобы оценить возможности Казахстана стать центром для развития ИИ, нужно рассмотреть Факторы цифровой инфраструктуры. Для работы дата-центров необходимо наличие холодного климата, стабильного электроснабжения и надежной связи. Казахстан располагает подходящими климатическими условиями, что снижает затраты на охлаждение серверов. Географически страна также удобна для создания международных хранилищ данных. Однако проблемы существуют с высокими ценами на электроэнергию и перегрузками в сети в часы пик. Власти уже принимают меры, направленные на улучшение ситуации: от повышения эффективности существующих электростанций до строительства новых, в том числе атомных.
Для успешной работы разработчиков ИИ важны экономические условия, налоговые льготы и правила экспорта. Это становится ключевым моментом, и в связи с этим расширяется цифровой технопарк AstanaHub.
Для новичков важной станет создание Национальной платформы искусственного интеллекта, которая будет позволять разработчикам тестировать ИИ-продукты в защищенной среде, обеспечивая доступ к вычислительным мощностям и данным для обучения. Эта платформа станет инкубатором для стартапов, поддерживая их на старте, особенно ориентируясь на проекты с высоким вкладом казахстанских разработчиков.
В нашем обществе наблюдается оптимистичный настрой относительно цифровизации, что способствует интересу со стороны потребителей. Внедрение технологий ИИ поддерживается как правительством, так и гражданами. Президент активно поддерживает цифровизацию и внедрение ИИ в госуправление и другие экономические сферы как часть государственной политики.
- Быстрые темпы технологического прогресса могут привести к увеличению фейков и дипфейков*, создаваемых ИИ. Как будет снижаться это явление в рамках нового закона?
- Законопроект будет защищать граждан от фейков и дипфейков на трех основных уровнях. Во-первых, необходима прозрачность и обязательная маркировка синтетического контента, чтобы пользователи знали, что данный контент создан искусственным интеллектом. Во-вторых, вводится запрет на создание систем, способных манипулировать пользователями, включая автоматическую генерацию дипфейков. В-третьих, операторов ИИ обяжут нести ответственность за распространение недостоверной информации. В случае нарушения требований ответственность будет лежать на владельцах ИИ-систем.
Сейчас также обсуждаются меры по уголовному преследованию использования дипфейков. Однако на практике это инструмент, который потенциально может быть использован преступниками для совершения традиционных преступлений. В Кодексе уже предусмотрены меры за использование информационных технологий как отягчающее обстоятельство. Мы выработаем обоснованную позицию ко второму чтению законопроекта, учитывая рост числа таких нарушений.
Несмотря на это, мы знаем, что злоумышленники будут продолжать нарушать законы. Кроме того, цифровая среда является международной, и администрировать ограничения в ней крайне сложно. Поэтому важно критически подходить к сетевому контенту и проверять предоставленную информацию.
- На каких странах базировались ваши исследования при разработке законопроекта? Какой опыт был применен?
- Мы изучали подходы Европейского Союза, США, Китая, Сингапура, Канады и Японии, так как эти страны представляют различные модели регулирования — от жесткого контроля до гибкой поддержки инноваций. Некоторые из них являются разработчиками ИИ, а другие — его пользователями.
В ЕС принят закон об искусственном интеллекте (AI Act), откуда был заимствован принцип классификации ИИ-систем по уровням риска: минимальному, среднему и высокому. Это позволяет уделить особое внимание системам, требующим тщательного контроля. Мы также взяли за основу европейскую модель прозрачности и ясности в работе ИИ, согласно которой пользователи имеют право знать, как работает система и на каких основаниях принимаются её решения.
США предлагают хороший опыт в вопросе поддержки инноваций.
Китай успешно внедряет ИИ в госуправление и оптимально работает с данными. Интересен китайский опыт ограничения использования ИИ в социальной сфере, особенно в аспекте цифрового профилирования и следления.
Сингапур эффективно использует маркировку контента, созданного ИИ.
Япония добилась успехов в подготовке специалистов в сфере ИИ. В казахстанском законопроекте также предусмотрена поддержка образовательных программ, направленных на развитие навыков в области искусственного интеллекта.
Мы внимательно следим за международными тенденциями регулирования ИИ и за действующими международными актами и соглашениями в этой области.
- Планируется ли введение авторских прав на контент, созданный ИИ? Если да, кому принадлежат эти права?
- Это один из самых сложных вопросов для законодателей по всему миру. Во многих странах уже идут судебные процессы, где истцы требуют защитить произведения, созданные с помощью генеративных моделей ИИ.
Как правило, такие продукты не признаются объектами авторского права, и это вполне объяснимо: объектом авторского права является результат творческого труда человека. Если человек использовал алгоритм в качестве инструмента (как кисть для художника), важно понять, как определить степень его участия.
На данный момент мы рассматриваем вариант, при котором права на продукты, созданные ИИ, будут принадлежать владельцу системы. Эти моменты должны быть прописаны в пользовательском соглашении с создателями контента для предотвращения возможных споров.
Изображение сгенерировано с помощью нейросети Midjourney
- Депутаты выражали опасения по поводу использования нейросетей детьми. Как система образования собирается реагировать на внедрение ИИ в Казахстане, учитывая, что студенты перестали писать рефераты и дипломы?
- Недавно состоялось обсуждение, на котором Министерство просвещения представило план подготовки Этического кодекса использования ИИ в образовании. Этот документ разрабатывается совместно с международными экспертами. Стоит отметить, что эксперты представляют крупные корпорации, которые могут быть заинтересованы в слабых ограничениях для технологий. Однако работа ведется.
В вопросах специфического регулирования в перспективе может быть представлен отраслевой закон об образовании. На данный момент четких регуляторных решений еще нет. Хотя можно попытаться полностью запретить использование ИИ в образовании, фактически запреты плохо работают в цифровом пространстве. Запреты лишь усиливают интерес детей к технологиям.
Использование ИИ вызывает увлечение как среди детей, так и среди взрослых. Они активно применяют асистенты и нейросети для написания разнообразных работ. Чтобы не разрушить систему образования и не вызвать деградацию интеллекта детей, нужно пересмотреть методы обучения. Требования к компетенциям, которые мы хотим видеть у школьников, должны измениться.
Если нейросеть выполняет рутинную работу по поиску информации, важно, чтобы ребенок умел критически оценивать полученные данные, проверять их достоверность и анализировать дополнительные источники. Эти навыки сейчас становятся ключевыми, хотя ранее не были так востребованы в существующей образовательной системе.
- Вы сами используете нейросети? Если да, какие и для чего?
- Да, использую, но это пока больше связано с любопытством, поскольку текущие модели не справляются с серьезными профессиональными задачами. Мне интересно сравнивать различные модели.
Поиск с помощью нейросетей уже стал вполне эффективным, хотя потребует детальной проработки критериев. Примитивно заданный вопрос даст аналогично примитивный ответ. Для серьезного поиска нужно глубоко разбираться в предмете, так как современные системы иногда не оценивают достоверность источников и актуальность материалов.
Современные технологии достаточно хорошо справляются с кратким пересказом объемных текстов. В условиях нехватки времени такая возможность позволяет быстро анализировать материалы. Однако важно, чтобы источники были проверенными, иначе существует риск получения недостоверной информации. Это основные моменты в профессиональной деятельности.
В повседневной жизни мы активно использовали ИИ еще до его популяризации, начиная от приложений для заказа такси до смарт-городов.
- Как закон повлияет на государственные системы, использующие ИИ? Например, системы наблюдения и анализа данных?
- Воздействие будет аналогичным, как и на частные системы.
Прежде всего, регулирование биометрической информации и системы анализа данных будет действовать как для государственных, так и для частных структур. Это означает, что все государственные системы, использующие ИИ для сбора и обработки данных, обязаны будут соблюдать единые стандарты безопасности и конфиденциальности.
Во-вторых, закон закрепляет основные принципы, включая право человека оспаривать автоматизированные решения, которые касаются его. Это правило будет работать и для государственных организаций, гарантируя гражданам возможность защищать свои права в случае ошибочных автоматизированных решений.
В-третьих, на государственные структуры также распространятся ограничения на использование поведенческого скоринга** и других технологий анализа данных, которые могут затрагивать права граждан. Для применения таких технологий потребуется четкое правовое основание в законодательстве.
Управление данными уже сейчас регулируется нормами, утвержденными правительством.
Кроме того, использование биометрических данных в государственных системах продолжает требовать получения согласия граждан. Государственные органы обязаны обеспечивать соблюдение прав граждан при сборе и обработке таких данных в соответствии с законом.
- Будет ли закон регулировать использование ИИ в медицине?
- Здесь будут действовать общие правила и законодательство по искусственному интеллекту. В то же время медицина предполагает применение чувствительных ИИ-систем. Например, множество медицинских приборов уже включает встроенные ИИ-алгоритмы, помогающие врачам в диагностике.
Обезличенные медицинские данные имеют огромную ценность для обучения ИИ. Нас также интересуют последствия внедрения помощников в практику врачей. Поэтому в медицине потребуются внутренние регуляторные акты, помогающие оценить экономику внедрения ИИ-систем.
В проекте закона для этого предусмотрены общие нормы и отнесение медицинских ИИ-систем к категории высокого риска, требующим особого регулирования как критически важные объекты информационно-коммуникационной инфраструктуры.
Изображение сгенерировано с помощью нейросети Midjourney
- Если ИИ допустит ошибку, кто будет нести ответственность: разработчик, государство или алгоритм?
- Ясно, что алгоритм ответственности не несет. На сегодняшний день ИИ не является субъектом права и в ближайшем будущем не станет им. ИИ — это инструмент, а не лицо, которое может быть привлечено к ответственности. В этом аспекте можно привести много примеров из фантастических фильмов.
Что касается государства, то если владельцем ИИ-системы является государственный орган, то именно он будет нести ответственность в случае ошибки. Например, если госуслуги, использующие ИИ, приведут к ущербу, ответственность будет лежать на органе, который их внедрил.
Разработчики также могут нести ответственность, если сохраняют контроль над ИИ системой, участвуют в её эксплуатации или заключают контракт с владельцем, где четко прописаны их обязанности. Если разработчик передал систему владельцу, и она была протестирована и задокументирована, ответственность перейдет к владельцу системы.
Искусственный интеллект не создает новых принципов распределения ответственности, а следует общим правилам, применимым к сложным техническим системам, таким как лифты или автомобили. Например, в случае аварии сначала проверяют, насколько правильно человек использовал систему. Если он не нарушал правила, ответственность ложится на владельца и обслуживающую компанию.
- Как вы относитесь к идее, что через 10-15 лет половина вашей работы может быть заменена ИИ?
- Некоторые функции могут быть автоматизированы, и я поддерживаю это. Если рутинные задачи будет выполнять ИИ, у меня появится время для более творческих процессов, которые в ближайший срок не сможет заместить ИИ. Например, он не сможет заменить личные встречи с избирателями или экспертами. Даже самые современные модели ИИ не позволяют установить полноценный человеческий контакт из-за отсутствия эмоционального интеллекта и способности понимать нюансы межличностного общения.
Тем не менее, для более активного участия ИИ в законотворчестве, даже для решения рутинных задач, потребуется большая работа. В текущий момент Министерство юстиции и Министерство цифрового развития тестируют модели с использованием нашей базы данных нормативно-правовых актов (НПА). Уверена, что это станет отличным инструментом для создания умного поисковика, который также сможет решать задачи, связанные со стандартизированными актами.
Однако для полноценного участие ИИ в законодательных процессах необходимо, чтобы нормативно-правовые акты были машиночитаемыми. Такие документы должны быть структурированы так, чтобы их мог обрабатывать ИИ. Поскольку у нас пока нет такой базы, потребуется время, хотя задача решаемая. Например, проект закона об ИИ сейчас проходит тест на машиночитаемость, и было бы несправедливо, если ИИ не сможет ознакомиться с законом, касающимся его самой сущности.
Изображение сгенерировано с помощью нейросети Midjourney
- Считаете ли вы, что ИИ сможет искоренить коррупцию в будущем? Каким образом?
- ИИ может значительно снизить уровень коррупции, обеспечивая большую прозрачность в государственных процессах через автоматизацию. Например, алгоритмы могут проверять заявки на тендеры, выявлять финансовые аномалии и предупреждать о возможных коррупционных схемах. Это минимизирует человеческий фактор и снижает риск манипуляций.
Также ИИ способен анализировать большие объемы данных, выявляя подозрительные связи и предсказывая эмоциональные риски. Это значит, что системы, основанные на ИИ, могут автоматизированно фиксировать конфликты интересов, контролировать финансовые потоки и выявлять подозрительных чиновников. Автоматизация контроля и аудита значительно повышает эффективность в борьбе с коррупцией.
Однако важно понимать, что ИИ само по себе не является панацеей. Для успешной борьбы с коррупцией алгоритмы должны быть прозрачными, защищенными от манипуляций и использоваться на основе четких правовых норм. Кроме того, данные, на которых обучаются ИИ-системы, должны быть качественными и актуальными. В противном случае даже самые продвинутые системы могут давать неверные результаты.
- Какие неожиданные профессии могут появиться в Казахстане в результате развития ИИ?
- Их будет достаточно много, так как они будут появляться в связи с внедрением ИИ. Например, в законопроекте уже прописываются ограничения и этические принципы, связанные с функциями ИИ-систем. Необходимо будет следить за соблюдением этих норм, так что, вероятно, появятся специалисты по этике ИИ.
Кроме этого, будет расти количество аудиторов, проверяющих алгоритмы ИИ на предмет их справедливости и возможности возникновения предвзятости в принятии решений. У нас также появится потребность в дизайнерах цифровых двойников людей и городов.
ИИ учится в процессе использования, поэтому потребуются специалисты по обучению ИИ-моделей с акцентом на персонализацию данных и другие параметры.
Также возрастет нагрузка на цифровых юристов, поскольку все больше взаимоотношений будет происходить в онлайн-пространстве с учетом принципиальных различий от реальных. Психологи и психотерапевты также будут востребованы, так как растет число людей с цифровой зависимостью и другими психическими проблемами, связанными с современными технологиями.
Хотя это всего лишь предположения, не исключено, что ИИ будет интегрироваться в традиционные профессии, минимизируя рутинную работу и позволяя сосредоточиться на более креативной деятельности. Все будущие специалисты, такие как врачи, педагоги, бухгалтеры и менеджеры, должны будут научиться использовать эти технологии в своей деятельности.
Следует отметить, что законопроект по вопросам искусственного интеллекта еще не прошел финального одобрения в Казахстане. На данный момент его только планируют рассмотреть в Мажилисе. Если закон будет одобрен на первом чтении, его доработают к следующему чтению с учетом критических замечаний, высказанных на первом пленарном заседании. Если закон будет принят во втором чтении, он будет передан в Сенат, а затем — на подпись Президенту.
*Дипфейк (deepfake) - это видео, фото или аудиозапись, созданные с помощью ИИ, которые выглядят настоящими, но на самом деле являются подделкой. Создатели дипфейков заменяют лицо или голос человека на лицо или голос другого человека, создавая иллюзию реальности. Они могут использоваться как в развлекательных целях, так и для действий с недобрыми намерениями.
**Поведенческий скоринг - это метод оценки личности на основе ее поведения. Чаще всего применяется в банковской системе, онлайн-сервисах и страховании. Это система, которая отслеживает действия человека (например, как он расходует деньги, производит ли платежи вовремя, как появляется в сети) и впоследствии выставляет балл, отражающий уровень доверия к нему.
На эту тему также можно ознакомиться: Как ИИ становится важным игроком на мировой арене.
```-
Авто в спецЦОНе: экзамен или испытание терпения?Вчера, 20:14 0
-
Часть Павлодара осталась без света из-за удара молнии в подстанцию9-05-2025, 08:42 11
-
“Бэтмобиль“ из фильма Бертона уйдет с аукциона24-04-2025, 17:11 5
-
Видео с танцем казахстанских школьниц у обелиска славы обсуждают в сети9-05-2025, 08:36 3
-
Aston Martin станет еще дороже. Назвали причины2-05-2025, 19:12 3