За ИИ спрятаться не получится

Согласно документу искусственный интеллект не признается субъектом правоотношений — человек остается ответственным за все решения.
Для разработки и внедрения ИИ создается национальная платформа. Она обеспечит доступ к библиотекам данных, среде разработки и использования продуктов искусственного интеллекта.
Данные являются основным топливом для искусственного интеллекта .
- Результаты его работы зависят от качества данных, поэтому в законопроекте предусмотрены требования к библиотекам данных и обязанности их изготовителей. Во всех библиотеках данных должна содержаться информация об изготовителе. Он несёт ответственность за их качество. При этом владельцы библиотек обязаны обеспечивать их законное использование, — отметила Смышляева.
Законопроект уделяет особое внимание защите прав граждан при использовании систем ИИ. Пользователи имеют право получать информацию о работе системы, отказываться от взаимодействия с искусственным интеллектом, если это не является обязательным по закону, требовать пересмотра и объяснения решений.
При этом запрещаются системы управления поведением людей, использования эмоций человека, проведения социальной оценки и сбора персональных данных без согласия.
- Для обеспечения контроля за выполнением этих обязательств вводится вмененный аудит систем искусственного интеллекта. Системы ИИ могут быть добровольно включены в отраслевые списки доверия только после прохождения такого аудита. При этом для иных систем аудит остается добровольным. В дополнение к общим параметрам аудит оценивает качество библиотек данных и отсутствие запрещенных функций, — пояснила депутат.
Большой проблемой общества, подчеркнула она, являются дипфейки: их качество таково, что мы уже не можем отличить синтетические материалы от настоящих. В этой связи законопроект устанавливает обязательства по маркировке синтетического контента в доступной для человека форме. Кроме того, при оказании услуг и реализации товаров с ИИ потребители должны быть предупреждены об этом.
Для рамок применения вводятся категории открытых, закрытых и локальных систем. Большой проблемой является и то, что в генеративный ИИ часто загружается служебная и конфиденциальная информация. Теперь использование открытых систем будет жестко ограничено требованиями информационной безопасности.
Особого внимания заслуживают локальные системы и модели, которые обучаются и функционируют в закрытом контуре. Они отвечают на вызов, который серьёзно волнует общество, — это объективность открытых генеративных моделей.
- Сегодня они невероятно популярны у детей и молодежи. Чаты становятся для них советчиками, друзьями и даже единомышленниками. Но при этом такие модели обучены на глобальных, в том числе коммерческих и политизированных данных, где отсутствуют наши национальные ценности и мировоззренческие ориентиры. Таким образом, ряд норм законопроекта направлен на поддержку отечественных решений в области искусственного интеллекта. Это вопрос национальной безопасности нашей страны, — подчеркнула Смышляева.
По её словам, локальные модели должны стать основой национальных систем искусственного интеллекта. Например, в образовании такие системы будут воспитывать подрастающее поколение в духе наших ценностей и идеологии. Кроме того, локальные решения применяются при работе с конфиденциальными данными.
Обучение искусственного интеллекта на основе казахских литературных произведений позволит улучшить нашу языковую модель и обеспечит развитие казахского языка как языка цифровой коммуникации, добавила депутат.
Она также сообщила о норме законопроекта, согласно которой произведения, созданные с помощью систем ИИ без творческого участия человека, не защищаются авторским правом. Охраняемым объектом могут признаваться творческие запросы пользователей — промпты.
Лэйла ТАСТАНОВА, Астана