Искусственный интеллект не пустят в частную жизнь россиян

Искусственный интеллект должен трансформировать экономику и госуправление России, но на пути его внедрения — правовые пробелы, этические риски и нехватка инфраструктуры. Решить эти и другие вопросы призван оперативный штаб при Президенте РФ по развитию ИИ-технологий, проект указа о создании которого представили для общественного обсуждения. Как Россия планирует преодолеть существующие барьеры и не упустить шанс на мировое лидерство, «Парламентской газете» рассказал первый зампред Комитета Совета Федерации по конституционному законодательству и госстроительству Артем Шейкин.
— Артем Геннадьевич, какие основные задачи должен решить оперативный штаб?
— Ключевая цель — обеспечить согласованные действия всех органов власти и организаций для ускоренного развития и внедрения технологий искусственного интеллекта. Штаб будет заниматься не только техническими вопросами, но и созданием условий для лидерства России в сфере ИИ — от нормативного регулирования до международного сотрудничества и продвижения наших технологий за рубежом.
Его важное отличие в том, что это межведомственная комиссия именно при Президенте РФ, обладающая административным ресурсом и правом принимать обязательные для федеральных и региональных органов власти решения.
— Какие отрасли экономики станут первоочередными для внедрения ИИ‑технологий в ближайшие один-два года?
— Первоочередными должны стать ключевые отрасли экономики, в том числе энергетика, промышленность, транспорт, агропромышленный комплекс, а также компании с государственным участием. Параллельно приоритетными являются сферы государственного и муниципального управления, где ИИ позволит повысить эффективность предоставления услуг и качество управленческих решений. Особый акцент будет сделан на социальной сфере — здравоохранении, образовании, социальной защите.
— Какие правовые барьеры сегодня мешают внедрению ИИ?
— Это, на мой взгляд, устаревшие подходы к регулированию данных, неопределенность в вопросах ответственности и недостаточная формализация требований к доверенному ИИ. Необходимо обновление законодательства. При подготовке изменений мы, безусловно, будем учитывать международный опыт регулирования, но адаптировать его к российским правовым и культурным реалиям.
— Как решается вопрос ответственности за решения, принятые с использованием ИИ?
— Штаб как раз и создан в том числе для выработки предложений по уточнению этих норм и разграничению ответственности разработчика, заказчика и пользователя ИИ-решений. Параллельно будут формироваться единые стандарты безопасности и критерии доверенного ИИ, включая требования к проверке, тестированию и аудиту таких систем.
— Какие красные линии в развитии ИИ вы считаете недопустимыми?
— Недопустимы разработки и применения ИИ, которые подрывают суверенитет страны, права и свободы граждан, а также создают неконтролируемые риски для безопасности и жизни людей. Красные линии — использование ИИ для дискриминации, манипуляции сознанием, неправомерного вмешательства в частную жизнь и критические инфраструктуры. Этический контроль будет обеспечиваться через сочетание нормативного регулирования, экспертных совещаний, участия научного сообщества, включая учет российских культурных и исторических ценностей.
— Что бы вы назвали главным вызовом для России в гонке за лидерство в сфере ИИ?
— Главный вызов — это одновременно обеспечить технологический суверенитет, доступ к качественным данным и рост вычислительных мощностей, не замыкаясь от международного научно-технического сотрудничества. Нам нужно быстро перейти от пилотных проектов к массовому внедрению доверенных ИИ‑решений в экономике и госуправлении, при этом не уступая в безопасности и защите прав граждан. Именно для этого штаб будет координировать усилия всех ведомств, науки и бизнеса, включая развитие инфраструктуры, кадров и нормативной базы.
Источник