ПРЕДВЫБОРНАЯ АГИТАЦИЯ И ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ: НОВЫЕ ПРАВОВЫЕ ГОРИЗОНТЫ И ПРЕГРАДЫ
ПРЕДВЫБОРНАЯ АГИТАЦИЯ И ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ: НОВЫЕ ПРАВОВЫЕ ГОРИЗОНТЫ И ПРЕГРАДЫ
Аннотация
Искусственный интеллект в предвыборной агитации до недавнего времени лишь теоретически рассматривался в качестве реального инструмента воздействия на общественные отношения. Однако накопленный отечественный и зарубежный опыт предвыборной агитации последних лет (преимущественного 2022–25 гг) показал стремительное увеличение случаев обращения к методам ведения агитации с использованием искусственного интеллекта. При этом правовое регулирование соответствующих отношений либо отсутствует, либо имеет слишком общий характер. Проблема отсутствия правовых норм об агитации с обращением к искусственному интеллекту в отечественном законодательстве является всё более нарастающей. В этой связи открытыми остаются вопросы о правовой природе агитации с использованием искусственного интеллекта, детализации норм о границах его использования, этической стороне инновационной предвыборной агитации. Статья посвящена анализу данных вопросов и направлена на выработку приемлемой позиции по их юридическому регулированию.
1. Введение
Развитие информационно-телекоммуникационных технологий в современном мире является настолько стремительным, что правовое регулирование соответствующих отношений объективно не успевает осуществляться. Суды вынуждены создавать прецеденты при принятии решений по конкретным делам ввиду отсутствия правовых предписаний. Электорально-правовые отношения в этом аспекте исключением не является. И речь в первую очередь заходит об искусственном интеллекте (далее также — нейросети), использование которого практически во всех сферах жизни становится всё более объективной реальностью, однако законодательство РФ в этом направлении развито слабо.
Уже в далёком 2019 году была принята Стратегия «О развитии искусственного интеллекта в Российской Федерации» . В ней было дано определение искусственному интеллекту, которое с учётом последовавших изменений выглядит следующим образом: «комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их». Абсолютно аналогично определяется искусственный интеллект и в одном из федеральных законов, предусматривающих проведение эксперимента для разработки и внедрения рассматриваемых технологий .
Не вдаваясь в диспуты о совершенстве и развитии юридической дефиниции «искусственный интеллект» , , отметим, что использование нейросетей в различных сферах общественной жизни практически не урегулировано, но развивается настолько стремительно, что все основы правовой регламентации, заложенные в 2019–2020 гг., к концу 2025 года теряют актуальность. Доступность технологий каждому, включающих неограниченные возможности в кратчайшие сроки создавать новые изображения, видеоролики, уникальные тексты, генерировать идеи, которые становится всё более затруднительно идентифицировать в качестве ненастоящих, «фейковых», меняют представление об искусственном интеллекте в целом и о потенциальных границах правового регулирования его использования в частности.
В отечественном избирательном праве организация и проведение предвыборной агитации в традиционных видах урегулированы детально. Основу такого регулирования составляет Федеральный закон «Об основных гарантиях избирательных прав и права на участие в референдуме граждан Российской Федерации» (далее — Закон о гарантиях избирательных прав граждан). Анализ норм этого и других электоральных законов показывает, что предвыборная агитация есть призывы голосовать за или против кандидата, партии, выражение предпочтений им, описание возможных последствий избрания либо не избрания кандидата, партии, распространение любой информации о данных субъектах. Использование возможностей нейросетей в агитации законодательством РФ не обеспечено. Некоторые авторы с позиции норм Закона о гарантиях избирательных прав граждан ошибочно пытаются отождествлять две разные категории: предвыборную кампанию и предвыборную агитацию . Но надо иметь в виду, что использование возможностей нейросетей в предвыборной агитации с позиции воздействия на электоральные предпочтения избирателей даёт максимальный эффект при задействовании минимальных человеческих ресурсов и может быть как позитивным, так и деструктивным. В то же самое время предвыборная кампания является скорее политической категорией, хотя в Законе и даётся её дефиниция (в значении «избирательная кампания»), более ёмкой, включающей в себя, как правило, весь избирательный процесс вместе с любыми видами агитации.
2. Основные результаты
Д.Ю. Воронин, член территориальной избирательной комиссии, в своей публикации об авторских правах, их нарушении в ходе избирательных кампаний задаётся вопросом: неужели современные возможности искусственного интеллекта не позволяют не нарушать авторские права, а достигать в предвыборной агитации цели по формированию положительного образа кандидата . Ответ на данный вопрос должен находиться в юридической плоскости. Попытка политической партии КПРФ легально использовать нейросети в предвыборной агитации в 2025 году пока успехом не увенчалась.
Избирательная кампания 2025 года в рамках Единого дня голосования (14 сентября) в РФ войдёт в историю как начало эры реального использования искусственного интеллекта в предвыборной агитации. При этом старт получился неоднозначный. Челябинское региональное отделение политической партии КПРФ заключило договор на генерирование с использованием нейросетей агитационного материала — листовки с изображением людей. Итогом стал рисунок в советской стилистике. 22 августа 2025 года региональная избирательная комиссия признала незаконным агитационным материалом сгенерированную нейросетями листовку партии КПРФ. По мнению Избирательной комиссии Челябинской области, КПРФ нарушила пп. 6 и 9.1 ст. 48 Закона о гарантиях избирательных прав граждан . Суть нарушений сводилась к использованию в агитационном материале изображений лиц, не достигших возраста 18 лет, в частности, и изображений физических лиц, в целом.
Челябинский областной суд не согласился с выводами областного избиркома и признал его Постановление незаконным . Мотивировочная часть решения сводилась к обоснованию невозможности идентификации изображённых на листовке в качестве физических лиц и заключалась в следующем.
Во-первых, субъектом избирательных отношений может быть только конкретное физическое лицо, обладающее набором персональных данных.
Во-вторых, в агитации запрещено использование изображений только реально существующих физических лиц, в т.ч. несовершеннолетних.
В-третьих, изображение лиц на листовке не соответствует изображениям физических лиц. В-четвертых, представители КПРФ доказали, что стремились к созданию абстрактных, алгоритмически сгенерированных образов, не используя конкретных фотографий или изображений физических лиц.
Апелляционная инстанция не согласилась с решением областного суда и отменила его, а Постановление Избирательной комиссии Челябинской области оставила в силе. Апелляционная инстанция опиралась на позицию Конституционного Суда РФ в его толковании п. 9.1 ст. 48 Закона об основных гарантиях избирательных прав граждан о том, что предвыборная агитация не должна формировать у избирателя искажённого представления о кандидате, а манипулятивное воздействие должно исключаться. В итоге, второй апелляционный суд посчитал, что листовка всё-таки содержит изображения людей: «привлекательных людей в стилистике, близкой многим избирателям» , а это не соответствует нормам ст. 48 Закона об основных гарантиях избирательных прав граждан, устанавливающим возможность использования изображений только кандидатов, выдвинутых соответствующим избирательным объединением . Таким образом, апелляционная инстанция широко истолковала избирательный закон.
Суды столкнулись с необходимостью анализа действий, связанных с использованием искусственного интеллекта в предвыборной агитации и толкованием соответствующих норм избирательного закона, чего ранее в российской правовой действительности не происходило. Применение нейросетей в агитации никак не урегулировано Законом об основных гарантиях избирательных прав граждан. Последствия следующие.
1. Судам пришлось толковать нормы избирательного законодательства РФ не буквально, а расширительно, что создаёт неоднозначные прецеденты. Реальное правоприменение подменяется толкованием.
2. Решения судов разных инстанций оказались разнополярными. Примечательно, что прокуратура Челябинской области в суде первой инстанции своим заключением поддержала представителей КПРФ .
3. Отсутствие особенностей правового регулирования использования искусственного интеллекта в предвыборной агитации не идёт на пользу развитию соответствующих общественных отношений. А если бы агитационный материал был создан не нейросетью, можно предположить, что казус не имел бы большого общественного резонанса и судами рассматривался как однозначное нарушение ст. 48 Закона об основных гарантиях избирательных прав граждан.
Это первый случай судебного разбирательства, связанного с агитацией при обращении к нейросетям. Но, очевидно, не первый случай агитации с использованием искусственного интеллекта. Большинство случаев остаются латентными хотя бы по причине невозможности отделения агитации реальной и созданной при обращении к нейросетям. В других случаях никто не обращает внимание и не подаёт жалобы. Например, в рамках того же Единого дня голосования в сентябре 2025 года распространялись видеоролики с губернатором Чувашии Олегом Николаевым и его командой, представители которой выходили под музыку, а за спиной у них были неестественно большие животные . Центральная избирательная комиссия РФ какой-либо статистики использования нейросетей в предвыборной агитации не приводил, но тот факт, что проблема существует и разрастается, уже заявляют. В частности проводится мониторинг, направленный на выявление «фейков» и «дипфейков». О результатах пока не сообщается .
Зарубежная практика правового регулирования использования нейросетей в агитации неоднозначна. В большинстве государств, включая и Россию, отсутствуют какие-либо специальные правила в рассматриваемой части. В нормативных правовых актах Литвы, США, Франции в последние годы появились законодательно установленные правила, направленные на борьбу с распространением незаконных агитационных материалов, в том числе сгенерированных нейросетями. В государствах Европейского Союза в 2027 году вступят в силу юридические нормы, допускающие агитацию с использованием искусственного интеллекта при условии предварительного заявления об этом распространителем соответствующих материалов. В Великобритании в 2025 году были доработаны и обновлены специальные правила, направленные на ограничение использования генеративного искусственного интеллекта при агитации (который создаёт высококачественную поддельную информацию) .
Судебная практика некоторых зарубежных государств уже знает примеры отмены результатов выборов п основанию незаконного использования нейросетей в рамках избирательной кампании. Например, в 2024 году Конституционный Суд Румынии был вынужден аннулировать результаты выборов Президента из-за непрозрачности использования искусственного интеллекта. В 2025 году Конституционный Суд Индонезии запретил кандидатам обращаться к нейросетям по основанию недопустимости искажения реального образа людей и в целях соблюдения принципа честности выборов .
Возвращаясь к ситуации с использованием искусственного интеллекта в Единый день голосования на отечественных выборах 2025 года, отметим, что, скорее всего, итоговое решение должен принять Верховный Суд РФ или даже Конституционный Суд РФ. Примечательно, что ещё в 2024 году Пленум Верховного Суда РФ, обобщая практику по делам об административных правонарушениях, посягающих на информационное обеспечение выборов, указал, что следует привлекать к административной ответственности по ч. 1 ст. 5.12 КоАП РФ за создание агитационных материалов с использованием вводящих в заблуждение и выдаваемых за достоверные недостоверных изображений, аудио- и аудиовизуальной информации, в том числе созданных с помощью компьютерных технологий . Однако даже при признании судом агитации незаконной, КПРФ привлечь к ответственности представляется невозможным, поскольку сразу было заявлено, что листовка создана с использованием искусственного интеллекта. В иных случаях вопросы квалификации подобных деяний будут оставаться исключительно на усмотрение правоприменителя (суда). Практики пока нет.
На наш взгляд, федеральному законодателю, учитывая зарубежную практику, надлежит урегулировать использование искусственного интеллекта в агитационных отношениях при проведении выборов. На рассмотрении в Государственной Думе находится один из подобных законопроектов. Он направлен на внесение изменений в Закон о выборах депутатов Государственной Думы. Предложено разрешить использование изображений физических лиц, сгенерированных искусственным интеллектом, а все материалы, созданные нейросетями, помечать специальными знаками . При подобном правовом регулировании споров с листовкой КПРФ даже не возникло бы. Однако предлагаемый законопроект далёк от совершенства.
Во-первых, он рассчитан только на выборы депутатов Государственной Думы. При этом новации, связанные с искусственным интеллектом, нужны всему избирательному законодательству РФ.
Во-вторых, разрешение использования изображений физических лиц, сгенерированных искусственным интеллектом, слишком «пространно». Оно требует детализации. Ведь подобное генерирование может быть основано, например, на существующих фотографиях и иных изображениях кандидатов, других физических лиц, которые не подозревают о подобных процедурах. Результатом такого генерирования могут быть похожие изображения, а это действительное нарушение существующих норм о предвыборной агитации. Поэтому перспективные нормы о разрешении использования нейросетей при создании агитационных материалов должны быть детализированы, содержать ограничения и пределы генерации изображений, видеороликов и другого контента. Как вариант, некоторые детализированные правила могла бы устанавливать Центральная избирательная комиссия РФ. Ввиду изложенного смеем предположить, что в существующем виде указанный законопроект принят не будет. Правительство РФ дало на него отрицательное заключение .
Использование искусственного интеллекта в рамках предвыборной агитации в позитивном аспекте и вписывание его в правовое поле, как в ситуации с листовкой КПРФ, — не единственная проблема. Потенциальная угроза нейросетей связана с массовым созданием «фейков» в целях введения избирателей в заблуждение, влияния на их осознанный выбор и, в конечном счёте, изменения результатов выборов, политической ситуации в стране. Современные возможности нейросетей позволяют создавать не только реалистичные фотографии, но и видеоизображения. Всё это может быть положено в основу проведения «чёрной» пиар-кампании «за» или «против» кандидата, списка кандидатов, в т.ч. на запрещённых в России платформах, к которым имеется доступ у граждан РФ, находящихся за пределами РФ, а также находящихся на территории РФ и использующих средства преодоления блокировок. На угрозы, исходящие от использования нейросетей в незаконной предвыборной агитации, указывают многие исследователи, например, Е.С. Устинович . Т.Ю. Фролова в этой связи отмечает, что распространение «фейков» следует квалифицировать как нарушение пассивного избирательного права, поскольку информация о кандидате искажается, и мнение избирателя становится предвзятым. Высказывается идея об усилении контроля за ресурсами, позволяющими создавать подобный контент . Сложность заключена в том, что блокировать все подряд ресурсы, предоставляющие услуги искусственного интеллекта, бессмысленно. Это повлечёт ограничение прав большого числа субъектов. Будут использоваться новые методы обхода блокировок.
На наш взгляд, необходимо привлекать к юридической ответственности создателей и распространителей недостоверной информации, информации, идущей вразрез с правовыми нормами о предвыборной агитации, например, по ст. 5.12 КоАП РФ. За созданием специального бота для распространения «фейков» стоят конкретные физические лица. Поэтому достоверная авторизация на сайтах, предоставляющих услуги нейросетей, должна быть обязательной, а весь создаваемый контент, при появлении необходимости, отслеживаемым. Главная проблема связана с невозможностью контроля за зарубежными платформами. Ограничение доступа к ним установить возможно, а исключить его полностью — нет.
Искусственный интеллект может использоваться не только в рамках предвыборной агитации, хоть это, порой, и самый «краеугольный камень» избирательной кампании, но и при информировании избирателей о выборах, в рамках которого нет «видимых» ограничений на обращение к нейросетям, а также в иных сферах . Потенциально такой подход способен повлиять на повышение явки избирателей.
3. Заключение
Во-первых, требуется урегулировать вопрос об использовании нейросетей в предвыборной агитации. Суды уже сталкиваются со сложностями при квалификации действий кандидатов, если последние обращаются к практически неограниченным возможностям искусственного интеллекта. Перспективное правовое регулирование должно быть комплексным, охватывать все виды избирательных кампаний. Целесообразным видится предложить законодателю внести изменения в законы о выборах и дополнить их нормами (отдельными статьями) об особенностях осуществления предвыборной агитации, если материалы генерируются нейросетью. Такие нормы должны содержать правила о маркировке «контента», о запретах и ограничениях в его генерировании, о возможностях использования кандидатами собственных фото- и видеоизображений и др. По мере накопления практики рассмотрения судами дел о генерировании нейросетями «контента», предназначенного для ведения предвыборной агитации, Пленум Верховного Суда РФ может обобщить такую практику в виде издания соответствующего постановления.
Во-вторых, сохраняется высокий уровень латентности генерирования материалов, предназначенных для агитации. Например, формирование положительного образа кандидата особенно на уровне муниципальных выборов может быть вообще не выявлено, особенно, если результат является максимально реалистичным (фотография, видеоролик, баннер или распечатанная листовка). В этой связи может быть предложено обязательное маркирование подобного «контента» и предварительное уведомление уполномоченной избирательной комиссии о его использовании. Выполнение перечисленных условий может обеспечиваться такими последствиями как: неотвратимость административной ответственности и аннулирование регистрации кандидата (партии).
В-третьих, в рамках борьбы с распространением «фейков», «дипфейков» и их влиянием на предвыборную агитацию использование искусственного интеллекта должно регулироваться посредством возможности обязательной идентификации пользователей, сгенерировавших соответствующий «контент». Помимо отметки о том, что «материал создан с использованием искусственного интеллекта», необходимо принятие мер, направленных на ответственность платформ, предоставляющих соответствующие услуги. Это может быть административная ответственность за не проведение достоверной идентификации пользователей, за отказ от предоставления сведений о пользователе, совершившим нарушение законодательства РФ о предвыборной агитации. Если платформы зарубежные, отказ в сотрудничестве с российскими правоохранительными структурами должен запускать уже существующие механизмы блокировки сайтов под эгидой Роскомнадзора.
