К ВОПРОСУ О ТЕОРЕТИКО-ПРАВОВЫХ ОСНОВАХ ЭТИКИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

Научная статья
DOI:
https://doi.org/10.60797/IRJ.2026.164.93
Выпуск: № 2 (164), 2026
Предложена:
10.10.2025
Принята:
20.01.2026
Опубликована:
17.02.2026
Правообладатель: авторы. Лицензия: Attribution 4.0 International (CC BY 4.0)
5
0
XML
PDF

Аннотация

Настоящая статья посвящена комплексному анализу теоретико-правовых основ этики искусственного интеллекта в контексте современных технологических вызовов. В статье обосновывается необходимость формирования новых правовых подходов к регулированию искусственного интеллекта. В работе исследуются три ключевых теоретико-правовых подхода к этике искусственного интеллекта: антропоцентрический, деонтологический и утилитарный, раскрывается их содержание и практическая значимость. Особое внимание уделяется анализу фундаментальных правовых принципов применительно к сфере искусственного интеллекта — справедливости, прозрачности и ответственности, выявляются проблемы их адаптации к цифровой среде. Рассматриваются дискуссионные вопросы правосубъектности интеллектуальных систем, проблемы алгоритмической предвзятости и распределения ответственности за действия автономных систем. В заключении обосновывается необходимость разработки комплексного подхода к регулированию искусственного интеллекта, сочетающего философские, юридические и технические аспекты, а также важность международного сотрудничества в создании этико-правовых стандартов для устойчивого развития технологий искусственного интеллекта.

1. Введение

Технологическая революция, основанная в том числе на искусственном интеллекте, трансформирует все сферы общественной жизни. Однако разрыв в нормативном регулировании между скоростью технологических изменений и способностью права адекватно на них реагировать создает значительные риски. В этих условиях этика перестает быть исключительно философской категорией, становясь исходным фундаментом для построения эффективной правовой системы, способной управлять рисками и гарантировать защиту прав человека в цифровую эпоху. Нормативное регулирование этики искусственного интеллекта, по мнению М. Сазановой, не будет «носить общеобязательный характер, выступая скорее примером «мягкого» права, когда нормы представляют собой рекомендации для государственных органов и компаний, использующих системы искусственного интеллекта»

.

Развитие технологий искусственного интеллекта ставит перед обществом и правовой наукой новые вызовы, требующие переосмысления традиционных подходов к регулированию и этике. В условиях стремительной цифровизации и внедрения искусственного интеллекта во все сферы жизни человека актуализируется необходимость формирования теоретико-правовых основ, способных обеспечить баланс между инновационным развитием и защитой фундаментальных прав и свобод личности. Данная статья посвящена анализу ключевых аспектов этики искусственного интеллекта с позиций теории права, а также рассмотрению возможных путей гармонизации технологического прогресса и правовых норм.

2. Теоретико-правовые подходы к этике искусственного интеллекта

Этика искусственного интеллекта представляет собой междисциплинарную область знания, объединяющую философские, правовые, технические и социальные аспекты взаимодействия человека и автономных систем. Так, А.М. Белкина под этикой искусственного интеллекта понимает совокупность принципов и норм, направленных на обеспечение справедливого, прозрачного и ответственного использования технологий искусственного интеллекта, а также на минимизацию рисков, связанных с их применением

.

С правовой точки зрения, этика искусственного интеллекта выступает в качестве предшественника нормативного регулирования, формируя концептуальные основы для будущих законодательных инициатив. Важно отметить, что этические принципы искусственного интеллекта не являются статичными: они эволюционируют по мере развития технологий и изменения социальных ожиданий.

В современных исследованиях искусственного интеллекта

можно определить три базовых теоретико-правовых подходов к регулированию этики искусственного интеллекта: антропоцентрический, деонтологический и утилитарный.

В исследованиях Калифорнийского университета в Беркли, в частности в работах С. Рассела и П. Норвига

активно развивается антропоцентрический подход, который исходит из приоритета прав и интересов человека. В рамках данного подхода искусственный интеллект рассматривается как инструмент, служащий благу общества, а не как самостоятельный субъект права. Основные принципы антропоцентризма в этике искусственного интеллекта включают защиту прав человека, ответственность разработчиков, а также прозрачность и объяснимость.

Деонтологический подход акцентирует внимание на соблюдении моральных норм и правил независимо от последствий. В контексте искусственного интеллекта это означает, что алгоритмы должны быть запрограммированы с учетом универсальных этических принципов (например, справедливости, честности, уважения к человеческому достоинству). Данный подход разрабатывается К. Кроуфорд, которая является соучредителем Института AI Now в Нью-Йоркском университете, организации, занимающейся исследованием социальных последствий искусственного интеллекта. Ее исследования сосредоточены на понимании того, как технологии искусственного интеллекта влияют на социальные структуры и права человека в том числе с учетом норм морали

.

Утилитарный подход, напротив, фокусируется на максимизации общественной пользы и минимизации вреда. В рамках данного подхода этичность искусственного интеллекта оценивается по критерию его социальной эффективности и способности решать актуальные проблемы общества.

Относительно рассматриваемого вопроса теоретико-правовых основ этики искусственного интеллекта представляется необходимым обозначить, что исследование основных правовых категорий в юридической науке связано, прежде всего, с освещением вопросов правопонимания. Традиционно для изучения основных концептуальных точек зрения по исследованию правовых явлений, отношений проводился анализ основных подходов к правопониманию как к методологическому ключу для уяснения сущности изучаемых правовых явлений. Правопонимание, господствующее среди ученых и практикующих юристов страны, является характерным признаком национальной правовой системы. Однако следует согласиться с А.Н. Савенковым, что в современных условиях возникла «потребность в переосмыслении традиционных концепций правопонимания, поиске новых решений, основанных не только (и даже не столько на достижениях правовой науки), сколько на синтезе философских, экономических и правовых идей»

.

В этой связи стремительное развитие искусственного интеллекта актуализирует вопрос о необходимости формирования правовых и этических рамок его применения. В отличие от традиционных объектов регулирования, искусственный интеллект обладает особыми свойствами (автономности, адаптивности и неполной предсказуемости), что требует переосмысления классических юридических конструкций. Теория права в данном контексте сталкивается с необходимостью адаптации базовых принципов — справедливости, ответственности и правовой определённости — к условиям цифровой среды. Указанные принципы закрепляются в документах ООН, ЮНЕСКО, Совета Европы, а также в инициативах Европейского Союза (например, GDPR, AI Act).

Принцип справедливости применительно искусственного интеллекта имеет глубокие корни в конституционном праве, однако в контексте искусственного интеллекта он трансформируется в требование обеспечения алгоритмической справедливости и предотвращения закрепления и усиления человеческих предубеждений в данных и алгоритмах. Теоретической основой здесь выступает теория справедливости, требующая от права создания процедур аудита алгоритмов и пресечения дискриминационных практик.

Прозрачность как принцип применительно искусственного интеллекта перестает быть классическим принципом теории права, поскольку сталкивается с проблемой неспособности человека понять логику принятия решений сложной нейросетью. Теоретико-правовой вызов заключается в поиске баланса между коммерческой тайной, сложностью технологии и правом человека на объяснение решений, существенно влияющих на его права и законные интересы. Проблеме прозрачности как принципа этики искусственного интеллекта посвятила свои исследования Тимнит Гебру — основатель и исполнительный директор Исследовательского института распределенного искусственного интеллекта (DAIR). В частности, она отметила, что для обеспечения прозрачности искусственного интеллекта необходим независимый источник государственного финансирования для поддержки независимых исследовательских институтов в области искусственного интеллекта, которые могли бы стать альтернативой чрезвычайно сконцентрированной власти нескольких крупных технологических компаний и тесно связанных с ними элитных университетов

.

Принцип ответственности является базовым принципом любой правовой системы, но в случае с искусственным интеллектом появляется проблема атрибуции вины: как возложить ответственность за действие, инициированное автономной системой, которая не является традиционным субъектом права? Это требует переосмысления классических правовых конструкций вины и причинения вреда. В частности, данный принцип исследован в работе В. Дигнум «Ответственный искусственный интеллект: ответственная разработка и использование искусственного интеллекта» (Springer, 2019)

.

А.Ч. Чупанова считает, что в современных условиях, когда информационные отношения, процессы, явления охватываются многими отраслями права, «возникла настоятельная потребность в систематизации и обобщении данного массива законодательства, формирования единого понятийного аппарата информационного права как с точки зрения науки, так и практики»

. На наш взгляд, теоретико-правовые основания именно в этой части являются концептуальными и при определении теоретико-правовых основ этики искусственного интеллекта.

Соответственно, дискуссия о целесообразности формирования теоретико-правовых основ этики искусственного интеллекта вполне адекватна в русле общетеоретического понимания вопроса. В условиях быстро развивающихся информационных отношений во всех сферах жизни общества, появления все новых информационных ресурсов и увеличения удельной составляющей их в условиях цифровой трансформации общественных отношений в современных условиях, вопрос о необходимости взвешенного этического подхода к использованию искусственного интеллекта не вызывает сомнения.

3. Правовые проблемы этики искусственного интеллекта

Развитие информационных отношений всегда связано с поиском и получением информации, производством и распространением информации и информационных ресурсов, созданием и применением цифровых технологий и систем, а также обеспечением информационной безопасности. Отсюда возникает необходимость общетеоретического обоснования правового регулирования информационных отношений, концептуальных различий между предметом и объектом правового регулирования в информационной сфере, субъектов информационного права и других актуальных вопросов, возникающих в контексте анализа современных информационных отношений.

Разработка новых и совершенствование существующих технологических решений в области искусственного интеллекта является сегодня приоритетным направлением государственной политики. В мире и в России на сегодняшний день уже имеется довольно много моделей искусственного интеллекта, разработанных под решение конкретных задач. По мнению проф. А.В. Минбалеева, «развитие экономики данных для России сегодня становится ключевым вектором, поскольку серьезное санкционное давление со стороны Запада значительным образом меняет мировые рынки и мировую экономику»

. Искусственный интеллект способен анализировать большие объемы данных быстрее и точнее, чем это может сделать человек, позволяя оптимизировать сложные системы в реальном времени. Например, использование искусственного интеллекта в медицине открывает новые перспективы для диагностики и лечения заболеваний, делая возможным персонализированную медицину на основе генетического анализа и истории заболеваний пациентов.

Однако эти возможности сопровождаются серьезными вызовами, в первую очередь этического и правового характера. Анализ научных подходов позволяет констатировать, что в последнее время проблемы этики искусственного интеллекта приобретают всё большее значение

. Основой этической проблематики искусственного интеллекта является разработка и использование алгоритмических систем, способных к сбору, анализу и применению больших объёмов данных. С одной стороны, это открывает значительные возможности для развития науки, техники и общества. С другой стороны, поднимает ряд этических вопросов, связанных с автономией программ, приватностью данных и возможными ошибками в работе искусственного интеллекта.

Одним из центральных аспектов этической проблематики искусственного интеллекта является вопрос соблюдения прав человека. Кроме того, важным аспектом является защита персональных данных. Искусственный интеллект, анализирующий огромные массивы информации, по мнению М.А. Бочанова, должен использоваться таким образом, чтобы не нарушать права на конфиденциальность и не создавать угрозы для личной безопасности

. Искусственный интеллект может использоваться для наблюдения и контроля, что порождает опасения касательно нарушения прав на конфиденциальность и личную жизнь. Примером может служить применение распознавания лиц в системах видеонаблюдения, что может вести к несанкционированному сбору личных данных без согласия индивидов.

Также обсуждается вопрос о природе правосубъектности интеллектуальных систем. В отличие от традиционных субъектов права, искусственный интеллект не обладает сознанием или волей в человеческом понимании, однако демонстрирует элементы автономного поведения. Это порождает дискуссии о необходимости разработки специальной категории «электронной личности» для целей правового регулирования.

Достаточно дискуссионным вопросом является проблема автономии и контроля над искусственным интеллектом. С развитием технологий возникают вопросы о степени независимости действий искусственного интеллекта и об ограничениях, которые должны быть наложены на его функции во избежание возможного ущерба.

Другая серьёзная проблема связана с ошибками и предвзятостью в алгоритмах искусственного интеллекта

,
,
. Искусственный интеллект, обученный на некорректно подобранных данных, может проявлять дискриминационное поведение, усиливая существующие в обществе неравенства и стереотипы. Это особенно опасно в таких областях, как предоставление кредитов, найм на работу или судебные решения, где предвзятость может иметь серьёзные последствия для жизни и благосостояния людей.

Указанная проблема напрямую связана с необходимостью создания социально справедливых систем, поскольку, по мнению таких исследователей, как Т.С. Мартыненко и Д.Е. Добринской, «проявления неравенства возможностей (ранжирование и система рейтингов, неравный доступ к информации и алгоритмической осведомленности) становятся механизмами воспроизводства социального неравенства, которые встречаются сегодня фактически во всех сферах общественной жизни»

. Очевидно, что разработка и внедрение искусственного интеллекта должны способствовать сокращению социального неравенства, а не усугублять его. Это требует разработки механизмов регулирования и контроля, которые будут способствовать равномерному распределению выгод от его использования.

Кроме того, важным аспектом, по мнению О.П. Лебедевой, является вопрос ответственности за действия, выполненные на основе рекомендаций искусственного интеллекта

. Определение степени ответственности за ошибки, будь то разработчики искусственного интеллекта, пользователи или сами алгоритмы, является предметом юридических и этических дискуссий. Например, автомобиль с активированным автопилотом попадает в аварию, в результате которой страдают пешеходы. Расследование показывает, что система не распознала пешехода из-за редкого сочетания погодных условий и нестандартной позы человека, а водитель не успел перехватить управление. Возникает закономерный вопрос о субъекте ответственности в данной ситуации.

Многие современные системы искусственного интеллекта, особенно на основе глубокого обучения, функционируют так, что даже их разработчики не всегда могут точно объяснить, как система пришла к конкретному решению. Это создает фундаментальную проблему для установления вины по традиционным правовым стандартам. Например, если алгоритм кредитного скоринга отклоняет заявку, нарушая законодательство о дискриминации, сложно определить, является ли это следствием предвзятого набора обучающих данных (ответственность разработчика), некорректной настройки параметров (ответственность оператора) или злонамеренного использования (ответственность пользователя). Это требует разработки новых нормативных актов, которые бы учитывали специфику искусственного интеллекта и его интеграцию в различные сферы жизнедеятельности. Классические доктрины гражданской и уголовной ответственности оказываются недостаточными в ситуациях, когда вред причиняется системами с элементами самообучения. Теория права предлагает различные модели распределения ответственности между разработчиками, операторами и пользователями искусственного интеллекта, однако единый подход пока не выработан.

Распределение ответственности между разработчиками, операторами и пользователями систем искусственного интеллекта представляет собой одну из наиболее сложных и актуальных правовых проблем современности. Традиционные правовые модели, основанные на принципах прямой причинно-следственной связи и четкого определения виновного лица, оказываются недостаточными в условиях, когда решения принимаются автономными системами. Ключевая сложность заключается в смешанной агентности, где человеческие и машинные действия переплетаются, создавая размытые границы ответственности.

Также необходимо учитывать возможные экономические последствия влияния искусственного интеллекта на рынок труда. Автоматизация может привести к значительному сокращению рабочих мест в некоторых секторах, что потребует создания новых подходов к образованию и переподготовке рабочей силы, чтобы люди могли успешно адаптироваться к изменениям в структуре трудоустройства.

Создание руководств и стандартов для обеспечения разработки и применения искусственного интеллекта в рамках этики становится все более значимым. Важное место в этом процессе занимает международное сотрудничество и разработка универсальных принципов, которые могут быть адаптированы и на национальном уровне. В контексте международной перспективы стоит заметить, что развитие искусственного интеллекта также требует международного сотрудничества. Глобальные стандарты и нормы могут помочь обеспечить устойчивое и этичное использование искусственного интеллекта технологий по всему миру, что снизит риски злоупотреблений и способствует гармонизации правовых подходов в различных странах.

В числе общих проблем, которые всегда были и есть в правовой науке, одной из важнейших является определение адекватной юридической техники, которая в строгом соответствии с объективными закономерностями общественной жизни, не допуская субъективизма, могла бы четко обозначить понятийный аппарат, предмет правового регулирования, систематизировать имеющийся массив законодательства в информационной сфере, объективно устраивающий всех субъектов права. Анализ рассматриваемого вопроса теоретико-правовых, этических основ регулирования искусственного интеллекта показывает, что исследование проблем и формирование адекватной юридической техники как нельзя кстати.

В собственно правовом регулировании вопросов искусственного интеллекта первые шаги в этом направлении уже сделаны. Так, в 2019 г. Президентом РФ был подписан Указ, утвердивший Национальную стратегию развития искусственного интеллекта на период до 2030 г.

, а в 2020 г. появилось распоряжение Правительства РФ, утвердившее Концепцию развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 г
. Сейчас на повестке дня, как считает группа ведущих исследователей в данной области, в частности Т.А. Полякова, А.В. Минбалеев, В.Б. Наумов, — законодательное регулирование и кодификация в форме Цифрового кодекса
. Как отмечают исследователи, что сегодня уже имеется первый мире Закон об искусственном интеллекте, разработанный и принятый Европейским парламентом.

При сравнительном анализе основных центров регулирования этики искусственного интеллекта можно выделить следующие аспекты: европейское законодательство акцентирует внимание на рисках и запрещённых практиках, что раскрывает определенное понимание уязвимости человеческой субъективности; американские исследования опираются на метод социального конструктивизма; китайское законодательство в данной сфере опирается на метод Фуко через анализ дискурсивных практик «национальной безопасности», «социалистических основных ценностей» и «технологического суверенитета».

Таким образом, этические проблемы в области искусственного интеллекта затрагивают множество аспектов. Решение данных вопросов требует всестороннего подхода, включая правовое регулирование, разработку этических норм и активное участие всех заинтересованных сторон. Такой подход обеспечит сбалансированное и этичное использование технологий искусственного интеллекта в будущем.

Искусственный интеллект становится всё более интегрированным в различные аспекты человеческой деятельности, от промышленности до личной жизни, что создаёт незаурядные возможности для науки, экономики и социального развития. Осознавая потенциал искусственного интеллекта, необходимо также отметить и вызовы, связанные с его развитием, требующие разработки соответствующих правовых и этических норм.

Перспективы развития искусственного интеллекта полны как вызовов, так и возможностей. Ответственное и продуманное регулирование может помочь максимизировать положительные эффекты этой технологии и минимизировать возможные негативные последствия, обеспечивая при этом соответствие действующим правовым и этическим и нормам.

4. Заключение

Теоретико-правовые основы этики искусственного интеллекта находятся в процессе становления и требуют комплексного подхода, сочетающего философские, юридические и технические аспекты. Только совместными усилиями государства, научного сообщества и бизнеса можно обеспечить устойчивое и этичное развитие технологий искусственного интеллекта, соответствующее интересам общества и принципам права. Можно констатировать, что этика искусственного интеллекта постепенно трансформируется из философской категории в предмет правового регулирования. Однако правовая трансформация общественных отношений, динамика технологий, опережает формирование доктринальных основ. Теории права предстоит решить, возможно ли адаптировать многие традиционные конструкции (субъекты, объекты, вина, договор, ответственность) к реалиям искусственного интеллекта или потребуется создание принципиально новой парадигмы.

Метрика статьи

Просмотров:5
Скачиваний:0
Просмотры
Всего:
Просмотров:5