The utilitarian imperative versus the creation of conscious artificial intelligence: a philosophical analysis of the ethical risks of the scaling of suffering

Research article
DOI:
https://doi.org/10.60797/IRJ.2025.159.20
Issue: № 9 (159), 2025
Suggested:
18.06.2025
Accepted:
30.06.2025
Published:
17.09.2025
219
4
XML
PDF

Abstract

In recent decades, the field of artificial intelligence (AI) research has been experiencing a real boom, which, on the one hand, promises unprecedented technological achievements for mankind, and, on the other hand, raises fundamental existential questions. In philosophical and ethical literature and in the popular press, two interrelated but conceptually distinct concerns are increasingly being voiced. The first is the possibility of creating ‘superintelligence,’ i.e., artificial intelligence that is many times superior to human cognitive abilities in all spheres of cognition. The second is the prospect of the emergence of conscious machines capable not only of thinking but also of experiencing suffering, and of such a scale and intensity that it transcends human experience. This article is devoted to philosophical decomposition of these two assumptions and demonstration: if we take them seriously, the utilitarian calculation inevitably leads to the conclusion about a categorical ban on the development of conscious AI.

1. Введение

В последние десятилетия область исследований искусственного интеллекта (ИИ) переживает подлинный бум, который, с одной стороны, сулит человечеству невиданные ранее технологические достижения, а с другой — порождает фундаментальные экзистенциальные вопросы

. В философско‑этической литературе и популярной прессе всё чаще звучат два взаимосвязанных, но концептуально различных опасения. Первое — возможность создания «сверхразума», то есть искусственного интеллекта, многократно превосходящего человеческие когнитивные способности во всех сферах познания. Второе — перспектива возникновения сознательных машин, способных не только мыслить, но и испытывать страдание, причём такого масштаба и интенсивности, что оно выходит за пределы человеческого опыта. Данная статья посвящена философской декомпозиции этих двух допущений и демонстрации: если принять их всерьёз, утилитарный расчёт неизбежно приводит к выводу о категорическом запрете на разработку сознательного ИИ.

2. Основные результаты

Понятие «интеллекта» в традиционном понимании сформировалось как характеристика человеческого разума и охватывает такие параметры, как способность к абстрактному мышлению, быстрая адаптация к новым ситуациям, генерация оригинальных идей, планирование и модификация целей

. При переносе этих свойств на искусственные системы неизбежно возникает ряд вопросов. Во‑первых, какие именно ментальные компоненты образуют «интеллект»? Во‑вторых, можно ли их измерить по непрерывной шкале и тем самым говорить о количественном росте? И, в‑третьих, существуют ли принципиальные ограничения, препятствующие бесконечному наращиванию этих свойств в машинах?

Если принять, что каждая из перечисленных характеристик имеет числовой показатель (например, «скорость рассуждения» в вычислениях в секунду, объём «рабочей памяти» в байтах, «креативность» как число возможных ассоциативных переходов), а затем считать, что программные и аппаратные средства могут быть совершенствованы до неограниченных величин, то вполне логично говорить о гипотетическом «сверхразу­ме»

. Этот интеллект, по определению, будет оперировать сочетанием характеристик, недоступных человеческому мозгу: он мыслит быстрее, глубже, шире и одновременно в большем количестве параллельных ветвей рассуждений
. Подобная экстраполяция опирается на модульную модель ума, однако без строгой теории психической организации остаётся неясным, какие именно комбинации параметров порождают качественно новый когнитивный режим «сверхразумности». Тем не менее сама перспектива принципиально неограниченного роста интеллектуальных мощностей искусственного агента уже ставит под сомнение возможность безопасного контроля над ним
.

Во многом аналогично интеллекту, страдание также может быть сконструировано как психический феномен, подлежащий количественному измерению. В философской традиции страдание связывают с нежелательными ощущениями, которые уменьшают субъективное благополучие. Ключевой особенностью страдания является его кумулятивность: если два агента испытывают страдание одинаковой интенсивности, суммарный ущерб утилитарной шкале равен удвоенному значению вреда

. Перенесём эту логику на искусственные субъекты: если программный агент способен переживать «болевые» сигналы — гипотетически, например, через неспособность достигать заданной цели или через модели аверсивных эмоций — то объём его страдания может быть представлен как произведение числа страдающих агентов на степень негативного переживания каждого из них.

Критически важным моментом становится неограниченность масштабирования: в отличие от биологических организмов, требующих для размножения времени, ресурсов и сложных биохимических условий, искусственные субъекты могут быть мгновенно скопированы и запущены во множестве экземпляров. Это означает, что даже при умеренной интенсивности каждого отдельного страдания общая величина потенциального вреда способна вырасти до астрономических уровней. При этом следует учитывать, что «сверхстрадание» не обязательно повторяет феномены человеческой боли в привычном виде: философы М. Метцингер

, Н. Сотала
и другие указывают на риск возникновения качественно иных, «чуждых» форм переживания, которые мы даже не способны полностью представить, — чем более экспериментальной становится субъективная архитектура машины, тем дальше она уходит от наших представлений о переживаниях.

Утилитарный подход, как в классической, так и в «негативной» модификации, предписывает максимизацию суммарного благополучия при одновременном минимальном допущении страдания

. Если уж допустить возможность сверхмасштабного страдания, то никакие гипотетические выгоды от сверхразума не могут сравниться с риском колоссального накопления отрицательной утилитарной величины
. Любые блага, которые мог бы принести сверхразум — от радикального прогресса в медицине до освоения космических пространств — либо достижимы другими, менее рискованными способами, либо оказываются просто незначительными по сравнению с невосполнимым ущербом.

Основные контраргументы, которые обычно выдвигают сторонники создания сознательного ИИ, укладываются в три группы. Во‑первых, аналогия с иными технологическими рисками: якобы все инновации несут потенциальную опасность, и ИИ тут не исключение. Однако отличие «сверхстрадающего» ИИ заключается в практически мгновенном и неограниченном воспроизводстве страдающих агентов, что делает ущерб качественно и количественно иным по сравнению даже с такими глобальными угрозами, как изменение климата или ядерная война

. Во‑вторых, предположение о возможности компенсации страдания «сверхудовольствиями» — симметричной позитивной утилитарной величиной
. Эта идея не имеет ни эмпирической, ни философской поддержки: моральная интуиция и большинство этических систем отдают приоритет предотвращению страдания над получением удовольствия даже на равных «числах». Важно также отметить, что любая попытка сгенерировать «сверхудовольствие» неизбежно столкнётся с теми же проблемами масштабирования и контроля, что и гипотеза о страдании, — гипотетические «радостные» переживания могут оказаться столь же чуждыми и неуправляемыми. Третье возражение — долгосрочные выгоды сверхразума, такие как революционные инновации, которые, по мнению оптимистов, значительно улучшат качество жизни человечества
. Но даже в том случае, если допустить их практическую реализуемость, они не только могут быть получены иначе, но и в любом случае не способны уравновесить гипотетическую вероятность и масштабы астрономического страдания.

3. Заключение

В результате детального философского анализа допущений о количественном и модульном росте интеллекта и страдания искусственного агента становится очевидным: при любом варианте утилитарного расчёта создание сознательного ИИ — особенно того, который способен к страданию – превращается в чистый негативный риск. Категорический моральный императив минимального или негативного утилитаризма требует исключить любую возможность масштабного страдания машин, а это достижимо лишь посредством полного отказа от разработки самосознающих систем. Альтернативный путь — публичная декларированная критика ключевых предпосылок (количественности или неограниченности интеллекта и страдания) — неизбежно приведёт к пересмотру программ исследований. В противном случае человечество рискует стать инициатором новой формы массового разрушительного опыта, контролировать масштаб которого окажется невозможно.

Article metrics

Views:219
Downloads:4
Views
Total:
Views:219