<?xml version="1.0" encoding="UTF-8"?>
    <!DOCTYPE article PUBLIC "-//NLM/DTD JATS (Z39.96) Journal Publishing DTD v1.2 20120330//EN" "http://jats.nlm.nih.gov/publishing/1.2/JATS-journalpublishing1.dtd">
    <!--<?xml-stylesheet type="text/xsl" href="article.xsl">-->
<article xmlns:ns0="http://www.w3.org/1999/xlink" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" article-type="research-article" dtd-version="1.2" xml:lang="en">
	<front>
		<journal-meta>
			<journal-id journal-id-type="issn">2303-9868</journal-id>
			<journal-id journal-id-type="eissn">2227-6017</journal-id>
			<journal-title-group>
				<journal-title>Международный научно-исследовательский журнал</journal-title>
			</journal-title-group>
			<issn pub-type="epub">2303-9868</issn>
			<publisher>
				<publisher-name>ООО Цифра</publisher-name>
			</publisher>
		</journal-meta>
		<article-meta>
			<article-id pub-id-type="doi">10.60797/IRJ.2025.160.34</article-id>
			<article-categories>
				<subj-group>
					<subject>Brief communication</subject>
				</subj-group>
			</article-categories>
			<title-group>
				<article-title>Использование сверточных нейронных сетей для удаления шума и восстановления изображений в медицинской и телеметрической практике</article-title>
			</title-group>
			<contrib-group>
				<contrib contrib-type="author" corresp="yes">
					<contrib-id contrib-id-type="orcid">https://orcid.org/0009-0007-6657-1630</contrib-id>
					<name>
						<surname>Набатов</surname>
						<given-names>Нуржан Нурбулатович</given-names>
					</name>
					<email>mai@nabatovnn.ru</email>
					<xref ref-type="aff" rid="aff-2">2</xref>
				</contrib>
				<contrib contrib-type="author">
					<contrib-id contrib-id-type="orcid">https://orcid.org/0009-0003-3989-1189</contrib-id>
					<name>
						<surname>Ерачина</surname>
						<given-names>Сабинур Муратовна</given-names>
					</name>
					<email>spandsabimur@gmail.com</email>
					<xref ref-type="aff" rid="aff-1">1</xref>
				</contrib>
			</contrib-group>
			<aff id="aff-1">
				<label>1</label>
				<institution>Московский авиационный институт (национальный исследовательский университет)</institution>
			</aff>
			<aff id="aff-2">
				<label>2</label>
				<institution>Байконурский филиал Московского авиационного института (национального исследовательского университета)</institution>
			</aff>
			<pub-date publication-format="electronic" date-type="pub" iso-8601-date="2025-10-17">
				<day>17</day>
				<month>10</month>
				<year>2025</year>
			</pub-date>
			<pub-date pub-type="collection">
				<year>2025</year>
			</pub-date>
			<volume>14</volume>
			<issue>160</issue>
			<fpage>1</fpage>
			<lpage>14</lpage>
			<history>
				<date date-type="received" iso-8601-date="2025-09-05">
					<day>05</day>
					<month>09</month>
					<year>2025</year>
				</date>
				<date date-type="accepted" iso-8601-date="2025-10-14">
					<day>14</day>
					<month>10</month>
					<year>2025</year>
				</date>
			</history>
			<permissions>
				<copyright-statement>Copyright: &amp;#x00A9; 2022 The Author(s)</copyright-statement>
				<copyright-year>2022</copyright-year>
				<license license-type="open-access" xlink:href="http://creativecommons.org/licenses/by/4.0/">
					<license-p>
						This is an open-access article distributed under the terms of the Creative Commons Attribution 4.0 International License (CC-BY 4.0), which permits unrestricted use, distribution, and reproduction in any medium, provided the original author and source are credited. See 
						<uri xlink:href="http://creativecommons.org/licenses/by/4.0/">http://creativecommons.org/licenses/by/4.0/</uri>
					</license-p>
					.
				</license>
			</permissions>
			<self-uri xlink:href="https://research-journal.org/archive/10-160-2025-october/10.60797/IRJ.2025.160.34"/>
			<abstract>
				<p>В статье рассматривается задача удаления шума и восстановления изображений в медицинской и телеметрической практике. Целью исследования является разработка метода фильтрации зашумленных данных на основе сверточного автоэнкодера, позволяющего повысить качество визуальной информации. В работе проведён сравнительный анализ традиционных методов обработки изображений и современных нейросетевых подходов. В экспериментальной части использованы наборы микроскопических изображений и данные бортовой системы видеоконтроля (БСВК) ракеты-носителя. Предложенная архитектура автоэнкодера продемонстрировала преимущество по метрикам PSNR и SSIM по сравнению с классическими алгоритмами фильтрации. Научная новизна работы заключается в том, что впервые сверточный автоэнкодер применён одновременно к задаче фильтрации медицинских изображений и данных БСВК в единой постановке. Практическая значимость исследования состоит в возможности использования предложенного подхода для повышения достоверности телеметрической информации и качества диагностических изображений.</p>
			</abstract>
			<kwd-group>
				<kwd>обработка изображений</kwd>
				<kwd> удаление шума</kwd>
				<kwd> автоэнкодер</kwd>
				<kwd> глубокое обучение</kwd>
				<kwd> телеметрия</kwd>
				<kwd> медицинская визуализация</kwd>
				<kwd> PSNR</kwd>
				<kwd> SSIM</kwd>
			</kwd-group>
		</article-meta>
	</front>
	<body>
		<sec>
			<title>HTML-content</title>
			<p>1. Введение</p>
			<p>В последние десятилетия наблюдается устойчивый рост интереса к методам цифровой обработки изображений, обусловленный широким спектром их применения: от медицинской диагностики до промышленного контроля качества и обработки телеметрических данных с космических аппаратов. Качество изображений напрямую влияет на точность последующего анализа и принятие решений, что делает задачу восстановления изображений, в частности устранения шума, актуальной и практически значимой.</p>
			<p>Шум в изображениях представляет собой нежелательное искажение визуальной информации, возникающее как в процессе формирования изображения (например, вследствие ограничений чувствительности сенсоров, квантовых флуктуаций и оптических аберраций), так и на этапах его передачи, хранения и реконструкции. В зависимости от физических и технических факторов, шум может носить гауссовский, импульсный, мультипликативный или комбинированный характер. Присутствие шума затрудняет интерпретацию изображений как специалистами, так и автоматизированными системами анализа, особенно в случаях, требующих высокой пространственной точности и сохранения тонких структурных элементов.</p>
			<p>Существующие классические методы подавления шума, включая линейные и нелинейные фильтры (фильтр Гаусса, медианный фильтр, фильтр Винера и др.), обеспечивают определённый уровень устранения шумов, однако зачастую сопровождаются утратой пространственной детализации, нарушением структурной целостности изображения и введением артефактов [6]. Указанные ограничения особенно критичны при работе с медицинскими и телеметрическими изображениями, где важна не только высокая степень шумоподавления, но и сохранение анатомических или технически значимых особенностей изображения.</p>
			<p>В контексте указанных ограничений перспективным направлением представляется использование методов глубинного обучения, в частности — сверточных нейронных сетей (CNN), демонстрирующих высокую способность к аппроксимации сложных нелинейных зависимостей и автоматическому извлечению признаков. Обучение нейросетевых моделей на парах зашумленных и эталонных изображений позволяет формировать устойчивые аппроксиматоры, способные восстанавливать оригинальное изображение даже при наличии выраженных искажений [10]. Среди эффективных архитектур, применяемых для решения задач восстановления изображений, особое внимание уделяется автоэнкодерам, U-Net и их модификациям, отличающимся высокой точностью реконструкции, модульностью и возможностью масштабирования.</p>
			<p>Применение нейросетевых подходов к задаче шумоподавления обладает рядом преимуществ: во-первых, такие модели адаптируются к статистике конкретных типов шума и особенностям визуального содержания; во-вторых, они демонстрируют способность к обобщению на новые типы данных при наличии ограниченного обучающего множества; в-третьих, обеспечивают высокое качество восстановления, превосходящее традиционные алгоритмы по объективным метрикам качества, таким как PSNR (Peak Signal-to-Noise Ratio), SSIM (Structural Similarity Index Measure) и MSE (Mean Squared Error).</p>
			<p>Важным аспектом, требующим отдельного рассмотрения, является интерпретируемость нейросетевых решений, особенно в медицинских и аэрокосмических приложениях, где непредсказуемое поведение модели может привести к искажённым выводам. В связи с этим особую актуальность приобретает исследование устойчивости нейросетевых моделей к изменениям характеристик входных данных, а также разработка архитектур, обеспечивающих прозрачность и воспроизводимость результатов.</p>
			<p>Настоящее исследование направлено на обоснование эффективности использования нейронных сетей для задач подавления шумов и восстановления изображений в прикладных контекстах медицины и телеметрии. В работе производится анализ архитектурных особенностей различных типов нейросетей (включая автоэнкодеры и U-Net), осуществляется обучение моделей на синтетических и реалистичных датасетах, имитирующих различные типы шумов и искажений, и проводится их сравнение с классическими алгоритмами фильтрации [4]. Эффективность рассматриваемых решений оценивается с использованием стандартных метрик качества восстановления и анализируется с позиций их применимости в условиях реальных задач — например, в автоматизированной обработке микроскопических медицинских изображений или телеметрических снимков с борта космических аппаратов.</p>
			<p>Таким образом, использование сверточных нейронных сетей в задачах шумоподавления представляет собой научно обоснованный и технически эффективный подход, позволяющий обеспечить высокую точность восстановления изображений при сохранении их информативной структуры. Результаты настоящей работы вносят вклад в развитие интеллектуальных систем визуального анализа и могут быть использованы при проектировании прикладных решений в области медицинской диагностики, аэрокосмического мониторинга и смежных дисциплин.</p>
			<p>2. Традиционные и нейросетевые методы удаления шума</p>
			<p>Удаление шума (денойзинг) является одной из важнейших задач цифровой обработки изображений, особенно в тех случаях, когда от качества изображения зависит корректность последующего анализа. Шум может существенно снижать информативность изображения, затруднять распознавание объектов, ухудшать визуальное восприятие и мешать автоматизированной обработке. Это особенно критично в таких областях, как медицинская диагностика, биомедицинская визуализация, дистанционное зондирование Земли, а также в телеметрических и научных изображениях, полученных в условиях высокой чувствительности и низкой освещённости.</p>
			<p>Характер шума может варьироваться в зависимости от источника его возникновения. Наиболее распространёнными являются следующие типы:</p>
			<p>- Гауссовский шум, моделирующий случайные отклонения яркости, возникающие из-за тепловых и электронных колебаний.</p>
			<p>- Импульсный шум («соль и перец»), возникающий при передаче данных или неисправности сенсора.</p>
			<p>- Шум Пуассона, характерный для изображений при низкой освещённости и в медицинской визуализации.</p>
			<p>- Мультипликативный шум, часто встречающийся в радиолокационных и ультразвуковых изображениях.</p>
			<p>Существующие методы удаления шума можно разделить на две большие категории: традиционные (алгоритмические) и обучаемые (нейросетевые) [1].</p>
			<p>Традиционные методы</p>
			<p>Традиционные методы фильтрации изображений основываются на априорных предположениях о природе шума и структуре изображения. Они, как правило, не требуют предварительного обучения и применяются напрямую к входным данным. Ниже рассмотрены основные фильтры, применяемые для подавления различных типов шума.</p>
			<p>2.1.1. Гауссов фильтр</p>
			<p>Гауссов фильтр представляет собой линейную свёртку изображения с ядром, основанным на двумерной функции Гаусса:</p>
			<code>[LATEX_FORMULA]G(x,y) = (1/2пq^2)exp(-((x^2+y^2)/(2q^2)))[/LATEX_FORMULA]</code>
			<p>где G(x,y) —  </p>
			<p>q — </p>
			<p>x,y — координаты пикселей относительно центра окна фильтра.</p>
			<p>Фильтр эффективно подавляет аддитивный гауссовский шум и мелкие флуктуации яркости за счёт усреднения значений пикселей с учётом их пространственной близости.</p>
			<p>Преимущества:</p>
			<p>- простота реализации и высокая скорость выполнения;</p>
			<p>- хорошо подавляет равномерный шум при относительно слабом размывании.</p>
			<p>Недостатки:</p>
			<p>- размывает границы и тонкие структуры;</p>
			<p>- неэффективен при наличии импульсного шума.</p>
			<p>2.1.2. Медианный фильтр</p>
			<p>Вместо среднего значения пикселя в окрестности используется медиана, то есть центральное значение отсортированного по яркости списка соседей.</p>
			<p>Эффективен для устранения импульсного шума, при котором отдельные пиксели резко отличаются по яркости от окружения.</p>
			<p>Преимущества:</p>
			<p>- сохраняет резкие границы объектов;</p>
			<p>- не приводит к смещению значений, как это происходит при усреднении.</p>
			<p>Недостатки:</p>
			<p>- меньшая эффективность при гауссовском или комплексном шуме;</p>
			<p>- при увеличении окна может исказить структуру изображения.</p>
			<p>2.1.3. Фильтр Винера (Wiener filter)</p>
			<p>Является адаптивным фильтром, основанным на оценке локальной дисперсии и среднего значения. Предполагается, что сигнал и шум можно статистически различить. Осуществляется частотная фильтрация с подавлением частот, на которых преобладает шум.</p>
			<p>Формула фильтра Винера в частотной области:</p>
			<code>[LATEX_FORMULA]H(u,v) = (S(u,v))/(S(u,v)+N(u,v))[/LATEX_FORMULA]</code>
			<p>где H(u,v) — частотная </p>
			<p>S(u,v) </p>
			<p>— </p>
			<p>N(u,v) </p>
			<p>—  </p>
			<p>u,v — </p>
			<p>Предназначен для уменьшения шума при сохранении резкости. Особенно эффективен при известной спектральной плотности шума.</p>
			<p>Преимущества:</p>
			<p>- адаптивность к локальным условиям изображения;</p>
			<p>- улучшение как шума, так и размытости (дефокусировки).</p>
			<p>Недостатки:</p>
			<p>- требует предварительной оценки шума и сигнала;</p>
			<p>- может усиливать артефакты при неправильных параметрах.</p>
			<p>2.1.4. Билатеральный фильтр (Bilateral filter)</p>
			<p>Фильтр сочетает два весовых коэффициента: пространственный и радиометрический (по яркости):</p>
			<code>[LATEX_FORMULA]I^`(x) = 1/W(c) ∑_i∈_b I(i)exp(-(||(x-i)||^2)/2q^2_s)-(-(||I(x)-I(i)||^2)/2q^2_r))[/LATEX_FORMULA]</code>
			<p>, где </p>
			<p>I^'(x) — новая (отфильтрованная) интенсивность;</p>
			<p>W — коэффициент нормализации (сумма весов);</p>
			<p>b — окрестность пикселя;</p>
			<p>q_s и q_r  управляют пространственным и яркостным сглаживанием соответственно .</p>
			<p>Сохраняет контуры и границы при сглаживании текстур. Подходит для изображений с переменным уровнем шума.</p>
			<p>Преимущества:</p>
			<p>- эффективен для устранения мелких флуктуаций при сохранении краёв;</p>
			<p>- адаптивен к содержанию изображения.</p>
			<p>Недостатки:</p>
			<p>- вычислительно затратен;</p>
			<p>- неустойчив к сильному шуму.</p>
			<p>2.1.5. Нелокальные методы: Non-Local Means (NLM)</p>
			<p>NLM-фильтр заменяет значение пикселя усреднённым значением других пикселей, находящихся в изображении, вес которых зависит от схожести их окрестностей, а не только от пространственной близости:</p>
			<code>[LATEX_FORMULA]I^`(x) = ∑_i∈_b w(x,y)I(y)[/LATEX_FORMULA]</code>
			<p>где </p>
			<p>I^'(x) — новая (взвешенная) интенсивность;</p>
			<p>w(x,y) — вес, зависящий от сходства окрестностей вокруг пикселей xxx и yyy (чем похожее окружение, тем выше вес);</p>
			<p>b — множество пикселей всего изображения или выбранного окна.</p>
			<p>Предназначен для высокоточного шумоподавления без потери деталей. Особенно эффективен на текстурированных и повторяющихся структурах.</p>
			<p>Преимущества:</p>
			<p>- отлично сохраняет структуру и детали;</p>
			<p>- работает на основе глобального контекста изображения.</p>
			<p>Недостатки:</p>
			<p>- очень высокая вычислительная сложность;</p>
			<p>- медленная работа на больших изображениях без оптимизации.</p>
			<p>Таким образом, в таблице 1 представлено обобщение по фильтрам, которые применяются для различных типов шумов.</p>
			<table-wrap id="T1">
				<label>Table 1</label>
				<caption>
					<p>Обобщение по традиционным фильтрам</p>
				</caption>
				<table>
					<tr>
						<td>​№ п/п</td>
						<td>Метод</td>
						<td>Эффективен против шума</td>
						<td>Сохраняет детали</td>
						<td>Вычисления</td>
						<td>Примечание</td>
					</tr>
					<tr>
						<td>​1</td>
						<td>Гауссов фильтр</td>
						<td>Гауссовский</td>
						<td>Частично</td>
						<td>Быстрый</td>
						<td>Универсальное сглаживание</td>
					</tr>
					<tr>
						<td>​2</td>
						<td>Медианный фильтр</td>
						<td>Импульсный</td>
						<td>Хорошо</td>
						<td>Быстрый</td>
						<td>Предобработка, диагностика</td>
					</tr>
					<tr>
						<td>​3</td>
						<td>Фильтр Винера</td>
						<td>Гаусс, размытость</td>
						<td>Средне</td>
						<td>Средний</td>
						<td>Частотная фильтрация, восстановление фокуса</td>
					</tr>
					<tr>
						<td>​4</td>
						<td>Билатеральный фильтр</td>
						<td>Гаусс, слабый шум</td>
						<td>Хорошо</td>
						<td>Средний</td>
						<td>Медицинские изображения, HDR</td>
					</tr>
					<tr>
						<td>​5</td>
						<td>Нелокальные методы</td>
						<td>Разнотипный</td>
						<td>Очень хорошо</td>
						<td>Дорогой</td>
						<td>Критичные задачи (медицина, наука)</td>
					</tr>
				</table>
			</table-wrap>
			<p>Хотя классические методы остаются актуальными благодаря своей интерпретируемости и простоте, они часто демонстрируют ограниченные возможности при работе с реальными изображениями, где шум имеет сложную и неоднородную структуру. Кроме того, их параметры обычно подбираются вручную и не адаптируются к особенностям конкретного изображения.</p>
			<p>Обучаемые (нейросетевые) методы</p>
			<p>Современные достижения в области машинного обучения и компьютерного зрения способствовали широкому распространению нейросетевых подходов к обработке изображений. В частности, нейросетевые методы продемонстрировали высокую эффективность в задаче подавления шума, особенно в случаях, когда традиционные фильтры теряют точность или создают нежелательные искажения. Благодаря способности обучаться на больших выборках данных, такие модели могут учитывать сложные нелинейные зависимости и адаптироваться к различным видам шумов, сохраняя при этом важные детали изображения.</p>
			<p>1. Сверточные нейронные сети (CNN) для удаления шума</p>
			<p>Сверточные нейронные сети (Convolutional Neural Networks, CNN) являются основным инструментом для анализа изображений в нейросетевых архитектурах [12]. Их ключевая особенность — способность автоматически извлекать пространственные признаки с помощью обучаемых свёрточных фильтров. В задаче денойзинга CNN обучаются преобразовывать зашумлённое изображение в его «чистую» версию.</p>
			<p>Примеры архитектур:</p>
			<p>- DnCNN (Denoising Convolutional Neural Network) — одна из первых глубоко сверточных моделей для подавления шума (использует несколько сверточных слоёв с batch normalization и ReLU, а обучается предсказывать не само изображение, а остаток шума, который затем вычитается);</p>
			<p>- FFDNet — улучшенная архитектура, принимающая уровень шума как входной параметр, что позволяет фильтровать изображения с переменным уровнем зашумлённости;</p>
			<p>- RED-Net (Residual Encoder-Decoder Network) — использует симметричную структуру автоэнкодера с прямыми остаточными связями между слоями кодировщика и декодировщика.</p>
			<p>2. Автоэнкодеры</p>
			<p>Автоэнкодеры — это тип нейронной сети, обучающийся восстанавливать входные данные через узкое «бутылочное горлышко» (сжатое представление). В задаче удаления шума используется денойзинг-автоэнкодер (Denoising Autoencoder), который принимает зашумлённое изображение на вход и обучается восстанавливать исходное (чистое) изображение на выходе.</p>
			<p>Особенности:</p>
			<p>- простота архитектуры;</p>
			<p>- хорошо работают с ограниченным числом типов шума.</p>
			<p>Но в силу своих особенностей также ограничены в способности к генерализации на более сложные случаи без дополнительных компонентов.</p>
			<p>3. Архитектура U-Net</p>
			<p>Изначально предложенная для задач биомедицинской сегментации, архитектура U-Net зарекомендовала себя и в задачах денойзинга. Её структура состоит из симметричного кодировщика и декодировщика, объединённых пропусками между соответствующими слоями. Это позволяет эффективно восстанавливать детали изображения, особенно при слабом сигнале.</p>
			<p>Преимущества U-Net:</p>
			<p>- сохраняет пространственные признаки даже при сильной компрессии;</p>
			<p>- отлично справляется с текстурными и контурными структурами;</p>
			<p>- подходит для малошумных и сильно зашумлённых изображений.</p>
			<p>4. GAN для удаления шума</p>
			<p>Генеративно-состязательные сети (GAN) используются не только для генерации изображений, но и для улучшения их качества. В контексте денойзинга применяется подход, при котором генератор создаёт очищенное изображение, а дискриминатор определяет, насколько оно «реалистично».</p>
			<p>Примеры:</p>
			<p>Noise2Noise, Noise2Void, Noise2Self — архитектуры, обучающиеся без чистых эталонных изображений, что особенно полезно в медицине и астрофизике, где чистые данные получить трудно.</p>
			<p>Плюсы:</p>
			<p>- GAN-сети способны создавать фотореалистичные результаты.</p>
			<p>- могут обобщать сложные текстуры и шумовые характеристики.</p>
			<p>Минусы:</p>
			<p>- трудны в обучении;</p>
			<p>- подвержены нестабильности и эффекту «галлюцинаций» (генерации деталей, которых изначально не было).</p>
			<p>5. Transformer-базированные архитектуры</p>
			<p>В последние годы получили распространение визуальные трансформеры (ViT) и гибридные модели, сочетающие CNN и self-attention. Их преимущество — способность учитывать глобальный контекст изображения.</p>
			<p>Примеры:</p>
			<p>Restormer — модель, использующая модифицированный self-attention для восстановления изображений с шумами и артефактами.</p>
			<p>Uformer — гибридный денойзер, объединяющий свёртки и трансформеры.</p>
			<p>В таблице 2 представлено сравнение нейросетевых подходов в обработке изображений.</p>
			<table-wrap id="T2">
				<label>Table 2</label>
				<caption>
					<p>Сравнение нейросетевых подходов</p>
				</caption>
				<table>
					<tr>
						<td>​№ п/п</td>
						<td>​Метод</td>
						<td>​Преимущества</td>
						<td>​Недостатки</td>
						<td>​Применение</td>
					</tr>
					<tr>
						<td>​1</td>
						<td>DnCNN</td>
						<td>Высокая точность, простота</td>
						<td>Требует чистых пар изображений</td>
						<td>Универсальный денойзинг</td>
					</tr>
					<tr>
						<td>​2</td>
						<td>Autoencoder</td>
						<td>Быстрая и лёгкая реализация</td>
						<td>Ограниченная гибкость</td>
						<td>Простые задачи фильтрации</td>
					</tr>
					<tr>
						<td>​3</td>
						<td>U-Net</td>
						<td>Отличное восстановление деталей</td>
						<td>Большой размер модели</td>
						<td>Медицинские и спутниковые снимки</td>
					</tr>
					<tr>
						<td>​4</td>
						<td>GAN</td>
						<td>Реалистичные результаты</td>
						<td>Трудность обучения</td>
						<td>Эстетическая обработка, восстановление</td>
					</tr>
					<tr>
						<td>​5</td>
						<td>Transformers</td>
						<td>Учёт глобального контекста</td>
						<td>Высокая вычислительная нагрузка</td>
						<td>Критические и шумные данные</td>
					</tr>
				</table>
			</table-wrap>
			<p>Преимущества нейросетевых методов заключаются в их способности адаптироваться к структуре шума и эффективно работать в условиях слабоконтрастных и сильно искажённых изображений. Однако такие методы требуют значительных вычислительных ресурсов, наличия обучающей выборки и тщательной настройки архитектуры [5].</p>
			<p>3. Сверточный автоэнкодер</p>
			<p>Для решения задачи удаления шума и восстановления изображений в данной работе предлагается использовать сверточный автоэнкодер. Данный класс нейросетевых архитектур сочетает преимущества сверточных сетей в извлечении пространственных признаков и автоэнкодеров в сжатии и восстановлении информации.</p>
			<p>Архитектура модели включает два основных компонента [3]:</p>
			<p>- Кодировщик (encoder) — последовательно применяет свёрточные слои с функцией активации ReLU и операции субдискретизации (max pooling), формируя компактное представление входного изображения. Его задача заключается в выделении ключевых признаков изображения при одновременном снижении размерности данных.</p>
			<p>- Декодировщик (decoder) — симметричная часть сети, восстанавливающая изображение из сжатого представления. Для увеличения пространственного разрешения применяются операции upsampling или транспонированные свёртки (deconvolution).</p>
			<p>- Код (Latent space / Bottleneck) — центральный слой («бутылочное горлышко»), содержащий сжатое представление входных данных. На этом уровне сохраняется только наиболее существенная информация, необходимая для восстановления исходного изображения.</p>
			<p>Схематично структура автоэнкодера представлена на рисунке 1 [2].</p>
			<fig id="F1">
				<label>Figure 1</label>
				<caption>
					<p>Структура автоэнкодера</p>
				</caption>
				<alt-text>Структура автоэнкодера</alt-text>
				<graphic ns0:href="/media/images/2025-09-05/3cb2f1f8-bfb0-4d8b-b0c0-19db9f9f0442.png"/>
			</fig>
			<p>Связи между слоями (показаны пунктирными линиями) отражают передачу признаков и параметров обучения. При этом каждая пара слоёв кодировщика и декодировщика симметрично связана, что обеспечивает корректное восстановление структуры изображения.</p>
			<p>Подробная структура предлагаемой архитектуры приведена в таблице 3.</p>
			<table-wrap id="T3">
				<label>Table 3</label>
				<caption>
					<p>Архитектура предложенного сверточного автоэнкодера</p>
				</caption>
				<table>
					<tr>
						<td>​Блок</td>
						<td>​Слой</td>
						<td>​Параметры</td>
						<td>​Размер выхода</td>
					</tr>
					<tr>
						<td>​Вход</td>
						<td>​Входной слой</td>
						<td>​128×128×1 (градации серого)</td>
						<td>​128×128×1</td>
					</tr>
					<tr>
						<td>​Кодировщик-1</td>
						<td>​Свёрточный слой + ReLU</td>
						<td>​32 фильтра, размер ядра 3×3, режим «same»</td>
						<td>​128×128×32</td>
					</tr>
					<tr>
						<td>​-</td>
						<td>​MaxPooling</td>
						<td>​окно 2×2</td>
						<td>​64×64×32</td>
					</tr>
					<tr>
						<td>​Кодировщик-2</td>
						<td>​Свёрточный слой + ReLU</td>
						<td>​64 фильтра, размер ядра 3×3</td>
						<td>​64×64×64</td>
					</tr>
					<tr>
						<td>​-</td>
						<td>​MaxPooling</td>
						<td>​окно 2×2</td>
						<td>​32×32×64</td>
					</tr>
					<tr>
						<td>​Узкое место (bottleneck)</td>
						<td>​Свёрточный слой + ReLU</td>
						<td>​128 фильтров, размер ядра 3×3</td>
						<td>​32×32×128</td>
					</tr>
					<tr>
						<td>​Декодировщик-1</td>
						<td>​Транспонированная свёртка + ReLU</td>
						<td>​64 фильтра, размер ядра 3×3, шаг 2</td>
						<td>​64×64×64</td>
					</tr>
					<tr>
						<td>​Декодировщик-2</td>
						<td>​Транспонированная свёртка + ReLU</td>
						<td>​32 фильтра, размер ядра 3×3, шаг 2</td>
						<td>​128×128×32</td>
					</tr>
					<tr>
						<td>​Выход</td>
						<td>​Свёрточный слой + Sigmoid</td>
						<td>​1 фильтр, размер ядра 3×3, режим «same»</td>
						<td>​128×128×1</td>
					</tr>
				</table>
			</table-wrap>
			<p>Архитектура реализована в среде PyTorch. В качестве функции активации использована ReLU во внутренних слоях и Sigmoid на выходе. Применялись методы регуляризации: Dropout (0,2) в узком месте и Batch Normalization после свёрточных слоёв. Для оптимизации обучения использован алгоритм Adam со скоростью обучения 1·10⁻³, инициализация весов выполнена по методу Xavier uniform.</p>
			<p>4. Экспериментальная часть</p>
			<p>Экспериментальные исследования направлены на проверку гипотезы о том, что использование сверточного автоэнкодера обеспечивает более высокое качество восстановления изображений по сравнению с традиционными методами фильтрации и рядом современных нейросетевых архитектур. Основными задачами эксперимента являются:</p>
			<p>- количественная оценка эффективности автоэнкодера при удалении различных типов шума;</p>
			<p>- сравнение результатов с классическими методами обработки (Гауссов фильтр, медианный фильтр, фильтр Винера, билатеральный фильтр, Non-Local Means);</p>
			<p>- сопоставление с современными архитектурами глубокого обучения (DnCNN, U-Net);</p>
			<p>- анализ применимости предложенного подхода к медицинским и телеметрическим данным.</p>
			<p>Для обеспечения воспроизводимости эксперимента параметры классических фильтров были зафиксированы в таблице 4.</p>
			<table-wrap id="T4">
				<label>Table 4</label>
				<caption>
					<p>Конфигурации классических методов фильтрации</p>
				</caption>
				<table>
					<tr>
						<td>​Метод</td>
						<td>​Установленные параметры</td>
					</tr>
					<tr>
						<td>​Гауссов фильтр</td>
						<td>​окно 5×5, σ = 1,0</td>
					</tr>
					<tr>
						<td>​Медианный фильтр</td>
						<td>​окно 3×3</td>
					</tr>
					<tr>
						<td>​Фильтр Винера</td>
						<td>​окно 5×5, оценка дисперсии шума σ² = 0,01</td>
					</tr>
					<tr>
						<td>​Билатеральный фильтр</td>
						<td>​радиус = 5, σₛ = 2, σᵣ = 0,1</td>
					</tr>
					<tr>
						<td>​Non-Local Means</td>
						<td>​размер патча 7×7, окно поиска 21×21, коэффициент сглаживания h = 10</td>
					</tr>
				</table>
			</table-wrap>
			<p>Основные параметры используемых нейросетевых моделей представлены в таблице 5.</p>
			<table-wrap id="T5">
				<label>Table 5</label>
				<caption>
					<p>Основные параметры сравниваемых нейросетевых моделей</p>
				</caption>
				<table>
					<tr>
						<td>​Модель</td>
						<td>​Архитектура</td>
						<td>​Характеристики обучения</td>
					</tr>
					<tr>
						<td>​DnCNN</td>
						<td>—</td>
						<td>​CIFAR-10 (40 тыс. обучающая выборка, 10 тыс. валидационная); Adam (lr = 1·10⁻³); 50 эпох</td>
					</tr>
					<tr>
						<td>​U-Net</td>
						<td>​4 блока кодировщика и 4 блока декодировщика; наличие skip-соединений; число фильтров: 32–64–128–256</td>
						<td>​CIFAR-10 и реальные данные; Adam (lr = 1·10⁻⁴); 60 эпох</td>
					</tr>
					<tr>
						<td>​Autoencoder (предложенный)</td>
						<td>​см. таблицу 3</td>
						<td>​CIFAR-10 и реальные данные; Adam (lr = 1·10⁻³); 80 эпох</td>
					</tr>
				</table>
			</table-wrap>
			<p>Для проведения экспериментов были использованы два типа данных:</p>
			<p>1. Синтетические наборы изображений:</p>
			<p>- набор CIFAR-10 (60 000 изображений 32×32),</p>
			<p>- дополнительно сформированный набор искусственно зашумлённых изображений стандартных тестовых картинок (Lena, Barbara, Cameraman, Peppers и др.).</p>
			<p>Для обучения использовалось 40 000 изображений, для валидации — 10 000 изображений, для тестирования — 10 000 изображений.</p>
			<p>2. Реальные данные:</p>
			<p>- 120 микроскопических изображений биологических образцов, предоставленных Бюро судебно-медицинской экспертизы г. Байконур;</p>
			<p>- 80 телеметрических кадров с бортовой системы видеоконтроля (БСВК) ракеты-носителя «Союз-2.1а», включая изображения при различных условиях освещённости и передачи.</p>
			<p>Все изображения были нормализованы до диапазона [0,1] и масштабированы до 128×128 пикселей.</p>
			<p>Предложенный автоэнкодер обучался на совокупности синтетических и реальных данных с использованием следующей конфигурации:</p>
			<p>- оптимизатор: Adam, скорость обучения 1e-3;</p>
			<p>- количество эпох: 80;</p>
			<p>- размер батча: 32;</p>
			<p>- функция потерь: среднеквадратическая ошибка (MSE);</p>
			<p>- аппаратная платформа: графический ускоритель NVIDIA RTX (8 ГБ).</p>
			<p>Для объективной оценки качества восстановления изображений использовались следующие показатели:</p>
			<p>- MSE (Mean Squared Error) — отражает среднюю квадратическую ошибку между эталонным и восстановленным изображением. Выбран как базовый критерий количественного сравнения.</p>
			<p>- PSNR (Peak Signal-to-Noise Ratio) — характеризует отношение мощности сигнала к мощности шума. Используется в задачах обработки изображений как стандартная метрика качества.</p>
			<p>- SSIM (Structural Similarity Index) — оценивает структурное сходство между изображениями с учётом яркости, контраста и текстурных особенностей. Включена в эксперимент, так как именно она наиболее полно соответствует восприятию изображений человеком.</p>
			<p>Таким образом, комбинация MSE, PSNR и SSIM позволяет комплексно оценить эффективность метода: от точности числового совпадения до сохранения визуальных и структурных характеристик.</p>
			<p>Для повышения достоверности результатов была проведена статистическая обработка экспериментальных данных.</p>
			<p>Пример усреднённых показателей и разброса значений (стандартное отклонение) приведён в таблице 6.</p>
			<table-wrap id="T6">
				<label>Table 6</label>
				<caption>
					<p>Средние значения и разброс метрик по тестовой выборке</p>
				</caption>
				<table>
					<tr>
						<td>Метод</td>
						<td>MSE (ср.)</td>
						<td>MSE (σ)</td>
						<td>PSNR (ср.)</td>
						<td>PSNR (σ)</td>
						<td>SSIM (ср.)</td>
						<td>SSIM (σ)</td>
					</tr>
					<tr>
						<td>Гауссов фильтр</td>
						<td>0,0152</td>
						<td>0,0021</td>
						<td>26,8</td>
						<td>1,4</td>
						<td>0,74</td>
						<td>0,05</td>
					</tr>
					<tr>
						<td>Медианный фильтр</td>
						<td>0,0129</td>
						<td>0,0019</td>
						<td>27,5</td>
						<td>1,2</td>
						<td>0,77</td>
						<td>0,04</td>
					</tr>
					<tr>
						<td>Фильтр Винера</td>
						<td>0,0108</td>
						<td>0,0017</td>
						<td>28,3</td>
						<td>1,0</td>
						<td>0,79</td>
						<td>0,03</td>
					</tr>
					<tr>
						<td>Non-Local Means</td>
						<td>0,0078</td>
						<td>0,0012</td>
						<td>30,4</td>
						<td>0,9</td>
						<td>0,85</td>
						<td>0,02</td>
					</tr>
					<tr>
						<td>U-Net</td>
						<td>0,0061</td>
						<td>0,0008</td>
						<td>32,1</td>
						<td>0,7</td>
						<td>0,90</td>
						<td>0,01</td>
					</tr>
					<tr>
						<td>втоэнкодер (CNN)</td>
						<td>0,0056</td>
						<td>0,0006</td>
						<td>32,7</td>
						<td>0,6</td>
						<td>0,91</td>
						<td>0,01</td>
					</tr>
				</table>
			</table-wrap>
			<p>Анализ таблицы показывает, что автоэнкодер демонстрирует не только минимальное среднее значение MSE, но и наименьшее стандартное отклонение по всем метрикам, что указывает на устойчивость модели к вариациям входных данных.</p>
			<p>Задача повышения качества изображений приобретает особую значимость в прикладных областях, связанных с обработкой телеметрических данных, получаемых с бортовых камер, а также микроскопических изображений, используемых в экспертной и медицинской практике. Кроме численных метрик, были получены визуальные результаты (рисунки 2 – 5), демонстрирующие восстановление изображений, поврежденных гауссовским и импульсным шумом.</p>
			<p>В рамках данного исследования в качестве источника реальных данных были использованы микроскопические изображения легких, предоставленные Бюро судебно-медицинской экспертизы г. Байконур (рисунки 2, 3). Визуальный анализ подтверждает, что предложенный автоэнкодер лучше сохраняет границы объектов и текстурные структуры по сравнению с традиционными фильтрами.</p>
			<p>На рисунках 2 и 3 изображены микроскопические снимки легких до и после фильтрации.</p>
			<fig id="F2">
				<label>Figure 2</label>
				<caption>
					<p>Изображение до фильтрации</p>
				</caption>
				<alt-text>Изображение до фильтрации</alt-text>
				<graphic ns0:href="/media/images/2025-09-05/3333b79c-c693-4ed1-999f-1aa82460b586.png"/>
			</fig>
			<fig id="F3">
				<label>Figure 3</label>
				<caption>
					<p>Изображение после фильтрации</p>
				</caption>
				<alt-text>Изображение после фильтрации</alt-text>
				<graphic ns0:href="/media/images/2025-09-05/efd9d805-5dd2-4f9a-b29f-8eba1e9147f5.png"/>
			</fig>
			<p>Бюро судебно-медицинской экспертизы (БСМЭ) представляет собой специализированное государственное учреждение, осуществляющее судебно-экспертную деятельность, включая морфологические исследования биологических образцов. В ходе повседневной работы эксперты учреждения регулярно анализируют микроскопические изображения, и достоверность их заключений во многом зависит от качества визуального материала.</p>
			<p>Однако на практике получаемые изображения часто характеризуются наличием различных искажений — шумов, размытости, пониженного контраста и других артефактов, обусловленных как техническими ограничениями микроскопического оборудования, так и условиями съёмки. Эти факторы затрудняют визуальную интерпретацию и автоматизированную обработку изображений, снижая точность диагностических и экспертных выводов.</p>
			<p>Помимо анализа качества восстановления микроскопических изображений, особый интерес представляет применение предложенного подхода к задачам обработки телеметрической информации. В частности, рассмотрен пример изображений, полученных с бортовой системы видеоконтроля (БСВК) ракетно-космического комплекса.</p>
			<p>Телеметрические кадры характеризуются низким уровнем сигнала, наличием различных видов шумов и искажений, обусловленных условиями передачи и особенностями аппаратуры. Эти факторы затрудняют последующую интерпретацию и могут приводить к потере критически важной информации о техническом состоянии ракеты-носителя.</p>
			<p>Применение сверточного автоэнкодера для фильтрации изображений БСВК позволяет не только уменьшить уровень шума, но и сохранить структурно значимые элементы изображения (контуры конструктивных узлов, мелкие детали), что существенно повышает достоверность анализа.</p>
			<p>На рисунках 4 и 5 представлены снимки с бортовой системы видеоконтроля (БСВК) ракеты-носителя «Союз – 2.1а», выполненные 28 апреля 2016 года. Рисунки соответственно до и после фильтрации. Видно, что предложенный метод обеспечивает подавление шума при одновременном сохранении информативного содержимого изображения.</p>
			<fig id="F4">
				<label>Figure 4</label>
				<caption>
					<p>Запуск РН «Союз – 2.1а» 28.04.2016. Кадр до обработки</p>
				</caption>
				<alt-text>Запуск РН «Союз – 2.1а» 28.04.2016. Кадр до обработки</alt-text>
				<graphic ns0:href="/media/images/2025-09-05/e5222288-f52e-4fb0-8898-6f67ea8fe6af.jpg"/>
			</fig>
			<fig id="F5">
				<label>Figure 5</label>
				<caption>
					<p>Кадр после обработки</p>
				</caption>
				<alt-text>Кадр после обработки</alt-text>
				<graphic ns0:href="/media/images/2025-09-05/75dca93e-5be9-4ce6-8939-557a1cac29c1.jpg"/>
			</fig>
			<p>5. Результаты и их анализ</p>
			<p>Для оценки качества фильтрации выбран метод среднеквадратической ошибки (MSE), который измеряет разницу между оригинальным и отфильтрованным изображением. Чем меньше значение MSE, тем лучше качество фильтрации.</p>
			<code>[LATEX_FORMULA]MSE = 1/N∑_1^N (I_ориг - I_фильтр,i)^2[/LATEX_FORMULA]</code>
			<p>где N — общее количество пикселей, I_ориг – интенсивность пикселя в оригинале, I_фильтр,i — интенсивность пикселя в обработанном изображении.</p>
			<p>Результаты оценки качества фильтрации представлены на рисунке 6.</p>
			<fig id="F6">
				<label>Figure 6</label>
				<caption>
					<p>Оценка качества фильтрации</p>
				</caption>
				<alt-text>Оценка качества фильтрации</alt-text>
				<graphic ns0:href="/media/images/2025-09-05/234c87c0-d31c-41e4-9ef2-93d5422e6a52.png"/>
			</fig>
			<p>Как видно, сверточный автоэнкодер показал наименьшие значения MSE при всех уровнях шума, что подтверждает его высокую эффективность в удалении шума и восстановлении изображений по сравнению с другими методами.</p>
			<p>Помимо метрик качества (MSE, PSNR, SSIM), оценивались временные ресурсы обучения и обработки изображений. Результаты приведены в таблице 7.</p>
			<table-wrap id="T7">
				<label>Table 7</label>
				<caption>
					<p>Временные ресурсы обучения и обработки изображений</p>
				</caption>
				<table>
					<tr>
						<td>​Модель</td>
						<td>​Число эпох</td>
						<td>Общее время обучения​ мин</td>
						<td>​Среднее время одной эпохи, мин</td>
						<td>​Среднее время обработки одного изображения (128×128 пикселей), мс</td>
					</tr>
					<tr>
						<td>​Autoencoder (предложенный)</td>
						<td>​80</td>
						<td>570</td>
						<td>​7</td>
						<td>​3,4</td>
					</tr>
					<tr>
						<td>​U-Net</td>
						<td>​60</td>
						<td>852</td>
						<td>​14</td>
						<td>​7,9</td>
					</tr>
					<tr>
						<td>​DnCNN</td>
						<td>​50</td>
						<td>468</td>
						<td>​9</td>
						<td>​5,1</td>
					</tr>
				</table>
			</table-wrap>
			<p>Сравнительный анализ временных характеристик показал, что предложенный сверточный автоэнкодер требует меньше времени на обучение и демонстрирует более быстрое время обработки изображений по сравнению с архитектурой U-Net. По сравнению с архитектурой DnCNN показал наилучшее среднее время обработки одного изображения. Таким образом, модель обладает не только высоким качеством восстановления, но и высокой вычислительной эффективностью, что особенно важно в задачах обработки телеметрических и медицинских изображений в условиях ограниченных ресурсов.</p>
			<p>6. Заключение</p>
			<p>В ходе исследования проведён анализ традиционных и современных методов удаления шума и восстановления изображений в задачах медицинской диагностики и обработки телеметрических данных. Рассмотрены основные алгоритмические подходы (Гауссов фильтр, медианный фильтр, фильтр Винера, билатеральный фильтр, метод Non-Local Means), а также архитектуры глубокого обучения (DnCNN, автоэнкодеры, U-Net, GAN, трансформер-базированные модели).</p>
			<p>Результаты экспериментов на синтетических и реальных данных (микроскопические изображения и телеметрические кадры) показали, что сверточный автоэнкодер обеспечивает наименьшее значение MSE и более высокие значения PSNR и SSIM по сравнению с традиционными методами. Это подтверждает его эффективность в задачах восстановления изображений при сохранении структурных деталей и снижении уровня артефактов.</p>
			<p>Научная новизна работы: впервые предложено применение сверточного автоэнкодера для единой постановки задачи фильтрации изображений в двух прикладных областей — медицинской визуализации (микроскопические снимки) и телеметрической практике (кадры БСВК). Практическая значимость исследования заключается в возможности внедрения предложенного подхода в системы автоматизированного анализа медицинских данных и обработки телеметрических изображений, получаемых с бортовых камер космических аппаратов.</p>
			<p>Дальнейшие исследования планируется направить на использование гибридных архитектур (U-Net + трансформеры), а также на обучение моделей с применением безэталонных методов (Noise2Noise, Noise2Void), что позволит расширить область применения нейросетевых решений при ограниченной доступности чистых данных.</p>
		</sec>
		<sec sec-type="supplementary-material">
			<title>Additional File</title>
			<p>The additional file for this article can be found as follows:</p>
			<supplementary-material xmlns:xlink="http://www.w3.org/1999/xlink" id="S1" xlink:href="https://doi.org/10.5334/cpsy.78.s1">
				<!--[<inline-supplementary-material xlink:title="local_file" xlink:href="https://research-journal.org/media/articles/21323.docx">21323.docx</inline-supplementary-material>]-->
				<!--[<inline-supplementary-material xlink:title="local_file" xlink:href="https://research-journal.org/media/articles/21323.pdf">21323.pdf</inline-supplementary-material>]-->
				<label>Online Supplementary Material</label>
				<caption>
					<p>
						Further description of analytic pipeline and patient demographic information. DOI:
						<italic>
							<uri>https://doi.org/10.60797/IRJ.2025.160.34</uri>
						</italic>
					</p>
				</caption>
			</supplementary-material>
		</sec>
	</body>
	<back>
		<ack>
			<title>Acknowledgements</title>
			<p/>
		</ack>
		<sec>
			<title>Competing Interests</title>
			<p/>
		</sec>
		<ref-list>
			<ref id="B1">
				<label>1</label>
				<mixed-citation publication-type="confproc">Мосева Е.В. Методы фильтрации изображений в условиях зашумленности / Е.В. Мосева // Науковедение. — 2015. — Т. 7. — № 5. — С. 1–12.</mixed-citation>
			</ref>
			<ref id="B2">
				<label>2</label>
				<mixed-citation publication-type="confproc">Боршигов К. Автоэнкодеры: типы архитектур и применение / К. Боршигов // Neurohive – Нейронные сети. — 2018</mixed-citation>
			</ref>
			<ref id="B3">
				<label>3</label>
				<mixed-citation publication-type="confproc">Гришин И.И. Использование сверточных нейронных сетей для повышения качества изображений в системах технического зрения / И.И. Гришин, К.В. Дьяконов // Международный научный журнал «Медиаобразование». — 2025. — Т. 6. — № 4. — С. 45–55.</mixed-citation>
			</ref>
			<ref id="B4">
				<label>4</label>
				<mixed-citation publication-type="confproc">Коваленко А.С. Архитектура U-Net для подавления шума на изображениях с механизмами частотного и частотно-временного внимания / А.С. Коваленко // CyberLeninka. — 2024. — С. 51–62.</mixed-citation>
			</ref>
			<ref id="B5">
				<label>5</label>
				<mixed-citation publication-type="confproc">Кожевникова А.В. Физико-информированный сверточный автоэнкодер для фильтрации одиночных затуманенных/задымленных изображений / А.В. Кожевникова // CyberLeninka. — 2024. — С. 139–148.</mixed-citation>
			</ref>
			<ref id="B6">
				<label>6</label>
				<mixed-citation publication-type="confproc">Литвинов М.А. Применение сверточных нейронных сетей для улучшения качества медицинских изображений / М.А. Литвинов, И.И, Кудряшов // Информационные технологии и вычислительные системы. — 2022. — № 4. — С. 45–53.</mixed-citation>
			</ref>
			<ref id="B7">
				<label>7</label>
				<mixed-citation publication-type="confproc">Павлов В.А. Сравнение архитектур нейронных сетей для подавления мультипликативного шума на изображениях / В.А. Павлов, А.А. Белов, В.Т. Нгуен [и др.] // Компьютерная оптика. — 2024. — Т. 48. — № 3. — С. 425–431. — DOI: 10.18287/2412-6179-CO-1400.</mixed-citation>
			</ref>
			<ref id="B8">
				<label>8</label>
				<mixed-citation publication-type="confproc">Сергеев А.В. Методы глубокого обучения для восстановления изображений в системах видеонаблюдения / А.В. Сергеев, П.А. Кузнецов // Вестник МГТУ им. Н.Э. Баумана. Серия «Приборостроение». — 2023. — № 6. — С. 72–84.</mixed-citation>
			</ref>
			<ref id="B9">
				<label>9</label>
				<mixed-citation publication-type="confproc">Batson J. Noise2Self: Blind Denoising by Self-Supervision / J. Batson, L. Royer // Proc. ICML. — 2019. — P. 524–533.</mixed-citation>
			</ref>
			<ref id="B10">
				<label>10</label>
				<mixed-citation publication-type="confproc">Boucherit I. Reinforced Residual Encoder–Decoder Network for Image Denoising via Deeper Encoding and Balanced Skip Connections / I. Boucherit, H. Kheddar // Big Data and Cognitive Computing. — 2025. — Vol. 9. — № 4. — Article 82. — DOI: 10.3390/bdcc9040082.</mixed-citation>
			</ref>
			<ref id="B11">
				<label>11</label>
				<mixed-citation publication-type="confproc">Chen C. Self-Supervised Learning for Medical Image Denoising without Reference Images / C. Chen, C. Qiao, Y. Xie [et al.] // IEEE Trans. Med. Imaging. — 2021. — Vol. 40. — № 12. — P. 3902–3913.</mixed-citation>
			</ref>
			<ref id="B12">
				<label>12</label>
				<mixed-citation publication-type="confproc">Gao X. A Denoising Method for Low-Dose CT Based on Improved Convolutional Neural Network / X. Gao, J. Zhou, W. Xu [et al.] // Signals. — 2025. — Vol. 6. — № 2. — Article 17. — DOI: 10.3390/signals6020017.</mixed-citation>
			</ref>
			<ref id="B13">
				<label>13</label>
				<mixed-citation publication-type="confproc">Krull A. Noise2Void — Learning Denoising from Single Noisy Images / A. Krull, T.-O. Buchholz, F. Jug // Proc. CVPR. — 2019. — P. 2129–2137.</mixed-citation>
			</ref>
			<ref id="B14">
				<label>14</label>
				<mixed-citation publication-type="confproc">Lehtinen J. Noise2Noise: Learning Image Restoration without Clean Data / J. Lehtinen, J. Munkberg, J. Hasselgren [et al.] // Proc. ICML. — 2018. — P. 2965–2974.</mixed-citation>
			</ref>
			<ref id="B15">
				<label>15</label>
				<mixed-citation publication-type="confproc">Prakash M. Deep Convolutional Neural Networks for Medical Image Denoising: A Review / M. Prakash, H. Patel, A. Singh // Biomedical Signal Processing and Control. — 2023. — Vol. 83. — Article 104655.</mixed-citation>
			</ref>
			<ref id="B16">
				<label>16</label>
				<mixed-citation publication-type="confproc">Tian C. Deep Learning on Image Denoising: An Overview / C. Tian, Y. Xu, W. Zuo [et al.] // Neural Networks. — 2020. — Vol. 131. — P. 251–275.</mixed-citation>
			</ref>
			<ref id="B17">
				<label>17</label>
				<mixed-citation publication-type="confproc">Zhang K. Beyond a Gaussian Denoiser: Residual Learning of Deep CNN for Image Denoising / K. Zhang, W. Zuo, Y. Chen [et al.] // IEEE Trans. Image Process. — 2017. — Vol. 26. — № 7. — P. 3142–3155.</mixed-citation>
			</ref>
			<ref id="B18">
				<label>18</label>
				<mixed-citation publication-type="confproc">Zhang K. FFDNet: Toward a Fast and Flexible Solution for CNN-based Image Denoising / K. Zhang, W. Zuo, L. Zhang // IEEE Trans. Image Process. — 2018. — Vol. 27. — № 9. — P. 4608–4622.</mixed-citation>
			</ref>
			<ref id="B19">
				<label>19</label>
				<mixed-citation publication-type="confproc">Zhang K. Learning Deep CNN Denoiser Prior for Image Restoration / K. Zhang, W. Zuo, S. Gu [et al.] // Proc. CVPR. — 2017. — P. 3929–3938.</mixed-citation>
			</ref>
			<ref id="B20">
				<label>20</label>
				<mixed-citation publication-type="confproc">Zamir S.W. Restormer: Efficient Transformer for High-Resolution Image Restoration / S.W. Zamir, A. Arora, S.H. Khan [et al.] // Proc. CVPR. — 2022. — P. 5728–5739.</mixed-citation>
			</ref>
		</ref-list>
	</back>
	<fundings/>
</article>