<?xml version="1.0" encoding="UTF-8"?>
    <!DOCTYPE article PUBLIC "-//NLM/DTD JATS (Z39.96) Journal Publishing DTD v1.2 20120330//EN" "http://jats.nlm.nih.gov/publishing/1.2/JATS-journalpublishing1.dtd">
    <!--<?xml-stylesheet type="text/xsl" href="article.xsl">-->
<article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:ns1="http://www.w3.org/1999/xlink" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" article-type="research-article" dtd-version="1.2" xml:lang="en">
	<front>
		<journal-meta>
			<journal-id journal-id-type="issn">2303-9868</journal-id>
			<journal-id journal-id-type="eissn">2227-6017</journal-id>
			<journal-title-group>
				<journal-title>Международный научно-исследовательский журнал</journal-title>
			</journal-title-group>
			<issn pub-type="epub">2303-9868</issn>
			<publisher>
				<publisher-name>ООО Цифра</publisher-name>
			</publisher>
		</journal-meta>
		<article-meta>
			<article-id pub-id-type="doi">10.60797/IRJ.2026.166.52</article-id>
			<article-categories>
				<subj-group>
					<subject>Brief communication</subject>
				</subj-group>
			</article-categories>
			<title-group>
				<article-title>Применение векторных представлений BERT и ELMo в задаче лексической типологии</article-title>
			</title-group>
			<contrib-group>
				<contrib contrib-type="author" corresp="yes">
					<contrib-id contrib-id-type="orcid">https://orcid.org/0000-0003-2679-5465</contrib-id>
					<contrib-id contrib-id-type="rinc">https://elibrary.ru/author_profile.asp?id=988349</contrib-id>
					<name>
						<surname>Полозов</surname>
						<given-names>Илья Константинович</given-names>
					</name>
					<email>ilya-polozov@mail.ru</email>
					<xref ref-type="aff" rid="aff-2">2</xref>
				</contrib>
				<contrib contrib-type="author">
					<name>
						<surname>Волкова</surname>
						<given-names>Ирина Анатольевна</given-names>
					</name>
					<email>irina.a.volkova@gmail.com</email>
					<xref ref-type="aff" rid="aff-1">1</xref>
				</contrib>
			</contrib-group>
			<aff id="aff-1">
				<label>1</label>
				<institution>Московский государственный университет</institution>
			</aff>
			<aff id="aff-2">
				<institution-wrap>
					<institution-id institution-id-type="ROR">https://ror.org/010pmpe69</institution-id>
					<institution content-type="education">Московский государственный университет</institution>
				</institution-wrap>
			</aff>
			<pub-date publication-format="electronic" date-type="pub" iso-8601-date="2026-04-17">
				<day>17</day>
				<month>04</month>
				<year>2026</year>
			</pub-date>
			<pub-date pub-type="collection">
				<year>2026</year>
			</pub-date>
			<volume>11</volume>
			<issue>166</issue>
			<fpage>1</fpage>
			<lpage>11</lpage>
			<history>
				<date date-type="received" iso-8601-date="2026-02-17">
					<day>17</day>
					<month>02</month>
					<year>2026</year>
				</date>
				<date date-type="accepted" iso-8601-date="2026-03-10">
					<day>10</day>
					<month>03</month>
					<year>2026</year>
				</date>
			</history>
			<permissions>
				<copyright-statement>Copyright: &amp;#x00A9; 2022 The Author(s)</copyright-statement>
				<copyright-year>2022</copyright-year>
				<license license-type="open-access" xlink:href="http://creativecommons.org/licenses/by/4.0/">
					<license-p>
						This is an open-access article distributed under the terms of the Creative Commons Attribution 4.0 International License (CC-BY 4.0), which permits unrestricted use, distribution, and reproduction in any medium, provided the original author and source are credited. See 
						<uri xlink:href="http://creativecommons.org/licenses/by/4.0/">http://creativecommons.org/licenses/by/4.0/</uri>
					</license-p>
					.
				</license>
			</permissions>
			<self-uri xlink:href="https://research-journal.org/archive/4-166-2026-april/10.60797/IRJ.2026.166.52"/>
			<abstract>
				<p>Работа посвящена использованию векторных представлений ELMo и BERT в задаче определения лексической типологии языков. Также сравнивается способ кластеризация с заданным количеством кластеров K-means и способ кластеризации с автоматическим количеством кластером DBSCAN. Описана задача лексической типологии. Сделан обзор существующих подходов к решению задачи, описаны достоинства и недостатки. Проведены эксперименты для семантической зоны «тянуть-толкать». Выявлено, что на результат влияют как тип векторных представлений, так и способ кластеризации. Способ кластеризации влияет больше, чем векторные представления. Влияние распространяется на точность, полноту и F-меру. BERT показывает результаты лучше, чем ELMo, а K-means лучше, чем DBSCAN. Произведены оценки подходов, найдены оптимальные параметры и сделаны выводы.</p>
			</abstract>
			<kwd-group>
				<kwd>лексическая типология</kwd>
				<kwd> ELMo</kwd>
				<kwd> BERT</kwd>
				<kwd> K-means</kwd>
				<kwd> DBSCAN</kwd>
				<kwd> кластеризация текстов</kwd>
				<kwd> компьютерная лингвистика</kwd>
			</kwd-group>
		</article-meta>
	</front>
	<body>
		<sec>
			<title>HTML-content</title>
			<p>1. Введение</p>
			<p>Задача определения лексической типологии языков является актуальной и недостаточно автоматизированной. Данная статья описывает использование векторных представлений ELMo и BERT для помощи лингвистам. Для оценки выбрано семантическое поле «тянуть — толкать». Оно уже исследовано в работе [1], поэтому с ней будет произведено сравнение автоматизированного подхода.</p>
			<p>Лексическая типология изучает способы языкового выражения конкретных явлений и сопоставляет соответствующие лексические средства в разных языках. Так, в русском языке один и тот же термин используется для обозначения пальцев руки и ноги, тогда как в английском языке эти понятия различаются лексемами «finger» и «toe». Наряду с межъязыковым сравнением, возможно исследование семантических полей внутри одного языка и анализ средств их выражения. Например, в семантической зоне «чинить — портить» можно выделить такие варианты употребления, как «делать вновь пригодным», «настраивать инструмент», «изменять деятельность», «ухудшать». Подобные типы употреблений представляют собой фреймы [2].</p>
			<p>На основе выделенных фреймов может быть построена таблица, в которой строки соответствуют фреймам, столбцы — языкам, а в ячейках указываются лексические единицы, с помощью которых данные фреймы реализуются в разных языках. Статья направлена на автоматизированное формирование подобных фреймов.</p>
			<p>2. Обзор литературы</p>
			<p>2.1. Ручные методы</p>
			<p>Выделяют четыре основных подхода к исследованию. Первый опирается на использование фреймов [2] и известен как метод Московской лексико-типологической школы. В рамках этого подхода каждая ситуация, входящая в определенное семантическое поле, описывается с помощью фрейма — набора характеристик, выраженных словами. Так, например, фрейм «нажимать предмет вперёд» относится к семантическому полю «тянуть — толкать». В языке фрейм реализуется через конкретные лексемы, при этом количество возможных фреймов может быть значительным. Их отбор осуществляется исследователем на основе словарей, переводных источников и собственных интуитивных представлений. Также возможно использование синхронных переводов текстов.</p>
			<p>На следующем этапе составляется таблица: в строках приводятся описания фреймов, в столбцах — лексемы, а в ячейках отмечается, соотносится ли конкретная лексема с данным фреймом. Существует и другой вариант таблицы, где строки соответствуют фреймам, столбцы — языкам, а в ячейках указываются лексемы, с помощью которых в каждом языке выражается данный фрейм. Основным недостатком этого подхода является ручной характер выделения фреймов. Кроме того, при работе со словарями исследователю приходится определять пределы поиска, поскольку в процессе перевода возникают новые фреймы, часто лишь косвенно связанные с изучаемым семантическим полем из-за многозначности слов. В связи с этим также требуется привлечение носителей соответствующих языков.</p>
			<p>Второй подход опирается на физическое восприятие человека [3]. Исследователь формирует набор универсальных стимулов, например, объекты с определенным вкусом, запахом, цветом, формой и предъявляет их носителям языка. Задача информанта заключается в максимально точном словесном описании предложенного объекта. Сравнивая ответы носителей разных языков, можно установить, какими лексическими средствами выражаются одни и те же стимулы в разных языках. К недостаткам данного метода относятся невозможность воспроизвести всё разнообразие лексических единиц в виде физических стимулов, а также высокая трудоёмкость и значительные временные затраты. Кроме того, данный подход требует обязательного участия носителей языка.</p>
			<p>Третий подход базируется на использовании универсальных семантических примитивов, с помощью которых предполагается возможным описать любую ситуацию [4]. В рамках этого метода применяется система из 64 базовых понятий, из комбинаций которых выводятся все остальные значения. Основными недостатками подхода являются неоднозначность интерпретации выводимых значений и общая методологическая сложность.</p>
			<p>Четвёртый подход связан с анализом параллельных корпусов текстов. Исследователь выявляет переводные соответствия для различных реализаций определённой семантической зоны. Существенным ограничением данного метода является отсутствие или недостаточная представленность параллельных корпусов для редких и малораспространённых языков.</p>
			<p>Наиболее распространённым в лингвистических исследованиях является фреймовый подход. Так, в работе [5] с его помощью анализируется семантическое поле «мешать». В исследовании [6] рассматривается семантическое поле «домашний скот» на материале германских и славянских языков, основным источником данных служит лексический фонд. В работе [7] при изучении семантических зон «попасть, упасть» и «задеть, попасть» в казымском диалекте хантыйского языка используются корпусные данные, словари и материалы, полученные от носителей языка.</p>
			<p>Исследование [8] посвящено семантической зоне «острый» в китайском языке и опирается на данные словарей, текстовых корпусов и материалы, полученные от информантов. Автор работы [9] также обращается к семантическому полю «шахматная игра» в русском языке, применяя модель «центр — периферия», где в центре располагаются наиболее узкоспециализированные семантические признаки, а на периферии — менее специализированные.</p>
			<p>В работе [10] для анализа семантической зоны «мягкий», «твёрдый», «жёсткий» используется метод анкетирования носителей языка. В главе «Methodology at work: Semantic fields sharp and blunt» книги [11] описывается семантическая зона «острый — тупой». Показано, что ключевыми параметрами оппозиции выступают тип острого объекта и ощущение, на основе которого определяется степень его остроты. В работе [12] семантическая зона слова «город» исследуется на материале литературных источников.</p>
			<p>2.2. Автоматизированные методы</p>
			<p>Автоматизация типологических исследований на сегодняшний день остаётся недостаточно хорошо развитой. В работе [13] используются заранее подготовленные анкеты, которые затем автоматически переводятся на другие языки с опорой на словари и параллельные корпуса. Исследование посвящено семантическим зонам «острый — гладкий» и «толстый — тонкий». Основным ограничением данного подхода является потребность в предварительной разработке таких анкет.</p>
			<p>В работе [14] в качестве материала используются биграммы Национального корпуса русского языка [15], дополненные различными леммами. Для проведения кластеризации формируются векторные представления: отбираются 10 000 наиболее частотных лексем, после чего для исследуемого слова подсчитывается количество совместных употреблений каждой из этих лексем в окне шириной пять слов. Для анализа применяются алгоритмы иерархической кластеризации, поскольку методы, не требующие заранее заданного числа кластеров, продемонстрировали низкую эффективность. Недостатком данного подхода является отсутствие в векторах семантической информации, а также информации о контексте употребления.</p>
			<p>3. Векторные представления</p>
			<p>3.1. ELMo</p>
			<p>ELMo являются векторными представлениями, обладающих тем свойством, что для одинаковых слов в разных контекстах будут сгенерированы разные векторы [16]. Например, для слова ключ в следующий предложениях будут сгенерированы разные векторы: «на доске нарисован скрипичный ключ», «в реке бил ключ», «ключ находился в замке». При этом в первом предложении вектор будет ближе к векторам слов, связанных с музыкой, во втором к словам, связанным с реками, а в третьем с замками.</p>
			<p>Для получения векторов используются две нейронные сети LSTM (Long Short-Term Memory). Одна читает предложение слева направо и предсказывает следующее слово, а вторая справа налево и предсказывает предыдущее слово. Таким образом, получается учитывать контекст сразу с обеих сторон. Затем внутренние состояния двух сетей суммируются и получается контекстуализированное векторное представление. При этом слова в начале и в конце предложения будут иметь разные векторы.</p>
			<p>Однако эволюционно векторы ELMo появились первыми, и сегодня существуют представления, которые лучше захватывают дальний контекст и обучаются эффективнее. Одним из таких представлений являются векторы BERT (Bidirectional Encoder Representations from Transformers).</p>
			<p>3.2. BERT</p>
			<p>Векторы BERT, как и ELMo, являются контекстуализированными векторными представлениями. Однако контекст учитывается слева и справа не последовательно, как в ELMo, а одновременно [17]. BERT состоит из одинаковых Transformer Encoder-блоков из 12 или 24 слоев. Используются только Encoder блоки. Слова разделяются на подслова. Например, слово «невероятный» может быть разделено на токены «не» и «##вероятный». Это дает возможность обрабатывать редкие слова. В каждое предложение вставляется 2 специальных токена: [CLS] — представляет все предложение целиком, [SEP] — разделяет предложения. При обучении используется механизм внимания. Каждый токен представлен комбинацией 3-х векторных представлений: векторное представление самого слова, представление позиции в предложении и представление принадлежности конкретному предложению.</p>
			<p>Для обучения случайно скрываются 15% токенов. Они заменяются на специальный токен [MASK]. BERT должен предсказать это скрытое слово на основе контекста. Например, «Он сидел на [MASK] реки». Вместо слова [MASK] BERT должен научиться предсказывать слово «берегу».</p>
			<p>Также его можно дополнительно обучать на задаче предсказания, являются ли 2 предложения последовательными. Например,</p>
			<p>1. «Он пошел на рыбалку».</p>
			<p>2. «Он поймал много рыбы».</p>
			<p>3. «В огороде растет много вкусных овощей».</p>
			<p>BERT должен научиться определять, что 2-е предложение с большей вероятностью стоит после 1-го, чем 3-е. Затем BERT дообучается на специфичной для задачи области.</p>
			<p>Для лексической типологии могут быть полезны оба представления, поэтому будет произведена оценка их работы и сравнение для данной задачи.</p>
			<p>4. Алгоритм работы</p>
			<p>4.1. Векторные представления</p>
			<p>Исследование проводится на материале текстов Национального корпуса русского языка. Все слова переводятся в начальную форму, после чего из текста удаляются стоп-слова и специальные символы. Затем в корпусе отбираются все предложения, содержащие слова «тянуть» и «толкать». В файл сохраняется предложение, содержащее найденное слово, все дополнительно обнаруженные слова, номер предложения, а также его исходный вариант.</p>
			<p>Затем для каждого слова в каждом предложении вычисляются векторные представления с помощью моделей BERT и ELMo. Они обучены на русской Википедии и новостных корпусах. Лексика схожа с лексикой из корпуса постсоветских текстов Национального корпуса русского языка, поэтому модель должна хорошо работать на данном корпусе. Предложения также сохраняются в структуре. Для сохранения результатов используется библиотека Pickle.</p>
			<p>Среди найденных предложений много слов в одинаковой семантической зоне, поэтому необходима фильтрация.</p>
			<p>4.2. Фильтрация</p>
			<p>Предложения, векторы которых сильно отличаются, считаются новыми фреймами исследуемого поля. Для удаления похожих предложений используется алгоритм K-means [18] и алгоритм кластеризации с автоматическим количеством кластеров DBSCAN [19].</p>
			<p>Для выбора количества кластеров в методе в K-means используется метод локтя. Выбирается диапазон значений количества кластеров, например, от 1 до 20. Для каждого количества кластеров запускается работа алгоритма. Затем идет подсчет суммы квадратов внутрикластерных расстояний (— по формуле 1.</p>
			<mml:math display="inline">
				<mml:mrow>
					<mml:mi>W</mml:mi>
					<mml:mi>C</mml:mi>
					<mml:mi>S</mml:mi>
					<mml:mi>S</mml:mi>
					<mml:mo stretchy="false">(</mml:mo>
					<mml:mi>k</mml:mi>
					<mml:mo stretchy="false">)</mml:mo>
					<mml:mo>=</mml:mo>
					<mml:msubsup>
						<mml:mo>∑</mml:mo>
						<mml:mrow>
							<mml:mi>i</mml:mi>
							<mml:mo>=</mml:mo>
							<mml:mn>1</mml:mn>
						</mml:mrow>
						<mml:mrow>
							<mml:mi>k</mml:mi>
						</mml:mrow>
					</mml:msubsup>
					<mml:msub>
						<mml:mo>∑</mml:mo>
						<mml:mrow>
							<mml:mi>x</mml:mi>
							<mml:mo>∈</mml:mo>
							<mml:msub>
								<mml:mi>C</mml:mi>
								<mml:mrow>
									<mml:mi>i</mml:mi>
								</mml:mrow>
							</mml:msub>
						</mml:mrow>
					</mml:msub>
					<mml:msup>
						<mml:mrow>
							<mml:mo stretchy="true" fence="true" form="prefix">‖</mml:mo>
							<mml:mi>x</mml:mi>
							<mml:mo>−</mml:mo>
							<mml:msub>
								<mml:mi>μ</mml:mi>
								<mml:mrow>
									<mml:mi>i</mml:mi>
								</mml:mrow>
							</mml:msub>
							<mml:mo stretchy="true" fence="true" form="postfix">‖</mml:mo>
						</mml:mrow>
						<mml:mrow>
							<mml:mn>2</mml:mn>
						</mml:mrow>
					</mml:msup>
				</mml:mrow>
			</mml:math>
			<p>Ci​ — i-й кластер</p>
			<p>μi​ — центроид кластера</p>
			<p>||x- μi||2 — квадрат евклидова расстояния</p>
			<p>Строится график, на оси X которого обозначается количество кластеров, а на оси Y сумма квадратов внутрикластерных расстояний. График всегда убывает. Он показывает, как уменьшается ошибка кластеризации при увеличении количества кластеров. На нем необходимо найти излом, после которого убывание становится не так значительно по сравнению с предыдущими значениями. Т.е. необходимо найти количество кластеров, после которого улучшения замедляются более медленно, чем до этого. Это количество и будет выбранным k в алгоритме K-means. </p>
			<p>Для алгоритма DBSCAN основными параметрами являются:</p>
			<p>1) eps — максимальное расстояние между двумя точками, чтобы считать их соседями;</p>
			<p>2) min_samples — минимальное количество точек, чтобы сформировать кластер.</p>
			<p>min_samples для двумерных данных обычно берется в диапазоне 3-5 и увеличивается для зашумленных данных.</p>
			<p>4.3. Псевдокод</p>
			<p>Псевдокод представлен в листинге.</p>
			<p>5. Эксперименты</p>
			<p>5.1. BERT с K-means</p>
			<p>Сначала была исследована зона «толкать». Полученные векторы BERT были кластеризованны методом K-means. В этом методе необходимо выбрать количество кластеров. Для этого был использован метод локтя.</p>
			<p>Построим график суммы квадратов внутрикластерных расстояний для большого значения k, например, 360. График представлен на Рисунке 1. </p>
			<fig id="F1">
				<label>Figure 1</label>
				<caption>
					<p>Метод локтя для K-means с векторами BERT зоны «толкать»</p>
				</caption>
				<alt-text>Метод локтя для K-means с векторами BERT зоны «толкать»</alt-text>
				<graphic ns1:href="/media/images/2026-02-17/9cca5b9f-a010-4364-bfec-5576c633c87d.png"/>
			</fig>
			<p>Излом в начальной части графика. Построим более точный график для значения k от 1 до 20 на Рисунке 2.</p>
			<fig id="F2">
				<label>Figure 2</label>
				<caption>
					<p>Метод локтя для K-means с векторами BERT зоны «толкать»</p>
				</caption>
				<alt-text>Метод локтя для K-means с векторами BERT зоны «толкать»</alt-text>
				<graphic ns1:href="/media/images/2026-02-17/4311052b-63b4-4051-9144-a0a995f034cc.png"/>
			</fig>
			<p>По методу локтя было выбрано 12 кластеров, т.к. точка, обозначающая 13 кластеров лежит почти на такой же высоте, как точка 12-и кластеров. При этом все предыдущие изменения (от 1 до 2, от 2 до 3 и т.д.) были значительно больше. Это говорит о том, что среднеквадратичные расстояния стали меняться меньше, чем до этого, и по методу локтя необходимо выбрать 12 кластеров. Затем для каждого кластера найдены центроиды. Далее было найдено 12 наиболее близких векторов предложений к каждому из 12 центроидов. При поиске ближайшего вектора находились иногда одинаковые, поэтому были найдены несколько ближайших векторов для каждого центроида и выбраны уникальные.</p>
			<p>Аналогично для зоны «тянуть» был построен график значений k на Рисунке 3.</p>
			<fig id="F3">
				<label>Figure 3</label>
				<caption>
					<p>Метод локтя для K-means с векторами BERT зоны «тянуть»</p>
				</caption>
				<alt-text>Метод локтя для K-means с векторами BERT зоны «тянуть»</alt-text>
				<graphic ns1:href="/media/images/2026-02-17/e007b820-a89f-47f7-af8c-e074dace7e8f.png"/>
			</fig>
			<p>По графику видно, что точка, обозначающая 9 кластеров, значительно меньше отличается по высоте от точки, обозначающей 8 кластеров, чем все предыдущие точки на графике относительно их ближайших. Поэтому по методу локтя было выбрано 8 кластеров.</p>
			<p>Была произведена оценка. Сначала была подсчитана точность, потом полнота, затем F-мера. Эти метрики применимы к оценке алгоритма, т.к. необходимо понять, сколько найденных фреймов соответствуют фреймам из работы [1], и сколько фреймов из работы [1] было найдено. Для оценки точности среди найденных фреймов были найдены те, которые семантически совпадают с фреймами из работы [1]. Их количество было разделено на общее количество фреймом, найденных алгоритмом. Для оценки полноты было определено, сколько из найденных в работе [1] фреймов совпадает с фреймами, найденными алгоритмом. Их количество было разделено на общее количество фреймов, найденных в работе [1]. F-мера считалась по формуле (2).</p>
			<mml:math display="inline">
				<mml:mrow>
					<mml:mi>F</mml:mi>
					<mml:mo>=</mml:mo>
					<mml:mfrac>
						<mml:mrow>
							<mml:mn>2</mml:mn>
							<mml:mi>P</mml:mi>
							<mml:mi>R</mml:mi>
						</mml:mrow>
						<mml:mrow>
							<mml:mi>P</mml:mi>
							<mml:mo>+</mml:mo>
							<mml:mi>R</mml:mi>
						</mml:mrow>
					</mml:mfrac>
				</mml:mrow>
			</mml:math>
			<p>P </p>
			<p>—</p>
			<p>R </p>
			<p>—</p>
			<p>Результаты в Таблице 1.</p>
			<table-wrap id="T1">
				<label>Table 1</label>
				<caption>
					<p>Оценка метода BERT + K-means</p>
				</caption>
				<table>
					<tr>
						<td/>
						<td>Тянуть</td>
						<td>Толкать</td>
						<td>Тянуть-толкать</td>
					</tr>
					<tr>
						<td>Точность</td>
						<td>75</td>
						<td>100</td>
						<td>88</td>
					</tr>
					<tr>
						<td>Полнота</td>
						<td>70</td>
						<td>73</td>
						<td>71,4</td>
					</tr>
					<tr>
						<td>F-мера</td>
						<td>72,4</td>
						<td>84,4</td>
						<td>79</td>
					</tr>
				</table>
			</table-wrap>
			<p>Подход показал хорошие результаты. Не были найдены только следующие фреймы: «перемещать ногами», «нажимать на кнопку», «сталкивать с высоких объектов», «помещать во внутрь».</p>
			<p>5.2. BERT с DBSCAN</p>
			<p>Для алгоритма DBSCAN необходимо выбрать значения eps и min_samples. Были найдены следующие оптимальные значения параметров для зоны «тянуть»:</p>
			<p>1) eps = 0.27;</p>
			<p>2) min_samples = 5.</p>
			<p>Оптимальные значения eps лежат в диапазоне от 0.27 до 0.29. Такие значения дают 11 кластеров. Оптимальны именно такие значения, т.к. при выборе значения eps равным 0.26 уменьшается точность, и остается много нерелевантных предложений — 22, а значение 0.3 наоборот оставляет слишком мало предложений — 6, и таким образом уменьшается полнота. Оптимальным значением min_samples будет 5, т.к, если его уменьшить до 4, будет 9 кластеров, и уменьшится полнота, а если повысить до 6, будет 12 кластеров, и уменьшится точность.</p>
			<p>Найдены 3 новых фрейма, которых нет в работе [1] (здесь и далее примеры взяты из Национального корпуса русского языка):</p>
			<p>1. «Когда Wimm Bill Dann разливал свой сок J7, то это было намного лучше, чем сегодняшние ролики, где показан человек, постоянно тянущийся за стаканом».</p>
			<p>2. «Колтунов «раскочегарил» свою «пятерку» и натужно потянулся по остывшему следу».</p>
			<p>3. «Глаза Гуревича на секунду затянуло пеленой: он представил себе добрый шмоток сырокопченой свининки».</p>
			<p>Для зоны «толкать» такие же параметры, как для зоны «тянуть», дают только один кластер. Поэтому оптимальными для данной зоны являются следующие параметры:</p>
			<p>1) eps = 0.2;</p>
			<p>2) min_samples = 3.</p>
			<p>Диапазон возможных значений min_samples от 1 до 3, а eps от 0.19 до 0.21.</p>
			<p>Они дают 9 кластеров. При min_samples = 4 количество найденных кластеров уменьшается до 7.</p>
			<p>Оценка работы приведена в Таблице 2.</p>
			<table-wrap id="T2">
				<label>Table 2</label>
				<caption>
					<p>Оценка метода BERT + DBSCAN</p>
				</caption>
				<table>
					<tr>
						<td/>
						<td>Тянуть</td>
						<td>Толкать</td>
						<td>Тянуть-толкать</td>
					</tr>
					<tr>
						<td>Точность</td>
						<td>73</td>
						<td>78</td>
						<td>75</td>
					</tr>
					<tr>
						<td>Полнота</td>
						<td>50</td>
						<td>64</td>
						<td>57</td>
					</tr>
					<tr>
						<td>F-мера</td>
						<td>59,4</td>
						<td>70,3</td>
						<td>64,77</td>
					</tr>
				</table>
			</table-wrap>
			<p>Не были найдены фреймы «перемещать ногами»,»помещать во внутрь», «нажимать на кнопку», «сталкивать с высоких объектов»</p>
			<p>5.3. ELMo с K-means</p>
			<p>Получение эмедингов BERT значительно быстрее, чем ELMo. Перевод первых 100 000 предложений в BERT занимает 8,2 секунды, а в ELMo 41.68 секунд на Macbook pro с процессором m1, 16-ю гигабайтами оперативной памяти и 1-м тб постоянной памяти.</p>
			<p>Аналогично, как для метода BERT + K-means, построим график суммы квадратов внутрикластерных расстояний в зависимости от значений количества кластеров k для зоны «тянуть» на Рисунке 4.</p>
			<fig id="F4">
				<label>Figure 4</label>
				<caption>
					<p> Метод локтя для K-means с векторами ELMo зоны «тянуть»</p>
				</caption>
				<alt-text> Метод локтя для K-means с векторами ELMo зоны «тянуть»</alt-text>
				<graphic ns1:href="/media/images/2026-02-17/ab520676-13e8-4d2b-bf9d-33363ff1040c.png"/>
			</fig>
			<p>По методу локтя выбираем 10 кластеров. Примеры найденных предложений:</p>
			<p>- «Правду молвил Ухмыл: такой затянулся узелок, что и не распустишь».</p>
			<p>- «Лизавета тянула Сашу к дверям».</p>
			<p>- «Дима-а -- протянул мужик».</p>
			<p>- «Марик замер и вытянул шею, чтоб ему было все видно».</p>
			<p>- «Тут и рекламные щиты, и мигающий неон, и виллы в зелени, а в небе летел самолетик, за которым тянулся какой-то шлейф».</p>
			<p>- «Больные, шаркая тапочками, потянулись на процедуры».</p>
			<p>- «Но почему-то потянуло прогуляться».</p>
			<p>- «Ты не могла бы снять с меня эти браслеты -- спросил Сергей, пошевелив руками, по-прежнему стянутыми за спиной наручниками».</p>
			<p>- «Ларт подал ему руку и рывком втянул в круг: -- Время».</p>
			<p>- «Ну и тени, конечно, тоже мелькали на дне сознания -- желающий мог дотянуться и до них».</p>
			<p>Аналогично для зоны «толкать» график на Рисунке 5.</p>
			<fig id="F5">
				<label>Figure 5</label>
				<caption>
					<p>Метод локтя для K-means с векторами ELMo зоны «толкать»</p>
				</caption>
				<alt-text>Метод локтя для K-means с векторами ELMo зоны «толкать»</alt-text>
				<graphic ns1:href="/media/images/2026-02-17/eab830e5-aa3d-49f3-b012-1fe9108e5dc3.png"/>
			</fig>
			<p>Было выбрано 12 кластеров. Оценка приведена в таблице 3.</p>
			<table-wrap id="T3">
				<label>Table 3</label>
				<caption>
					<p>Оценка метода ELMo + K-means</p>
				</caption>
				<table>
					<tr>
						<td/>
						<td>Тянуть</td>
						<td>Толкать</td>
						<td>Тянуть-толкать</td>
					</tr>
					<tr>
						<td>Точность</td>
						<td>70</td>
						<td>83</td>
						<td>77</td>
					</tr>
					<tr>
						<td>Полнота</td>
						<td>60</td>
						<td>64</td>
						<td>62</td>
					</tr>
					<tr>
						<td>F-мера</td>
						<td>65</td>
						<td>72</td>
						<td>68,7</td>
					</tr>
				</table>
			</table-wrap>
			<p>5.4. ELMo с DBSCAN</p>
			<p>Для векторов ELMo и зоны «тянуть» были выбраны следующие оптимальные параметры:</p>
			<p>1) eps = 0.2;</p>
			<p>2) min_samples = 5.</p>
			<p>Диапазон оптимальных значений eps от 0.2 до 0.22, min_samples от 4 до 7. Они дают 11 фреймов. При min_samples = 3 находится больше фреймов, и уменьшается точность. При значении eps 0.19 находится 16 фреймов, тоже уменьшается точность. При значении 0.23 находится 6 фреймов, уменьшается полнота.</p>
			<p>Для зоны «толкать» подходят такие же оптимальные параметры, как и для зоны «тянуть».</p>
			<p>Оценка приведена в Таблице 4.</p>
			<table-wrap id="T4">
				<label>Table 4</label>
				<caption>
					<p>Оценка метода ELMo + DBSCAN</p>
				</caption>
				<table>
					<tr>
						<td/>
						<td>Тянуть</td>
						<td>Толкать</td>
						<td>Тянуть-толкать</td>
					</tr>
					<tr>
						<td>Точность</td>
						<td>55</td>
						<td>73</td>
						<td>64</td>
					</tr>
					<tr>
						<td>Полнота</td>
						<td>40</td>
						<td>55</td>
						<td>48</td>
					</tr>
					<tr>
						<td>F-мера</td>
						<td>46</td>
						<td>63</td>
						<td>55</td>
					</tr>
				</table>
			</table-wrap>
			<p>Самые лучшие результаты показал подход BERT с K-means, на втором месте ELMo с K-means, на третьем BERT с DBSCAN, на четвёртом ELMo с DBSCAN. Таким образом, векторы BERT показываются лучше результаты, чем ELMo, а кластеризация K-means лучше, чем DBSCAN, при этом классификатор больше влияет на результат, чем тип векторов.</p>
			<p>6. Результаты</p>
			<p>В Таблице 5 приведены сравнительные оценки работы алгоритмов. Жирным выделен самый лучший результат. </p>
			<table-wrap id="T5">
				<label>Table 5</label>
				<caption>
					<p>Сравнение работы алгоритмов</p>
				</caption>
				<table>
					<tr>
						<td/>
						<td>B-K-Т1</td>
						<td>B-K-Т2</td>
						<td>B-K-ТО</td>
						<td>B-D-Т1</td>
						<td>B-D-Т2</td>
						<td>B-D-ТО</td>
						<td>E-K-Т1</td>
						<td>E-K-Т2</td>
						<td>E-K-ТО</td>
						<td>E-D-Т1</td>
						<td>E-D-Т2</td>
						<td>E-D-ТО</td>
					</tr>
					<tr>
						<td>P</td>
						<td>75</td>
						<td>100</td>
						<td>88</td>
						<td>73</td>
						<td>78</td>
						<td>75</td>
						<td>70</td>
						<td>83</td>
						<td>77</td>
						<td>55</td>
						<td>73</td>
						<td>64</td>
					</tr>
					<tr>
						<td>R</td>
						<td>70</td>
						<td>73</td>
						<td>71,4</td>
						<td>50</td>
						<td>64</td>
						<td>57</td>
						<td>60</td>
						<td>64</td>
						<td>62</td>
						<td>40</td>
						<td>55</td>
						<td>48</td>
					</tr>
					<tr>
						<td>F</td>
						<td>72,4</td>
						<td>84,4</td>
						<td>79</td>
						<td>59,4</td>
						<td>70,3</td>
						<td>65</td>
						<td>65</td>
						<td>72</td>
						<td>68,7</td>
						<td>46</td>
						<td>63</td>
						<td>55</td>
					</tr>
				</table>
			</table-wrap>
			<p>По всем семантическим зонам («тянуть», «толкать», объединенная «тянуть-толкать») и по всем показателям (точность, полнота, F — мера) самые лучшие результаты показал подход с вектором BERT и фильтрацией K-means. При этом из семантических зон лучших показателей удалось достичь для зоны «толкать». </p>
			<p>Второе место для зоны «тянуть» занял подход с векторами ELMo и кластеризацией K-means. По точности он меньше на 5%, по полноте на 10%, по F-мере на 7.4%. На 3 месте подход с векторами BERT и кластеризацией DBSCAN, по точности он больше на 3%, но по полноте меньше на 10% и по F-мере меньше на 5.6%. Четвёртое место занял подход ELMo с кластеризацией DBSCAN. По точности он меньше на 18%, по полноте на 10%, по F-мере на 13.4%.</p>
			<p>Второе место для зоны «толкать» занял подход с векторами ELMo и кластеризацией K-means. По точности он меньше на 17%, по полноте на 9%, по F-мере на 12.4%. Третье место занял подход с векторами BERT и кластеризацией DBSCAN. По точности он меньше на 5%, по полноте одинаково, по F-мере меньше на 1.7%. Четвертое место занял подход с векторами ELMo и кластеризацией DBSCAN. По точности он меньше на 5%, по полноте на 9%, по F-мере на 6.7%</p>
			<p>Второе место для объединенной зоны «тянуть-толкать» также занял подход с векторами ELMo и кластеризацией K-means. По точности он меньше на 11%, по полноте меньше на 9.6%, по F-мере меньше на 1.3%. Третье место занял подход с векторами BERT и кластеризацией K-means. По точности он меньше на 2%, по полноте на 5%, по F-мере на 3.7%. Четвертое место занял также подход с векторами ELMo и кластеризацией DBSCAN. По точности он меньше на 9%, по полноте на 9%, по F-мере на 10%.</p>
			<p>7. Выводы</p>
			<p>Эксперименты показали влияние как векторов, так и способов фильтрации на результат. Векторы BERT показывают результаты лучше, чем векторы ELMo, а кластеризацией с заданным количеством кластеров K-means лучше, чем кластеризация с автоматическим количеством кластеров DBSCAN. При этом на результат больше влияет именно способ фильтрации, чем тип векторов. Влияние распространяется как на точность, так и на полноту на всех подзонах. Исключение составляет только точность подхода BERT с кластеризацией DBSCAN для зоны «тянуть». Он показал улучшение результатов на 3% относительно подхода ELMo с кластеризацией K-means. Также этот подход является исключением для зоны «толкать» по полноте. Он показал такие же результаты, как алгоритм с векторами ELMo и кластеризацией DBSCAN.</p>
			<p>8. Заключение</p>
			<p>Для решения задачи лексической типологии применены современные векторные представления и способы кластеризации. Лучшие результаты показал подход c использованием векторов BERT и кластеризацией K-means. Выявлено, что способы фильтрации слов влияют больше, чем векторные представления. Полученные результаты приближены к ручным. Найдены не все фреймы, которые есть в ручном методе, при этом найдены и те, которые не были обнаружены в ручном методе, но они принадлежат зоне «тянуть-толкать». Таким образом, автоматизированные поход не может полностью заменить ручную работу ученых лингвистов, однако может помочь в исследованиях, способствуя увеличению скорости работы и ее полноте.</p>
		</sec>
		<sec sec-type="supplementary-material">
			<title>Additional File</title>
			<p>The additional file for this article can be found as follows:</p>
			<supplementary-material xmlns:xlink="http://www.w3.org/1999/xlink" id="S1" xlink:href="https://doi.org/10.5334/cpsy.78.s1">
				<!--[<inline-supplementary-material xlink:title="local_file" xlink:href="https://research-journal.org/media/articles/23886.docx">23886.docx</inline-supplementary-material>]-->
				<!--[<inline-supplementary-material xlink:title="local_file" xlink:href="https://research-journal.org/media/articles/23886.pdf">23886.pdf</inline-supplementary-material>]-->
				<label>Online Supplementary Material</label>
				<caption>
					<p>
						Further description of analytic pipeline and patient demographic information. DOI:
						<italic>
							<uri>https://doi.org/10.60797/IRJ.2026.166.52</uri>
						</italic>
					</p>
				</caption>
			</supplementary-material>
		</sec>
	</body>
	<back>
		<ack>
			<title>Acknowledgements</title>
			<p/>
		</ack>
		<sec>
			<title>Competing Interests</title>
			<p/>
		</sec>
		<ref-list>
			<ref id="B1">
				<label>1</label>
				<mixed-citation publication-type="confproc">Савельева А.Ю. Глаголы семантических зон «ТЯНУТЬ» и «ТОЛКАТЬ» в типологической перспективе / А.Ю. Савельева // Проблемы компьютерной лингвистики и типологии: сб. Всерос. конф. — Воронеж: Издательский дом ВГУ, 2017. — Вып. 6. — С. 142–152.</mixed-citation>
			</ref>
			<ref id="B2">
				<label>2</label>
				<mixed-citation publication-type="confproc">Рахилина Е. В. Фреймовый подход к лексической типологии / Е. В. Рахилина, Т. И. Резникова // Вопросы языкознания. — 2013. — № 2. — с. 3–31.</mixed-citation>
			</ref>
			<ref id="B3">
				<label>3</label>
				<mixed-citation publication-type="confproc">Berlin B. Color Terms: Their Universality and Evolution / B. Berlin — Berkeley: University of California Press, 1969. — 178 с. [in English]</mixed-citation>
			</ref>
			<ref id="B4">
				<label>4</label>
				<mixed-citation publication-type="confproc">Wierzbicka A. Semantic and lexical universals: Theory and emperical findings / A. Wierzbicka // Linguistic Investigations. — 1994. — № 21. — с. 249-261. [in English]</mixed-citation>
			</ref>
			<ref id="B5">
				<label>5</label>
				<mixed-citation publication-type="confproc">Дунаева К.О. Семантическое поле «мешать» в типологической перспективе / К.О. Дунаева, В.В. Маринина // XXVI Открытая конференция студентов-филологов в СПбГУ. — Санкт-Петербург: СПбГУ, 2023. — С. 34–37.</mixed-citation>
			</ref>
			<ref id="B6">
				<label>6</label>
				<mixed-citation publication-type="confproc">Шешкина Т.Ф. Германо-славянские параллели семантического поля «Домашний скот» в немецких лексикографических источниках / Т.Ф. Шешкина // Филологические науки. Вопросы теории и практики. — 2020. — № 6. — с. 303–307. DOI: 10.30853/filnauki.2020.6.57.</mixed-citation>
			</ref>
			<ref id="B7">
				<label>7</label>
				<mixed-citation publication-type="confproc">Рыжова Д.А. Фрагмент лексической системы казымского диалекта хантыйского языка: глаголы pitti «упасть, попасть» и χɔjti «задеть, попасть» и их аргументная структура / Д.А. Рыжова // Урало-алтайские исследования. — 2022. — № 2 (45). — с. 123–140. DOI: 10.37892/2500-2902-2022-45-2-123-140.</mixed-citation>
			</ref>
			<ref id="B8">
				<label>8</label>
				<mixed-citation publication-type="confproc">Холкина Л.С. Семантическое поле ОСТРЫЙ в китайском языке: диахроническое развитие и его отражение в современных диалектах / Л.С. Холкина, Л.О. Наний, Ц. Сы // Journal of Language Relationship. — 2023. — № 20 (3-4). — с. 280–298. DOI: 10.31826/jlr-2023-203-410.</mixed-citation>
			</ref>
			<ref id="B9">
				<label>9</label>
				<mixed-citation publication-type="confproc">Влавацкая М.В. Лексико-семантическое поле «шахматная игра» в современном русском языке / М.В. Влавацкая, И.Н. Журавлева // Мир науки, культуры, образования. — 2022. — № 2 (93). — с. 293–297.</mixed-citation>
			</ref>
			<ref id="B10">
				<label>10</label>
				<mixed-citation publication-type="confproc">Кашкин Е.В. Категоризация качественных признаков «мягкий», «твердый», «жесткий» в горномарийском языке / Е.В. Кашкин // Вестник ВГУ. Серия: Лингвистика и межкультурная коммуникация. — 2022. — № 1. — с. 140–150. DOI: 10.17308/lic.2022.1/9009.</mixed-citation>
			</ref>
			<ref id="B11">
				<label>11</label>
				<mixed-citation publication-type="confproc">Rakhilina E. The Typology of Physical Qualities / E. Rakhilina, T. Reznikova, M. Kyuseva, E. Parina, D. Ryzhova, A. Panina, V. Kruglyakova, A. Kozlov, O. I. Vinogradova, A. S. Vyrenkova, B. Orekhov // Amsterdam: John Benjamins Publishing Company. — 2022. — Vol. 2. — с. 29–55. [in English]</mixed-citation>
			</ref>
			<ref id="B12">
				<label>12</label>
				<mixed-citation publication-type="confproc">Григорьева О.Н. Лексико-семантическая группа «город» в современных российских масс-медиа / О.Н. Григорьева, Н. Цзян // Вестник Московского государственного областного университета. Серия: Русская филология. — 2018. — № 5. — с. 31–37. DOI: 10.18384/2310-7278-2018-5-31-38.</mixed-citation>
			</ref>
			<ref id="B13">
				<label>13</label>
				<mixed-citation publication-type="confproc">Kyuseva M. Automatic data collection in lexical typology / M. Kyuseva, E. Parina, D. Ryzhova // Computational Linguistics and Intellectual Technologies: Proceedings of the International Conference &quot;Dialogue 2018&quot;. — Moscow: ABBYY, 2018. — P. 29–55.</mixed-citation>
			</ref>
			<ref id="B14">
				<label>14</label>
				<mixed-citation publication-type="confproc">Рыжова Д.А. Опыт автоматического построения анкеты для лексико-типологического исследования прилагательных и одноместных глаголов с помощью моделей дистрибутивной семантики / Д.А. Рыжова // ВЕСТНИК РГГУ. Сер.: История. Филология. Культурология. Востоковедение. — 2016. — Т. 18. — С. 140–150.</mixed-citation>
			</ref>
			<ref id="B15">
				<label>15</label>
				<mixed-citation publication-type="confproc">Савчук С. О. Национальный корпус русского языка 2.0: новые возможности и перспективы развития / С. О. Савчук, Т. А. Архангельский, А. А. Бонч-Осмоловская, О. В. Донина, Ю. Н. Кузнецова, О. Н. Ляшевская, Б. В. Орехов, М. В. Подрядчикова // Вопросы языкознания. — 2024. — № 2. — с. 7–34.</mixed-citation>
			</ref>
			<ref id="B16">
				<label>16</label>
				<mixed-citation publication-type="confproc">Peters M. E.. Deep contextualized word representations / M. E. Peters, M. Neumann, M. Gardner, C. Clark, K. Lee, L. Zettlemoyer // Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies; — New Orleans: Association for Computational Linguistics, 2018. — с. 2227–2237. DOI: 10.18653/v1/N18-1202. [in English]</mixed-citation>
			</ref>
			<ref id="B17">
				<label>17</label>
				<mixed-citation publication-type="confproc">Devlin J. . BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding / J. Devlin, M. Chang, K. Lee, K. Toutanova // Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies; — Minneapolis: Association for Computational Linguistics, 2019. — с. 4171–4186. DOI: 10.18653/v1/N19-1423. [in English]</mixed-citation>
			</ref>
			<ref id="B18">
				<label>18</label>
				<mixed-citation publication-type="confproc">Jin X. K-Means Clustering / X. Jin, J. Han // Encyclopedia of Machine Learning. — 2011. — № 1. — с. 563-563. DOI: 10.1007/978-0-387-30164-8_425. [in English]</mixed-citation>
			</ref>
			<ref id="B19">
				<label>19</label>
				<mixed-citation publication-type="confproc">Martin E. A density-based algorithm for discovering clusters in large spatial databases with noise / E. Martin, K. Hans-Peter, S. Jörg, X. Xiaowei // KDD'96: Proceedings of the Second International Conference on Knowledge Discovery and Data Mining. — 1996. — № 1. — с. 226–231. [in English]</mixed-citation>
			</ref>
		</ref-list>
	</back>
	<fundings/>
</article>