Pages Navigation Menu

ISSN 2227-6017 (ONLINE), ISSN 2303-9868 (PRINT), DOI: 10.18454/IRJ.2227-6017
ПИ № ФС 77 - 51217, 16+

DOI: https://doi.org/10.23670/IRJ.2019.80.2.010

Скачать PDF ( ) Страницы: 59-64 Выпуск: № 2 (80) () Искать в Google Scholar
Цитировать

Цитировать

Электронная ссылка | Печатная ссылка

Скопируйте отформатированную библиографическую ссылку через буфер обмена или перейдите по одной из ссылок для импорта в Менеджер библиографий.
Чернецова Е. А. АЛГОРИТМ ИДЕНТИФИКАЦИИ ЛИЧНОСТИ ПО ГОЛОСУ ДЛЯ САНКЦИОНИРОВАНИЯ ДОСТУПА К ИНФОРМАЦИИ / Е. А. Чернецова, А. Д. Шишкин // Международный научно-исследовательский журнал. — 2019. — № 2 (80). — С. 59—64. — URL: https://research-journal.org/technical/algoritm-identifikacii-lichnosti-po-golosu-dlya-sankcionirovaniya-dostupa-k-informacii/ (дата обращения: 20.08.2019. ). doi: 10.23670/IRJ.2019.80.2.010
Чернецова Е. А. АЛГОРИТМ ИДЕНТИФИКАЦИИ ЛИЧНОСТИ ПО ГОЛОСУ ДЛЯ САНКЦИОНИРОВАНИЯ ДОСТУПА К ИНФОРМАЦИИ / Е. А. Чернецова, А. Д. Шишкин // Международный научно-исследовательский журнал. — 2019. — № 2 (80). — С. 59—64. doi: 10.23670/IRJ.2019.80.2.010

Импортировать


АЛГОРИТМ ИДЕНТИФИКАЦИИ ЛИЧНОСТИ ПО ГОЛОСУ ДЛЯ САНКЦИОНИРОВАНИЯ ДОСТУПА К ИНФОРМАЦИИ

АЛГОРИТМ ИДЕНТИФИКАЦИИ ЛИЧНОСТИ ПО ГОЛОСУ ДЛЯ САНКЦИОНИРОВАНИЯ ДОСТУПА К ИНФОРМАЦИИ

Научная статья

Чернецова Е.А.1, *, Шишкин А.Д.2

1 ORCID: 0000–0001–5805–3111;

2 ORCID: 0000–0003–1992–5663;

1, 2 Российский Государственный Гидрометеорологический Университет, Санкт-Петербург, Россия

* Корреспондирующий автор (chernetsova[at]list.ru)

Аннотация

Представлен алгоритм для автоматизации процесса идентификации личности по голосу. Проводится обзор существующих методов решения поставленной задачи. Реализуется метод, основанный на применении модели гауссовых смесей, который позволяет отличать голоса людей с высочайшей точностью, поскольку компоненты гауссовых смесей могут моделировать особенности голоса, индивидуальные для каждого человека. Приводятся результаты тестирования реализованного алгоритма, делается вывод о применимости модели гауссовых смесей для решения задачи идентификации личности по голосу.

Ключевые слова: алгоритм, идентификация, голос, модель, гауссовская смесь.

ALGORITHM FOR PERSONAL IDENTIFICATION BASED ON VOICE FOR INFORMATION ACCESS AUTHORIZATION

Research article

Chernetsova E.A.1, *, Shishkin A.D.2

1 ORCID: 0000–0001–5805–3111;

2 ORCID: 0000–0003–1992–5663;

1, 2 Russian State Hydrometeorological University, Saint Petersburg, Russia

* Corresponding author (chernetsova[at]list.ru)

Abstract

The authors present the algorithm for automating the personal identification process based on a voice. A review of existing methods for solving the problem is presented as well. The method based on the use of a Gaussian mixture model is implemented, it allows to distinguish the voices of people with the highest accuracy since the components of Gaussian mixtures can simulate voice characteristics that are individual for each person. The results of testing the implemented algorithm are given, the conclusion is drawn about the applicability of the Gaussian mixture model for solving the problem of identification by voice.

Keywords: algorithm, identification, voice, model, Gaussian mixture.

У любого человека есть свои особые вокальные характеристики, определяемые индивидуальной структурой его голосового аппарата. Прислушиваясь к разговору, человек может на уровне подсознания идентифицировать голоса любых других людей, однако разработка автоматического различителя речи сопряжена со значительными трудностями [1].

Задача распознавания человека по голосу состоит в выделении из входного аудиопотока человеческой речи, ее классификации и распознавания. При этом обычно решаются две подзадачи: распознавание говорящего и проверка. Для решения этих подзадач можно определить метод расчета степени сходства выборки с опорными сигналами. Степень сходства опорной и тестовой выборок можно рассчитать с использованием определенной меры расстояния или с использованием вероятностных критериев [2]. Алгоритм идентификации говорящего можно также определить как текстозависимый и текстонезависимый. Если алгоритм идентификации речи зависит от текста, то в нем можно использовать как фиксированные заранее фразы, так и фразы, которые генерируются системой распознавания. Текстонезависимые системы необходимы для обработки произвольной речи [3].

В данной статье обсуждается проблема автоматической идентификации личности по ее вокальным характеристикам и реализуется алгоритм, который решает проблему текстозависимой идентификации.

Методы моделирования говорящего человека прошли большой путь от выполнения усреднения векторов признаков до осуществления сложных порождающих и дискриминационных моделей [4]. Концепция порождающих моделей включает в себя моделирование данных, применяемых при обучении, например, путем оценивания функции плотности вероятности (для модели гауссовых смесей). Дискриминационные модели призваны разграничивать отдельные классы (например, при реализации метода опорных векторов) [5].

В настоящее время широко распространены следующие способы для моделирования говорящего человека [6]:

  • для класса текстозависимых систем – динамическое преобразование времени (Dynamic Time Warping; DTW) и скрытые марковские модели (Hidden Markov Model; HMM);
  • для класса текстонезависимых систем – векторное квантование (Vector Quantification; VQ), модели гауссовой модели смеси (GMM) и метод опорных векторв (опорная векторная машина (SVM).

Dynamic Time Warping (DTW) – алгоритм динамического преобразования шкалы времени, метод динамического программирования, позволяющий находить расстояние между двумя временными рядами. Как правило, такие последовательности имеют разную длину, поэтому приходится производить измерения с различными скоростями. Основное преимущество данного алгоритма – это простота реализации. Хотя этот алгоритм с успехом используется в различных приложениях, иногда он дает неверные результаты. Алгоритм пытается исправить несогласованность оси x путем преобразования оси y, что может вызвать выравнивание, в котором одна точка исходного временного ряда связана с довольно большим массивом точек другого временного ряда [7]. Другая проблема при реализации данного алгоритма заключается в том, что ему трудно обнаружить выравнивание двух строк в связи с тем,  что некоторое значение ( которое может иметь вид пика, впадины, плато, максимума или минимума функции) одного ряда расположится несколько выше или несколько ниже соответствующей точки в другом ряду [8].

Если для решения задачи распознавания нескольких классов применяется метод опорных векторов, то часто можно использовать стратегию «один против другого». Это требует построения q-классификаторов, при этом каждый классификатор можно обучить отличию одного конкретного класса от других. При решении задачи идентификации объект будет определен как принадлежащий к классу, классификатор которого дает максимальное значение разделяющей функции f(x). Метод опорных векторов предполагает высокую точность классификации, имеет теоретическое обоснование, позволяет применение различных подходов к классификации в соответствии с выбором основной функции. Среди недостатков метода нужно отметить необходимость выбора ядра, а также достаточно большое время, необходимое для произведения процедуры обучения алгоритма для решения задачи многоклассового распознавания [9].

Модели гауссовых смесей могут быть применимы не только для моделирования характеристик голоса говорящего, но и для записи сигнала голоса и окружающей среды. Каждый из компонентов модели отражает некоторые общие особенности голоса, но индивидуальные при их воспроизведении каждым говорящим. Модели гауссовых смесей доказали свою эффективность , так как обладают высокой точностью распознавания. Именно поэтому этот подход может быть успешно использован для решения проблемы идентификации текстонезависимого говорящего [10].

Расчет взвешенной суммы М компонент, представляющих модель гауссовых смесей, производится по формуле [11]

15-04-2019 16-38-03    (1)

где 15-04-2019 16-39-33  – D-мерный вектор случайных величин, pi, 1≤ i ≤ M – веса компонентов модели, 15-04-2019 16-39-53,1≤ i≤ M – функции плотности распределения составляющих модели:

15-04-2019 16-43-25    (2)

где 15-04-2019 16-46-10 – вектор математического ожидания и ∑i – ковариационная матрица. Веса смеси должны удовлетворять условию:

15-04-2019 16-47-59    (3)

Модель гауссовой смеси целиком определяется с использованием векторов математического ожидания, ковариационных матриц и весов смесей для каждой из компонентов модели:

15-04-2019 16-48-19      (4)

При использовании метода каждый говорящий человек может быть представлен своей моделью гауссовской смеси.

Чтобы построить систему автоматической идентификации личности по голосу с использованием гауссовых смесей необходимо решить следующие подзадачи:

  • Извлечь и обработать признаки входного речевого сигнала;
  • Разработать алгоритм инициализации и оценки параметров модели;
  • Определить число компонентов модели гауссовых смесей.

Сначала выполняется аналогово-цифровое преобразование звукового сигнала. При дискретизации сигнал разбивается на отдельные значения квантованной амплитуды через некоторые временные интервалы.

Вся запись сигнала просматривается окнами заранее заданной длительности, которые перекрываются. Рекомендуется выбирать длительность временного окна в пределах 20-30 мс. В данной работе для упрощения расчетов длительность каждого окна была выбрана равной 25 мс.

Затем оцифрованный сигнал просматривается небольшими фрагментами (кадрами), которые характерны для отдельных вокальных компонентов речевого сигнала и для которых предполагается, что сигнал сохраняет постоянными свои свойства на данном промежутке времени. Далее происходит выбор функции окна. Функция временного окна должна принимать значение, не равное нулю, внутри некоторого временного отрезка, а за его пределами должна быть равна нулю. Затем функция окна последовательно налагается на фреймы сигнала, и из речевого кадра происходит извлечение информации. Извлечение этой информации происходит с помощью перемножения значения сигнала x[t], взятого в момент времени t со значением оконной функции w[t], взятой в момент времени t:

15-04-2019 16-53-28   (5)

Характеристиками оконной функции являются следующие параметры: ширина (в миллисекундах), смещение (число миллисекунд между границами последовательных окон) и форма. В данной работе применяется окно Хэмминга с шириной L = 30мс и смещением 10 мс.:

15-04-2019 16-53-51   (6)

После фильтрации каждого сегмента получаем полный сигнал, в котором отсутствуют шумы, помехи и прочие искажения, могущие мешать правильному распознаванию говорящего.

Далее необходимо извлечь из сигнала, полученного на предыдущих этапах алгоритма, информацию о спектральных составляющих, для чего используется дискретное преобразование Фурье. На вход вычислителя подается сигнал, разбитый на кадры, а на выходе вычислителя для каждого из T частотных диапазонов получаем комплексное число X[k], которое является амплитудой и фазой исходного сигнала. X[k] вычисляется по формуле:

15-04-2019 16-56-23   (7)

где k = 0,…,N-1.

Затем необходимо перейти от величины частоты звука f к значению высоты (мел). Сначала нужно расположить полученный спектр на мел-шкале. Эту операцию осуществляем по формуле

15-04-2019 16-57-57    (8)

Данная операция нужна для моделирования того, что человеческий слух имеет неодинаковую чувствительность в различных частотных диапазонах.

Затем необходимо сформировать треугольные фильтры, служащие для накопления значения энергии в каждом из частотных диапазонов (10 фильтров распределяются линейно ниже 1000Hz, а остальные – логарифмически выше 1000Hz) и взять логарифм каждого полученного значения мела. Использование логарифма необходимо для того, чтобы различия в способах подачи входного сигнала меньше влияли на оценки индивидуальных признаков речи.

Далее переводим полученные значения в шкалу с частотами. На следующем шаге алгоритма вычисляется кепстр сигнала. Это преобразование позволяет отделить источник волны звука от фильтра, свойства которого позволяют генерировать соответствующий звук при прохождении волны, имеющей частоту основного тона речи по голосовому каналу. При этом фильтр содержит большую часть полезной информации.

Каждый сегмент сигнала может быть описан с помощью 12 мел-частотных кепстральных коэффициентов. Для их нахождения используем формулу

15-04-2019 16-59-21   (9)

где 0≤ n <M

На рисунке 1 представлен график зависимости мел-частотных кепстральных коэффициентов от времени для двух кадров речевого сигнала двух различных дикторов,  которые произносили одинаковую речевую фразу. На графике можно видеть, что коэффициенты записи различаются для разных говорящих. Зависимость мел-частотных кепстральных коэффициентов от времени для двух различных записей речи одного и того же диктора представлены на рисунке 2. Из графика рисунка 2 можно видеть небольшую разницу между мел-частотными кепстральными коэффициентами.

После того, как рассчитаны все коэффициенты, сигнал записи должен пройти процедуру сравнения с эталонным сигналом, хранящимся в базе данных. Критерием совпадения этих сигналов будет являться мера расстояния Евклида.

На рисунке 3 представлена полная блок-схема алгоритма, на основе которой разработана программа для идентификации личности по ее вокальным данным.

15-04-2019 17-01-08

Рис. 1 – Зависимость мел-частотных кепстральных коэффициентов записей речи двух различных дикторов от времени в первых двух фреймах речевого сигнала

15-04-2019 17-01-26

Рис. 2 – Зависимость мел-частотных кепстральных коэффициентов записей речи одного и того же человека от времени в первых двух фреймах речевого сигнала

 

Чтобы инициализировать начальные параметры модели, в данной работе был использован алгоритм кластерного анализа для векторов признаков речевого сигнала. В качестве алгоритма кластеризации был выбран алгоритм K-means++, в котором в качестве меры искажения используется евклидово расстояние [12].

15-04-2019 17-17-10

15-04-2019 17-18-09

Рис. 3 – Блок-схема алгоритма автоматизации процесса идентификации диктора по голосу

 

Алгоритм K-means++ представляет собой модификацию алгоритма K-means. В данном алгоритме производится случайный выбор центра первого кластера, а затем каждый последующий центр может быть выбран из оставшихся точек данных с вероятностью, пропорциональной квадрату расстояния до ближайшего существующего центра кластера. После этого происходит выполнение стандартного алгоритма K-means. Преимуществом такого подходя является большое уменьшение погрешности конечного результата.

Для тестирования разработанного алгоритма было разработано программное средство на языке С++.  Были отобраны голосовые сигналы двадцати человек. Записи речи производились в моно режиме с помощью встроенного  в компьютер микрофона, имеющего частоту дискретизации 16 кГц и разрядность АЦП, равную 16 бит. Длительность речевого сигнала составляла 50 секунд, а длительность сигнала-теста – 15 секунд. Проверка работоспособности алгоритма производилась при различном числе компонент модели гауссовых смесей. На рисунке 4 изображена зависимость числа правильно идентифицированных дикторов (в %) от числа компонент модели гауссовых смесей.

15-04-2019 17-09-57

Рис. 4 – Зависимость числа правильно идентифицированных дикторов (в %) от числа компонент модели гауссовых смесей

 

Результаты разработки алгоритма автоматической идентификации личности по голосу для санкционирования доступа к информации, полученные в данной работе, позволяют сделать следующие выводы:

  • Для моделирования индивидуальных особенностей голоса компоненты гауссовых смесей подходят лучше всего, так как позволяют распознавать говорящих с высокой точностью.
  • Определение исходных параметров модели с использованием алгоритма K-means++ позволяет значительно увеличить скорость обучения и повысить точность идентификации.
  • Число компонент, являющееся оптимальным для эффективной работы системы равно пяти. При этом числе компонент точность идентификации говорящего составляет 96%, что свидетельствует о том, что реализованный алгоритм может быть с успехом применен для санкционирования доступа к информации по голосу пользователя.
Конфликт интересов

Не указан.

Conflict of Interest

None declared.

 

Список литературы / References

  1. Рыбин С. В. Синтез речи. Учебное пособие по дисциплине “Синтез речи” / С. В. Рыбин. – СПб: Университет ИТМО, 2014. – 92 с.
  2. Сорокин В. Н. Верификация диктора по спектрально-временным параметрам речевого сигнала / В. Н. Сорокин, А. И. Цыплихин // Информационные процессы. – 2010. –Т.10. – № 2. – С. 87–104
  3. Ахмад Хассан Мухаммад: Исследование и разработка алгоритмов параметризации речевых сигналов в системе распознавания диктора: дис….канд.тех.наук: 05.13.01: защищена 26.11.08: утв.12.06.09/ Ахмад Хассан Мухаммад.–Владимир, 2008.–157 с.
  4. Первушин Е. А. Обзор основных методов распознавания дикторов / Е. А. Первушин // Математические структуры и моделирование. –2011. – Вып. 24. – С. 41-54
  5. Campbell J. P., Speaker Recognition: A Tutorial / J. P. // Proceedings of the IEEE. 1997. V. 85, N 9. P. 1437-1462.
  6. Martin A., Przybocki M. The NIST 1999 Speaker Recognition Evaluation – An Overview // Digital Signal Processing. 2000. V. 10
  7. Kim S. H. Pattern Matching Trading System Based on the Dynamic Time Warping Algorithm. Sustainability / S. H. Kim, H. S. Lee, H .J. Ko and others.2018, 10, 4641.
  8. Thi-Thu-Hong Phan Dynamic time warpingbased imputation for univariate time series data. Pattern Recognition Letters / Phan Thi-Thu-Hong, Emilie Poisson Caillault, Alain Lefebvre, André Bigand., Elsevier, 2017, <10.1016/j.patrec.2017.08.019>. <hal-01609256>
  9. Баев Н. О. Использование метода опорных векторов в задачах классификации / Н. О. Баев // Международный журнал информационных технологий и энергоэффективности. – 2017. – Т.2 №2(4). – С. 17-21
  10. Chow D. Speaker Identification Based on Perceptual Log Area Ratio and Gaussian Mixture Models / D. Chow, H. Waleed, A. Robust. – Auckland, New Zealand: 2002. – 65 р.
  11. Садыхов Р. Х. Модели гауссовых смесей для верификации диктора по произвольной речи / Р. Х. Садыхов, В.В. Ракуш // Доклады БГУИР. – 2003. – №4. – С.98 – 103
  12. Шокина М. О. Применение алгоритма k-means++ для кластеризации последовательностей с неизвестным количеством кластеров [Электронный ресурс] / М. О. Шокина // Новые информационные технологии в автоматизированных системах. – 2017. – № 20. URL: https://cyberleninka.ru/article/n/primenenie-algoritma-k-means-dlya-klasterizatsii-posledovatelnostey-s-neizvestnym-kolichestvom-klasterov (дата обращения: 15.01.2019).

Список литературы на английском языке / References in English

  1. Rybin S. V. Sintez rechi. Uchebnoye posobiye po distsipline “Sintez rechi” [Synthesis of speech. Textbook on the discipline “Synthesis of speech.”] / S. V. Rybin. – SPb: Universitet ITMO, 2014. – 92p. [in Russian]
  2. Sorokin V. N. Verifikatsiya diktora po spektral’no-vremennym parametram rechevogo signala [Speaker verification using the spectral-temporal parameters of a speech signal] / V. N. Sorokin, A. I. Tsyplikhin // Informatsionnyye protsessy. [ Informational processes] – 2010. –T.10. – № 2. – P. 87–104 [in Russian]
  3. Akhmad Khassan Mukhammad: Issledovaniye i razrabotka algoritmov parametrizatsii rechevykh signalov v sisteme raspoznavaniya diktora [Research and development of algorithms for the parameterization of speech signals in the speaker recognition system]: dis…. PhD in Engineering: 05.13.01: defense of the thesis 26.11.08: approved 12.06.09/ Akhmad Khassan Mukhammad.–Vladimir, 2008.–157 p. [in Russian]
  4. Pervushin Ye. A. Obzor osnovnykh metodov raspoznavaniya diktorov [Review of the main speaker recognition methods] / Ye. A. Pervushin // Matematicheskiye struktury i modelirovaniye.[Mathematical Structures and Modeling] –2011. – Vyp. 24. – P. 41-54 [in Russian]
  5. Campbell J. P., Speaker Recognition: A Tutorial / J. P. // Proceedings of the IEEE. 1997. V. 85, N 9. P. 1437-1462.
  6. Martin A., Przybocki M. The NIST 1999 Speaker Recognition Evaluation – An Overview // Digital Signal Processing. 2000. V. 10
  7. Kim S. H. Pattern Matching Trading System Based on the Dynamic Time Warping Algorithm. Sustainability / S. H. Kim, H. S. Lee, H .J. Ko and others.2018, 10, 4641.
  8. Thi-Thu-Hong Phan Dynamic time warpingbased imputation for univariate time series data. Pattern Recognition Letters / Phan Thi-Thu-Hong, Emilie Poisson Caillault, Alain Lefebvre, André Bigand., Elsevier, 2017, <10.1016/j.patrec.2017.08.019>. <hal-01609256>
  9. Bayev N. O. Ispol’zovaniye metoda opornykh vektorov v zadachakh klassifikatsii [Using the support vector method in classification problems]/ N. O. Bayev // Mezhdunarodnyy zhurnal informatsionnykh tekhnologiy i energoeffektivnosti.[ International Journal of Information Technology and Energy Efficiency] – 2017. – T.2 №2(4). – P. 17-21 [in Russian]
  10. Chow D. Speaker Identification Based on Perceptual Log Area Ratio and Gaussian Mixture Models / D. Chow, H. Waleed, A. Robust. – Auckland, New Zealand: 2002. – 65 p.
  11. Sadykhov R. KH. Modeli gaussovykh smesey dlya verifikatsii diktora po proizvol’noy rechi [Models of Gaussian Mixtures for Speaker Verification by Arbitrary Speech] / R. KH. Sadykhov, V. V. Rakush // Doklady BGUIR.[ Reports of BSUIR] – 2003. – №4. – P.98 – 103 [in Russian]
  12. Shokina M. O. Primeneniye algoritma k-means++ dlya klasterizatsii posledovatel’nostey s neizvestnym kolichestvom klasterov [The use of the k-means ++ algorithm for clustering sequences with an unknown number of clusters][Electronic resource] / M. O.Shokina // Novyye informatsionnyye tekhnologii v avtomatizirovannykh sistemakh.[ New information technologies in automated systems] – 2017. – № 20. URL: https://cyberleninka.ru/article/n/primenenie-algoritma-k-means-dlya-klasterizatsii-posledovatelnostey-s-neizvestnym-kolichestvom-klasterov (accessed: 15.01.2019). [in Russian]

Оставить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Лимит времени истёк. Пожалуйста, перезагрузите CAPTCHA.