Library
|
Your profile |
Software systems and computational methods
Reference:
Glazkova A.V.
Statistical evaluation of the information content of attributes for the task of searching for semantically close sentences
// Software systems and computational methods.
2020. № 1.
P. 8-17.
DOI: 10.7256/2454-0714.2020.1.31728 URL: https://en.nbpublish.com/library_read_article.php?id=31728
Statistical evaluation of the information content of attributes for the task of searching for semantically close sentences
DOI: 10.7256/2454-0714.2020.1.31728Received: 15-12-2019Published: 05-03-2020Abstract: The paper presents the results of evaluating the informative value of quantitative and binary signs to solve the problem of finding semantically close sentences (paraphrases). Three types of signs are considered in the article: those built on vector representations of words (according to the Word2Vec model), based on the extraction of numbers and structured information and reflecting the quantitative characteristics of the text. As indicators of information content, the percentage of paraphrases among examples with a characteristic, and the percentage of paraphrases with a attribute (for binary characteristics), as well as estimates using the accumulated frequency method (for quantitative indicators) are used. The assessment was conducted on the Russian paraphrase corps. The set of features considered in the work was tested as input for two machine learning models for defining semantically close sentences: reference vector machines (SVMs) and a recurrent neural network model. The first model accepts only the considered set of signs as input parameters, the second - the text in the form of sequences and the set of signs as an additional input. The quality of the models was 67.06% (F-measure) and 69.49% (accuracy) and 79.85% (F-measure) and 74.16% (accuracy), respectively. The result obtained in the work is comparable with the best results of the systems presented in 2017 at the competition for the definition of paraphrase for the Russian language (the second result for the F-measure, the third result for accuracy). The results proposed in the work can be used both in the implementation of search models for semantically close fragments of texts in natural language, and for the analysis of Russian-language paraphrases from the point of view of computer linguistics. Keywords: semantic similarity, text classification, paraphrase detection, neural network, support vector machine, feature informativeness, accumulated frequencies, statistical evaluation, feature selection, machine learningВведение Анализ семантической близости текстов является актуальной задачей искусственного интеллекта и компьютерной лингвистики. Данная работа посвящена проблеме бинарной классификации предложений с точки зрения их семантического сходства, то есть определения парафразов – фраз, имеющих близкое семантическое значение, но отличающихся в лексическом плане. Механизмы анализа семантической схожести находят применение в ряде актуальных практических приложений: от систем поиска заимствований до инструментов оценки уникальности контента интернет-сайтов. Существует достаточно много работ, посвященных определению парафраза в англоязычных текстах (например, [1-7]). Большинство современных подходов используют методы машинного обучения, в частности, метод опорных векторов и нейронные сети (преимущественно сверточные [3] и сети долгой краткосрочной памяти [4-6], а также комбинации этих подходов [7]). Данные методы требуют построения репрезентативной обучающей выборки и ее качественной предобработки для получения информативного набора классификационных признаков. Семантическая близость текстов может проявляться на разных уровнях языка, поэтому подходы к определению парафраза должны учитывать влияние широкого спектра морфологических, лексических и синтаксических характеристик на степень сходства предложений. Для этого в работах [8-10] были предложены наборы признаков, основанных на оценке количества одинаковых слов в предложении, выявлении совпадающих именованных сущностей, оценке семантической близости слов. Оценка семантической близости может быть проведена как с помощью словарей, так и с использованием векторных представлений слов [11-13] – подходов к моделированию естественного языка, заключающихся в сопоставлении словам или фразам вещественных векторов фиксированной размерности. Идея построения векторных представлений слов основана на дистрибутивной семантике, согласно которой семантически близкие слова часто встречаются в сходном контексте [14]. В настоящее время векторные представления слов (Word2Vec, GloVE, FastText и др.) являются основой обучения систем обработки естественного языка.
Цель исследования Целью данной статьи является оценка информативности бинарных и количественных признаков для модели поиска семантически близких предложений в тексте на русском языке. На основании анализа существующих научных работ, в статье рассмотрены три типа признаков, основанных на:
Данные Оценка информативности проведена на материалах русскоязычного корпуса парафразов [15]. В 2017 году на данных корпуса было проведено соревнование [16] по определению парафразов в парах русских предложений. На соревновании были продемонстрированы подходы с использованием правил [17], машины опорных векторов [18-19], градиентного бустинга [20] и сверточных нейронных сетей [21]. Русский корпус парафразов состоит из заголовков новостных статей. Один пример представляет собой пару предложений, являющихся или не являющихся парафразами друг относительно друга. Разметка пар предложений по степени семантической близости была проведена с помощью экспертной оценки. Количество примеров в части корпуса, предназначенной для обучения классификатора, – 9809 пар семантически несхожих заголовков и 4645 примеров парафраз. Тестовая выборка состоит из 6000 примеров.
Методы оценки В работе рассматриваются классификационные признаки, значения которых представлены в бинарной и количественной шкалах. В качестве меры информативности бинарных признаков были оценены два показателя: с1=Pp/(Pp+Np) – доля парафразов среди всех примеров, обладающих признаком, где Pp и Np – количество семантически схожих и несхожих пар соответственно среди примеров, имеющих значение признака, равное 1; c2=Pp/(Pp+Pn) – доля парафразов, обладающих признаком, где Pp и Pn – количество парафразов, имеющих соответственно значение признака, равное 1 и 0. Первый показатель характеризует непосредственно значимость данного признака при решении задачи определения класса объекта, второй демонстрирует распространенность данного признака в рамках класса парафразов и позволяет сделать вывод о репрезентативности выборки примеров, обладающих признаком. Оценка количественных признаков проводилась при помощи метода накопленных частот [22-24]. Суть метода накопленных частот состоит в следующем. 1. Формируются две равные по количеству примеров выборки значений признака f, принадлежащие классам P и N соответственно. 2. Весь интервал распределения признака делится на m отрезков и для каждого класса высчитывается, сколько раз признак принимает значение из каждого интервала. 3. На основе эмпирических распределений признака f подсчитываются накопленные частоты (то есть сумма частот от начального до текущего интервала распределения). 4. Оценка информативности признака f вычисляется как модуль максимальной разности накопленных частот в выборках из примеров из классов P и N. Пример. Пусть имеются выборки объектов двух классов P и N, состоящие из 100 примеров. Признак f распределен в 5 числовых отрезках следующим образом: fP=(10,50,40,0,0), fN=(0,0,0,40,60). Накопленные частоты на основе эмпирических распределений признака f: f'P=(10,60,100,100,100), f'N=(0,0,0,40,100). Максимальная по модулю разность накопленных частот равна 100 (на интервале 3). В целях масштабирования итоговая оценка может быть разделена на размер выборки: If=100/100=1. Исходя из полученной оценки, можно сделать вывод о том, что при условии репрезентативности рассмотренных выборок признак fявляется информативным на 100% (If=1). Очевидно, что в приведенном примере значения признака fдостаточно для проведения классификации по классам P и N: если значение признака для некоторого объекта попадает в 3 первых интервала, то объект относится к классу P, в противном случае – к классу N.
Эксперимент и результаты Извлечение и оценка информативности признаков проводились с помощью средств языка программирования Python 3.6 и свободно распространяемых библиотек:
Оценка информативности проводилась на 9290 примерах (4645 пар семантически схожих предложений + 4645 случайных пар семантически несхожих предложений). Таким образом, в экспериментах использовалось равное количество примеров обоих классов. В таблице 1 представлены результаты оценки бинарных признаков. Признаки в таблице упорядочены по частоте их выраженности в классе парафразов (по столбцу 3). В таблице приведены признаки, для которых доля парафразов, обладающих признаком, превышает 0.01. Степени выраженности бинарных признаков обусловлены спецификой корпуса, взятого для анализа. Поскольку русскоязычный корпус парафразов состоит из новостных заголовков, для него типично использование именованных сущностей. Так, 49,97% парафразов в корпусе содержат одинаковые географические названия.
Таблица 1. Оценка выраженности бинарных признаков
Результаты оценки количественных признаков с помощью метода накопленных частот приведены в таблице 2. В ходе экспериментов в данной работе использовалось количество интервалов m=10, итоговая оценка по методу накопленных частот была разделена на размер выборки в целях приведения значения к диапазону [0;1] для большей наглядности полученных результатов. Наибольшую информативность продемонстрировали признаки, характеризующие расстояние между суммами векторных представлений слов и долю совпадающих словоформ в предложениях. Для вычисления значений признаков, основанных на векторных представлениях слов, была использована модель Word2Veс [25], обученная с помощью алгоритма Skipgram на текстах русскоязычной Википедии за 2018 год. Таблица 2. Оценка количественных признаков с помощью накопленных частот
Полученный набор признаков был протестирован на задаче поиска парафразов. В таблице 3 приводится сравнение трех моделей: 1) машина опорных векторов, обученная на наборе количественных и бинарных признаков, представленных в таблицах 1-2; 2) рекуррентная нейронная сеть с LSTM-слоями (долгой краткосрочной памяти, long short-term memory), основанная на "сиамской" архитектуре [5], структура сети представлена на рисунке 1; 3) нейронная сеть, комбинирующая рекуррентную сеть с сетью прямого распространения (рисунок 1). Вход сети, обозначенный "input_3", предназначен для дополнительных признаков.
Таблица 3. Результаты классификации
Для реализации моделей машинного обучения использовались библиотеки Scikit-learn (машина опорных векторов) и Keras (нейронные сети). Количество нейронов в рекуррентных слоях и в слоях прямого распространения выбрано экспериментально и равно 128. Функция активации нейронов на внутренних слоях – гиперболический тангенс, на выходном слое – softmax. В качестве оптимизационного алгоритма использован adaptive moment estimation (Adam Optimizer). Показатели третьей модели сравнимы по качеству с результатами, продемонстрированными системами – участниками соревнования [16] (второй результат по F-мере и третий по точности). Использование рассмотренного в работе набора бинарных и количественных признаков в качестве дополнительных входных данных нейронной сети позволило улучшить качество рекуррентной сети более чем на 7% по F-мере и более чем на 3% по точности. Таким образом, набор дополнительных классификационных признаков поспособствовал увеличению эффективности рекуррентной нейросетевой модели. Рисунок 1. Архитектура нейросетевых моделей: слева – модель 2, справа – модель 3.
Заключение В рамках данной работы проведена оценка информативности признаков для определения семантически близких предложений на примере русского языка. Оценки получены для русского корпуса парафразов, содержащего тексты новостных заголовков. Результаты позволяют выявить наиболее значимые признаки для построения классификатора коротких текстов по степени их семантической близости, однако значение информативности ряда признаков (особенно бинарных характеристик, связанных с извлечением структурированной информации) обусловлено спецификой текстов корпуса. Рассмотренные признаки протестированы в качестве дополнительных входных данных нейросетевой модели для определения парафразов. Полученная модель демонстрирует достаточно высокое качество классификации в сравнении с существующими системами определения парафразов в текстах на русском языке.
References
1. El Desouki M. I., Gomaa W. H. Exploring the Recent Trends of Paraphrase Detection //International Journal of Computer Applications. – 2019. – T. 975. – S. 8887. DOI: https://doi.org/10.5120/ijca2019918317.
2. Smerdov A. N., Bakhteev O. Y., Strijov V. V. Optimal recurrent neural network model in paraphrase detection⇤ //Informatika i Ee Primeneniya [Informatics and its Applications]. – 2018. – T. 12. – №. 4. – S. 63-69. DOI: https://doi.org/10.14357/19922264180409. 3. Yin W., Schütze H. Convolutional neural network for paraphrase identification //Proceedings of the 2015 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. – 2015. – S. 901-911. DOI: https://doi.org/10.3115/v1/n15-1091. 4. Neculoiu P., Versteegh M., Rotaru M. Learning text similarity with siamese recurrent networks //Proceedings of the 1st Workshop on Representation Learning for NLP. – 2016. – S. 148-157. DOI: https://doi.org/10.18653/v1/w16-1617. 5. Dien D. et al. Vietnamese-English Cross-Lingual Paraphrase Identification Using Siamese Recurrent Architectures //2019 19th International Symposium on Communications and Information Technologies (ISCIT). – IEEE, 2019. – S. 70-75. DOI: https://doi.org/10.1109/iscit.2019.8905116. 6. Reddy D. A., Kumar M. A., Soman K. P. LSTM based paraphrase identification using combined word embedding features //Soft Computing and Signal Processing. – Springer, Singapore, 2019. – S. 385-394. DOI: https://doi.org/10.1007/978-981-13-3393-4_40. 7. Agarwal B. et al. A deep network model for paraphrase detection in short text messages //Information Processing & Management. – 2018. – T. 54. – №. 6. – S. 922-937. DOI: https://doi.org/10.1016/j.ipm.2018.06.005. 8. Das D., Smith N. A. Paraphrase identification as probabilistic quasi-synchronous recognition //Proceedings of the Joint Conference of the 47th Annual Meeting of the ACL and the 4th International Joint Conference on Natural Language Processing of the AFNLP: Volume 1-Volume 1. – Association for Computational Linguistics, 2009. – S. 468-476. DOI: https://doi.org/10.3115/1687878.1687944. 9. Vo N. P. A., Magnolini S., Popescu O. Paraphrase identification and semantic similarity in twitter with simple features //Proceedings of the third International Workshop on Natural Language Processing for Social Media. – 2015. – S. 10-19. DOI: https://doi.org/10.3115/v1/w15-1702. 10. Nagatsuka K., Atsumi M. Paraphrase Identification for Twitter by Co-Training Based on Words and Characters //2018 Joint 10th International Conference on Soft Computing and Intelligent Systems (SCIS) and 19th International Symposium on Advanced Intelligent Systems (ISIS). – IEEE, 2018. – S. 1448-1452. DOI: https://doi.org/10.1109/scis-isis.2018.00227. 11. Yan F., Fan Q., Lu M. Improving semantic similarity retrieval with word embeddings //Concurrency and Computation: Practice and Experience. – 2018. – T. 30. – №. 23. – S. e4489. DOI: https://doi.org/10.1002/cpe.4489. 12. Jurdzinski G. et al. Word embeddings for morphologically complex languages //Schedae Informaticae. – 2017. – T. 2016. – №. Volume 25. – S. 127-138. DOI: https://doi.org/10.4467/20838476si.16.010.6191. 13. Li Y., Yang T. Word embedding for understanding natural language: a survey //Guide to Big Data Applications. – Springer, Cham, 2018. – S. 83-104. DOI: https://doi.org/10.1007/978-3-319-53817-4_4. 14. Camacho-Collados J., Pilehvar M. T. From word to sense embeddings: A survey on vector representations of meaning //Journal of Artificial Intelligence Research. – 2018. – T. 63. – S. 743-788. DOI: https://doi.org/10.1613/jair.1.11259. 15. Pronoza E., Yagunova E., Pronoza A. 2015. Construction of a Russian paraphrase corpus: unsupervised paraphrase extraction. Russian Summer School in Information Retrieval. St. Petersburg. 146-157. DOI: https://doi.org/10.1007/978-3-319-41718-9_8. 16. Pivovarova L. et al. 2017. ParaPhraser: Russian paraphrase corpus and shared task// Conference on Artificial Intelligence and Natural Language. – Springer, Cham, 2017. C. 211-225. DOI: https://doi.org/10.1007/978-3-319-71746-3_18. 17. Boyarsky K., Kanevsky E. 2017. Effect of semantic parsing depth on the identification of paraphrases in Russian texts// Conference on Artificial Intelligence and Natural Language. – Springer, Cham, 2017. C. 226-241. DOI: https://doi.org/10.1007/978-3-319-71746-3_19. 18. Loukachevitch N. et al. 2017. RuThes thesaurus in detecting Russian paraphrases// Conference on Artificial Intelligence and Natural Language. – Springer, Cham, 2017. C. 242-256. DOI: https://doi.org/10.1007/978-3-319-71746-3_20. 19. Eyecioglu A., Keller B. 2017. Knowledge-lean paraphrase identification using character-based features// Conference on Artificial Intelligence and Natural Language. – Springer, Cham, 2017. C. 257-276. DOI: https://doi.org/10.1007/978-3-319-71746-3_21. 20. Kravchenko D. 2017. Paraphrase detection using machine translation and textual similarity algorithms// Conference on Artificial Intelligence and Natural Language. – Springer, Cham, 2017. C. 277-292. DOI: https://doi.org/10.1007/978-3-319-71746-3_22. 21. Maraev V. et al.. 2017. Character-level convolutional neural network for paraphrase detection and other experiments// Conference on Artificial Intelligence and Natural Language. – Springer, Cham, 2017. C. 293-304. DOI: https://doi.org/10.1007/978-3-319-71746-3_23. 22. Zagoruiko N.G. Prikladnye metody analiza dannykh i znanii. Novosibirsk: Izd-vo IM SO RAN, 1999. 270 s. 23. Aivazyan S.A., Bukhshtaber V.M., Enyukov I.S., Meshalkin L.D. Prikladnaya statistika: Klassifikatsiya i snizhenie razmernosti: spravochnik. M.: Finansy i statistika, 1989. 250 s. 24. Bykova V.V., Kataeva A.V. Metody i sredstva analiza informativnosti priznakov pri obrabotke meditsinskikh dannykh // Programmnye produkty i sistemy. 2016. №2 (114). S. 172-178. DOI: 10.15827/0236-235X.114.172-178. 25. Mikolov T. et al. Distributed representations of words and phrases and their compositionality //Advances in neural information processing systems. – 2013. – S. 3111-3119. |