Аннотації

Автор(и):
Михайленко В.М., Терейковская Л.А.
Дата публікації:

06.02.2019

Анотація (укр):

Однією з найбільш істотних тенденцій розвитку інформаційних систем загального і спеціального призначення є розробка інтерфейсних засобів, що забезпечують безпосередню взаємодію кінцевого користувача і комп'ютера. Для цього інтерфейс системи повинен мати властивість гнучкої реакції на зміну емоційного стану користувача, що передбачає необхідність визначення зазначеного стану. Широке впровадження відеореєстраторів зумовлює актуальність науково-прикладного завдання підвищення ефективності засобів розпізнавання емоційного стану за геометрією обличчя. Встановлено, що в сучасній науково-прикладній літературі недостатньо повно окреслені підходи, що визначають залежність ефективності таких засобів розпізнавання від умов використання. В результаті проведених досліджень обґрунтовано базовий перелік характеристик засобів автоматизованого розпізнавання емоційного стану людини за геометрією обличчя, який допомагає оцінити відповідність зазначених засобів умовам поставленої задачі розпізнавання. Показана доцільність формування переліку характеристик засобів розпізнавання емоцій на підставі аналізу таких біометричних ознак, як колір підшкірного візерунка кровоносних судин особи, тембр голосу, малюнок сітківки ока.

Анотація (рус):

Одной из наиболее существенных тенденций развития информационных систем общего и специального назначения является разработка интерфейсных средств, обеспечивающих непосредственное взаимодействие конечного пользователя и компьютера. Для этого разрабатываемый интерфейс должен обладать свойством гибкой реакции на изменение эмоционального состояния пользователя, что предполагает необходимость определения указанного состояния. Повсеместное внедрение видеорегистраторов предопределяет актуальность научно-прикладной задачи повышения эффективности средств распознавания эмоционального состояния по геометрии лица. Установлено, что в современной научно-прикладной литературе недостаточно полно очерчены подходы, определяющие зависимость эффективности таких средств распознавания от условий использования. В результате проведенных исследований обоснован базовый перечень характеристик средств автоматизированного распознавания эмоционального состояния человека по геометрии лица, который позволяет оценить соответствие указанных средств условиям поставленной задачи распознавания. Показана целесообразность формирования перечня характеристик средств распознавания эмоций на основании анализа таких биометрических признаков, как цвет подкожного узора кровеносных сосудов лица, тембр голоса, рисунок сетчатки глаза.

Анотація (англ):

One of the most significant trends in the development of information systems for general and special purposes is the development of interface tools that provide direct interaction between the end user and the computer. To do this, the interface being developed must have the property of a flexible response to a change in the user's emotional state, which implies the need to determine the specified state. The widespread introduction of video recorders predetermines the relevance of the scientific and applied task of increasing the efficiency of means of recognizing the emotional state according to the geometry of a person. It has been established that in modern scientific and applied literature the approaches that determine the dependence of the effectiveness of such means of recognition on the conditions of use are not completely outlined. As a result of the research, a basic list of characteristics of automated recognition tools for the emotional state of a person was substantiated by face geometry, which allows to evaluate the compliance of these tools with the conditions of the assigned recognition task. The feasibility of forming a list of characteristics of emotion recognition based on the analysis of such biometric features, such as the colour of the subcutaneous pattern of the blood vessels of the face, the timbre of the voice, the retina pattern, is shown

Література:

  1. Belsky J., Fish M., Isabella R. Continuity and discontinuity in infant negative and positive emotoinality: Family antecedents and attachment consequences. Developmental Psychology. ‒ 1991, V. 27. P. 421 431.
  2. Bojorges E. R. Scaling patterns of heart rate variability data. Physiol. Meas., 2007. 28(6). ‒ P. 721.
  3. Chandrani S., Washef A., Soma M., Debasis M. Facial Expressions: A Cross-Cultural Study. Emotion Recognition: A Pattern Analysis Approach. Wiley Publ., 2015, pp. 69–86.
  4. Dawson M., Schell A. Handbook of Psychophysiology, Cambridge University Press, New York, 2000.
  5. Konar A., Chakraborty A. Emotion recognition: a pattern analysis approach. Wiley. 2015. P. 583.
  6. Littlewort, G., Whitehill, J., Wu, T., Fasel, I., Frank, M., Movellan, J. and Bartlett, M. 2011. The Computer Expression Recognition Toolbox (CERT). Proceedings of the IEEE International Conference on Automatic Face and Gesture Recognition, 298 – 305.
  7. Milborrow S., Nicolls F. Active Shape Models with SIFT Descriptors andMARS, VISAPP (2) Publ., 2014, pp. 380–387.
  8. Shanshan L. Facial expression recognition algorithm based on local Gabor wavelet automatic segmentation. Journal of Computer Applications, 11, 2009, pp. 29 – 37.
  9. Tariq U., Lin K., Li Z., Zhou Z, Wang Z., Le V., Huang T.S., Lv X., Han T.X., Emotion Recognition from an Ensemble of Features. Systems, Man, and Cybernetics, Part B: Cybernetics, IEEE Transactions, 2012, vol. 42, no. 4, pp. 1017 – 1026.
  10. Tereykovska, L., Tereykovskiy, I., Aytkhozhaeva, E., Tynymbayev, S., Imanbayev, A. Encoding of neural network model exit signal, that is devoted for distinction of graphical images in biometric authenticate systems. News of the national academy of sciences of the republic of Kazakhstan. Series of geology and technical sciences, Volume 6, Number 426 (2017), 217 – 224.
  11. Wu, T., Butko, N.J., Ruvolo, P., Whitehill, J., Bartlett, M.S. and Movellan, J.R. 2012. Multi-Layer Architectures for Facial Action Unit Recognition. IEEE Transactions on Systems, Man and Cybernetics, Part B: Cybernetics, 42, 4, 1027 – 1038.

 

References:

  1. Belsky, J., Fish, M., Isabella, R. (1991). Continuity and discontinuity in infant negative and positive emotoinality: Family antecedents and attachment consequences. Developmental Psychology, 27, 421 – 431.
  2. Bojorges, E.R. (2007). Scaling patterns of heart rate variability data. Physiol. Meas., 28(6), 721.
  3. Chandrani, S., Washef, A., Soma, M., Debasis, M. (2015). Facial Expressions: A Cross-Cultural Study. Emotion Recognition: A Pattern Analysis Approach. Wiley Publ., 69 86.
  4. Dawson, M., Schell, A. (2000). Handbook of Psychophysiology, Cambridge University Press, New York.
  5. Konar, A., Chakraborty, A. (2015). Emotion recognition: a pattern analysis approach. Wiley, 583.
  6. Littlewort, G., Whitehill, J., Wu, T., Fasel, I., Frank, M., Movellan, J. and Bartlett, M. (2011). The Computer Expression Recognition Toolbox (CERT). Proceedings of the IEEE International Conference on Automatic Face and Gesture Recognition, 298 305.
  7. Milborrow, S., Nicolls, F. (2014). Active Shape Models with SIFT Descriptors and MARS. VISAPP (2) Publ, 380–387.
  8. Shanshan, L. (2009). Facial expression recognition algorithm based on local Gabor wavelet automatic segmentation. Journal of Computer Applications, 11, 29 – 37.
  9. Tariq, U., Lin, K., Li, Z., Zhou, Z, Wang, Z., Le, V., Huang, T.S., Lu, X., Han, T.X. (2012). Emotion Recognition from an Ensemble of Features. Systems, Man, and Cybernetics, Part B: Cybernetics. IEEE Transactions, 42, 4, 1017 1026.
  10. Tereykovska, L., Tereykovskiy, I., Aytkhozhaeva, E., Tynymbayev, S., Imanbayev, A. (2017). Encoding of neural network model exit signal, that is devoted for distinction of graphical images in biometric authenticate systems. News of the national academy of sciences of the republic of Kazakhstan. Series of geology and technical sciences, 6, 426, 217 224.
  11. Wu, T., Butko, N.J., Ruvolo, P., Whitehill, J., Bartlett, M.S. & Movellan, J.R. (2012). Multi-Layer Architectures for Facial Action Unit Recognition. IEEE Transactions on Systems, Man and Cybernetics, Part B: Cybernetics, 42, 4, 1027 – 1038.