Аннотації
07.03.2019
Технологія розпізнавання гучномовців широко використовується в Інтернеті та комунікації. Упродовж останніх років теорія стисненого зондування привернула велику увагу в Росії та за кордоном. Порушивши обмеження частоти дискретизації Найквіста, можна вибирати стиснені сигнали, стискаючи їх одночасно з метою підвищення продуктивності системи розпізнавання динаміків. Прагнучи до текстово-незалежної технології розпізнавання динаміків, представлена стаття розкриває поглиблене вивчення алгоритму байєсівського стисненого зондування. Відповідно до характеристик розрідженого коефіцієнта в алгоритмі введено гаусовське попереднє припущення, після чого запропоновано алгоритм розпізнавання динаміків, заснований на байєсівському стислому зондуванні.
Speaker recognition technology is widely used in the Internet and communication filed. In recent years, compressed sensing theory attracted wide attention in and abroad. Having broken through the limitations of the Nyquist sampling rate, it can sampled compressible signals while compressing them at the same time.As a new theory, compressed sensing theory was brought into the filed of speaker recognition technology where huge breakthrough is in great demand to bring hope to enhance the performance of speaker recognition system. Aiming at the text independent speaker recognition technology, this paper made a profound study on the Bayesian compressed sensing algorithm. According to the characteristics of the sparse coefficient in the algorithm, a Gaussian prior assumption is introduced. And then a speaker recognition algorithm based on Bayesian compressed sensing is proposed.
- Candes, E, Romberg, J, Tao, T. (2006). Robust uncertainty principles: exact signal reconstruction from highly incomplete frequency information [J]. IEEE Transactions on Information Theory, 52(2), 489-509.
- Ji, S., Xue, Y. and Carin, L. (2008). Bayesian Compressive Sensing [J]. IEEE Transactions on Signal Processing, 56(6), 2346–2356.
- Tipping, M.E. (2001). Sparse Bayesian learning and the relevance vector machine [J]. Journal of Machine Learning Research, 1:211–244.
- Jing, Wan, Zhilin, Zhang, Jingwen, Yan, et al. (2012). Sparse Bayesian multi-task learning for predicting cognitive outcomes from neuroimaging measures in Alzheimer’s desease [C]. Computer Vision and Pattern Recognition (CVPR), IEEE Conference on Providence, RI, 940–947.
- Tipping, M.E. (2001). Sparse Bayesian learning and the relevance vector machine [J]. Journal of Machine Learning Research, 1:211–244.
- Hong, Sun, Zhilin, Zhang, Lei, Yu. (2012). From sparse to structured sparse: bayesian method [J]. Signal processing, 28 (6), 759-770.
- Donoho, D.L., Elad, M. (2003). Optimally sparse representation in general dictionaries via l1 minimization [J]. Proceedings of the National Academy of Sciences of the USA, National Acad Sciences, 100(5), 2197.
- Wipf, D.P. & Rao, B.D. (2004). Sparse Bayesian learning for basis selection [J]. Signal Processing, IEEE Transactions, 52(8), 2153-2164.
- Wipf, D. & Nagarajan, S. (2010). Iterative reweighted l1 and l2 methods for finding sparse solutions [J]. IEEE Journal of Selected Topics in Signal Processing, 4(2), 317-329.
- Candes, E.J., Wakin, M.B., & Boyd, S.P. (2008). Enhancing sparisity by reweighted l1 minimization [J]. J Fourier Anal Appl, 14, 877-905.