Аннотації

Автор(и):
Вронський С. В., Андрашко Ю. В.
Автор(и) (англ)
Vronskyi S., Andrashko Y.
Дата публікації:

25.12.2025

Анотація (укр):

Дослідження присвячене огляду сучасних моделей та методів, що використовуються для аналізу ефективності тестової форми контролю знань. Наведено опис теоретичних підходів до оцінювання результатів здійснюваного тестування. Розглянуто математичні моделі сучасної теорії тестування, що описують взаємозв’язок між навичками здобувачів та їх практичним відображенням при виконанні тестових завдань. Наведено опис загальних принципів адаптивного тестування з використанням дихотомічних та політомічних завдань для контролю знань та вмінь здобувачів, набутих у процесі навчання. Проаналізовано тестовий підхід до оцінки рівня знань, оскільки його застосування передбачає об’єктивне оцінювання знань і врахування різноманітних аспектів навчальної діяльності: уміння впізнавати і розуміти матеріал, класифікувати явища й процеси, визначати послідовність логічних операцій, систематизувати і синтезувати ситуації і процеси, в подальшому – проводити самостійні дослідження та застосовувати отримані знання на практиці. У статті досліджено специфіку застосування різноманітних підходів, що описують теоретичну основу функціонування сучасної теорії тестування: однопараметричних моделей Раша та Фергюсона, двопараметричної та трипараметричної моделей Бірнбаума. У науковому дослідженні наведено огляд алгоритму роботи та специфіку використання засобів адаптивного тестування, що використовується для визначення загального рівня знань з певних навчальних дисциплін; розглянуто математичний апарат, що застосовується безпосередньо для формування блоків завдань відповідного рівня складності та для інтерпретації результатів перевірки знань здобувачів різного рівня підготовки. Особливу увагу приділено автоматичному підбору завдань необхідного рівня складності, що безпосередньо базується на результатах тестування в режимі реального часу. Такий алгоритм дозволяє виявити рівень знань тестованого з конкретної дисципліни, водночас оцінюючи його психометричні характеристики: рівень зосередженості, вміння протистояти стресовим ситуаціям, швидкість перемикання між завданнями різного типу та рівня складності. Також важливим є попередній розподіл завдань за блоками відповідно до типу сформульованої умови виконання завдання та кількості логічних кроків, що необхідно здійснити для правильного розв’язання завдання. Отриманий в результаті повного проходження тестування профіль рівня знань тестованого дозволяє виявити не тільки прогалини в знаннях з певного предмету, а й оцінити рівень психомоторної адаптації до процесу тестування в процесі виконання завдань.

Анотація (рус):

Анотація (англ):

The research is devoted to a review of modern models and methods used to analyze the effectiveness of the test form of knowledge control. A description of theoretical approaches to evaluating the results of testing is provided. Mathematical models of modern testing theory are considered, describing the relationship between candidates' skills and their practical reflection when performing test tasks. A description of the general principles of adaptive testing using dichotomous and polytomous tasks to control the knowledge and skills of applicants acquired in the learning process is provided. The test approach to assessing the level of knowledge is analyzed, since its application involves an objective assessment of knowledge and taking into account various aspects of educational activity: the ability to recognize and understand the material, classify phenomena and processes, determine the sequence of logical operations, systematize and synthesize situations and processes, and subsequently to conduct independent research and apply the knowledge gained in practice. The article explores the specifics of the application of various approaches that describe the theoretical basis for modern testing theory functioning: one-parameter models of Rasch and Ferguson, twoparameter and three-parameter models of Birnbaum. The scientific study provides an overview of the work algorithm and the specifics of using adaptive testing tools used to determine the general level of knowledge in certain academic disciplines; the mathematical apparatus used directly for forming blocks of tasks of the appropriate complexity level and for interpreting the results of testing the knowledge of applicants of different levels of training is considered. Special attention is paid to the automatic task selection of the required level of complexity, which is directly based on the testing results in real time. Such an algorithm allows for identifying the knowledge level of the test-taker in a particular discipline, while at the same time assessing their psychometric characteristics: the level of concentration, the ability to withstand stressful situations, and the speed of switching between different task types and levels of complexity. Also important is the preliminary distribution of tasks into blocks according to the type of formulated condition for completing the task and the number of logical steps that must be taken to correctly solve the task. The profile of the test-taker's knowledge level obtained as a result of the complete testing allows for identifying not only gaps in knowledge in a particular subject, but also for assessing the level of psychomotor adaptation to the testing process during task performance.

Література:

  1. Карташов М. В. Імовірність, процеси, статистика. Київ : ВПЦ «Київський університет», 2007. 504 с.
  2. Оксенюк І. І. Організація діагностики та контролю знань засобами комп’ютерного тестування. Педагогічний пошук. 2022. № 1 (113). С. 31–35.
  3. Сачанюк-Кавецька Н. В., Прозор О. П. Особливості тестового контролю знань студентів вищих навчальних закладів. Dynamics of the development of world science : the 8th International scientific and practical conference (April 15-17, 2020). Vancouver, Canada : Perfect Publishing, 2020. P. 796–803.
  4. Шевчук С. С. Вектори підвищення якості професійної підготовки фахівців у сучасних умовах. Імідж сучасного педагога : електрон. наук. фах. журнал. 2020. № 3 (192). С. 5–9.
  5. Bae C. L., Therriault D. J., Redifer J. L. Investigating the testing effect: Retrieval as a characteristic of effective study strategies. Learning and Instruction. 2019. Vol. 60 (1). P. 206–214.
  6. Han J., Morag C. The influence of the sigmoid function parameters on the speed of backpropagation learning. From Natural to Artificial Neural Computation : Lecture Notes in Computer Science. 1995. Vol. 930. P. 195–201.
  7. Linden W., Hambleton R. Handbook of modern item response theory. New York : Springer, 2018. 512 p.
  8. Loken E., Rulison K. L. Estimation of Four-Parameter Item Response Theory Model. British Journal of Mathematical and Statistical Psychology. 2010. № 63. P. 509–525.
  9. Rasch G. Probabilistic models for some intelligence and attainment tests. Chicago : The University of Chicago Press, 1980. 199 p. (бажано вказати кількість сторінок).
  10. Riggs C. D., Kang S., Rennie O. Positive Impact of Multiple-Choice Question Authoring and Regular Quiz Participation on Student Learning. CBE Life Sci Educ. 2020. № 19 (2).
  11. Ronald K. Comparison of classical test theory and item response theory and their applications to test development. Educational Measurement: issues and practice. 1993. Vol. 12, Iss. 3. P. 21–28. (додано том/випуск для повноти).
  12. Rusch T., Lowry P., Mair P., Treiblmaier H. Breaking free from the limitations of classical test theory: Developing and measuring information systems scales using item response theory. Information & Management. 2017. Vol. 54 (2). P. 189–203.
  13. Wang W. Are All Item Response Functions Monotonically Increasing : Dissertation Ph.D. Kansas, 2012. 166 р.
  14. Wiberg M. Classical test theory vs. item response theory. Emergency Medicine. 2004. № 50. URL: http://www.edusci.umu.se/digitalAssets/59/59529_em-no-50.pdf (дата звернення: 14.01.2026).
  15. Ying C. Computerized adaptive testing: New developments and applications. University of Illinois at Urbana-Champaign, 2008. 92 p.

 

References:

  1. Kartashov, M. V. (2007). Probability, processes, statistics. Kyiv: University Publishing and Printing Center. 504 p.
  2. Okseniuk, I. I. (2022). Organization of Diagnostics and Control of Knowledge by Means of Computer Testing. Pedagogical Search, 1 (113), 31–35.
  3. Sachanyuk-Kavetska, N. V., & Prozor, O. P. (2020). Features of test control of knowledge of students of higher educational institutions. In Dynamics of the Development of World Science: The 8th International Scientific and Practical Conference (April 15-17, 2020). Vancouver, Canada: Perfect Publishing, 796–803.
  4. Shevchuk, S. S. (2020). Vectors of the specialists' vocational training quality improvement in modern conditions. Image of the Modern Pedagogue, 3 (192), 5–9.
  5. Bae, C. L., Therriault, D. J., & Redifer, J. L. (2019). Investigating the testing effect: Retrieval as a characteristic of effective study strategies. Learning and Instruction, 60 (1), 206–214.
  6. Han, J., & Morag, C. (1995). The influence of the sigmoid function parameters on the speed of backpropagation learning. From Natural to Artificial Neural Computation: Lecture Notes in Computer Science, 930, 195–201.
  7. Linden, W., & Hambleton, R. (2018). Handbook of modern item response theory. New York: Springer. 512 p.
  8. Loken, E., & Rulison, K. L. (2010). Estimation of Four-Parameter Item Response Theory Model. British Journal of Mathematical and Statistical Psychology, 63, 509–525.
  9. Rasch, G. (1980). Probabilistic models for some intelligence and attainment tests. Chicago: The University of Chicago Press.
  10. Riggs, C. D., Kang, S., & Rennie, O. (2020). Positive Impact of Multiple-Choice Question Authoring and Regular Quiz Participation on Student Learning. CBE—Life Sciences Education, 19 (2).
  11. Ronald, K. (1993). Comparison of classical test theory and item response theory and their applications to test development. Educational Measurement: Issues and Practice, 12 (3), 21–28.
  12. Rusch, T., Lowry, P., Mair, P., & Treiblmaier, H. (2017). Breaking free from the limitations of classical test theory: Developing and measuring information systems scales using item response theory. Information & Management, 54 (2), 189–203.
  13. Wang, W. (2012). Are All Item Response Functions Monotonically Increasing? (Doctoral dissertation). University of Kansas, 166 p.
  14. Wiberg, M. (2004). Classical test theory vs. item response theory. Emergency Medicine, 50. Retrieved from: http://www.edusci.umu.se/digitalAssets/59/59529_em-no-50.pdf
  15. Ying, C. (2008). Computerized adaptive testing: New developments and applications. University of Illinois at Urbana-Champaign. 92 p.