Açık ve uzaktan öğrenenlerin sınavlarda çoktan seçmeli soruları boş bırakma davranışlarının incelenmesi

Çoktan seçmeli testler açık ve uzaktan öğrenmede öğrenenlerin değerlendirilmesinde yaygın olarak kullanılan objektif ölçme araçlarından biridir. Bunun en önemli nedeni, çoktan seçmeli testlerin uygulama ve değerlendirme açısından kullanışlı olmasıdır. Şans başarısı içermesi çoktan seçmeli testlere yöneltilen en önemli eleştirilerdendir. Çoktan seçmeli testlerde şans başarısını ortadan kaldırmak için çeşitli yöntemler denenmiştir. Bu yöntemlerden biri de yanıtlayıcıların cevabını bilmedikleri soruları boş bırakmalarını gerektiren yanlış cevapların doğru cevap sayısını eksiltmesi uygulamasıdır. Bu çalışmada, Anadolu Üniversitesi Açıköğretim Sistemi’nde yüz yüze gerçekleştirilen 2019-2020 Öğretim Yılı Güz Dönemi ara ve dönem sonu sınavlarında 3’ü sözel ve 3’ü sayısal olmak üzere toplam 6 derste öğrenenlerin çoktan seçmeli soruları boş bırakma davranışları incelenmiştir. Madde analizi verilerine göre testlerden yüksek puan alan (üst grup) ve düşük puan alan (alt grup) öğrenenlerin soruları boş bırakma durumu soruların güçlük düzeyi, sınav dönemi ve ders türü değişkenleri açısından incelenmiştir. İlişkisel tarama modelinde yürütülen araştırmada verilerin analizinde Spearman Sıralama Korelasyonu ve bağımsız örneklem t-testi kullanılmıştır. Uygun durumlarda veriler oransal grafikler kullanılarak anlamlandırılmıştır. Elde edilen sonuçlar; soruları boş bırakma oranlarının dönem sonu sınavında ara sınava göre, sayısal içerikli derslerde sözel içerikli derslere göre daha fazla olduğunu ve soruların güçlük düzeyi arttıkça boş bırakma eğiliminin arttığını ortaya koymuştur.

Examination of open and distance learners' behavior of leaving multiple-choice questions unanswered in exams

Multiple-choice tests are one of the widely used objective measurement tools in the assessment of learners in open and distance learning. The most important reason for this is that multiple-choice tests are practical in terms of application and evaluation. However, having the guessing effect is one of the most important criticisms directed at multiple-choice tests. Several methods have been used to eliminate the effect of such guessing. One of these methods is penalizing the test-taker by reducing the number of correct answers based on the number of incorrect answers, which urges test-takers to skip the questions whose answers they do not know. This study analyzed students’ behavior of leaving multiple-choice questions unanswered in the Fall semester midterm and end-of-semester exams for 6 courses (3 verbal and 3 numerical) conducted face-to-face at Anadolu University Open education system in the 2019-2020 academic year. Based on item analysis data, the question-skipping status of students who scored high (upper group) and low (lower group) was examined by the variables of question difficulty level, exam period, and course type. The Spearman Rank Correlation and independent sample t-test were used to analyze the data in the research conducted in the correlational survey model. When appropriate, the data were interpreted using proportional graphs. The results showed that the rates of leaving questions unanswered were higher in the end-of-term exam than in the midterm exam, in numerical courses than in verbal courses, and the proportion of skipping questions increased in line with the difficulty level.

___

  • Adiga, M. N. S., Acharya, S. ve Holla, R. (2021). Item analysis of multiple-choice questions in pharmacology in an Indian Medical School. Journal of Health and Allied Sciences NU. Doi: https://doi.org/ 10.1055/s-0041-1722822.
  • Akkuş, O. ve Baykul, Y. (2001). Çoktan seçmeli test maddelerini puanlamada seçenekleri farklı biçimlerde ağırlıklandırmanın madde ve test istatistiklerine olan etkisinin incelenmesi. Hacettepe Üniversitesi Eğitim Fakültesi Dergisi (20), 9 -15.
  • Akyıldız, M. ve Şahin, M. D. (2017). Açıköğretimde kullanılan sınavlardan Klasik Test Kuramına ve Madde Tepki Kuramına göre elde edilen yetenek ölçülerinin karşılaştırılması, Açıköğretim Uygulamaları ve Araştırmaları Dergisi (AUAd), 3(4), 141-159.
  • Baykul, Y. (2000). Eğitimde ve psikolojide ölçme: Klasik test teorisi ve uygulaması. Ankara: ÖSYM Yayınları.
  • Baykul, Y. (1992). Eğitim sisteminde değerlendirme. Hacettepe Üniversitesi Eğitim Fakültesi Dergisi, (7), 85-94.
  • Betts, L. R., Elder, T. J., E., Hartley, J. ve Trueman, M. (2009). Does correction for guessing reduce students’ performance on multiple‐choice examinations? Yes? No? Sometimes?, Assessment & Evaluation in Higher Education, 34(1), 1-15. Doi: 10.1080/02602930701773091
  • Bulut, G. (2018). Açık ve uzaktan öğrenmede şans başarısı: Klasik Test Kuramı (KTK) ve Madde Tepki Kurama (MTK) temelinde karşılaştırmalı bir analiz. AUAd, 4(1), 78-93.
  • Chaudhary, S. ve Dey, N. (2013). Assessment in open and distance learning system (ODL): A Challenge. Open Praxis, 5(3), 207-216.
  • Demirel, Ö. (2007). Eğitimde program geliştirme. Ankara: Pegem A Yayıncılık.
  • Gelbal, S. (2013). Ölçme ve değerlendirme. Ankara: Saray Matbaacılık.
  • Hasançebi, B., Terzi, Y. ve Küçük, Z. (2020). Madde Güçlük İndeksi ve Madde Ayırt Edicilik İndeksine Dayalı Çeldirici Analizi. Gümüşhane Üniversitesi Fen Bilimleri Enstitüsü Dergisi, 10 (1), 224-240.
  • Karadağ, N. ve Özgür, A. Z. (2020). Assessment and evaluation in mega universities. TOJET: The Turkish Online Journal of Educational Technology, 19(4), 35-49.
  • Karasar, N. (2012). Bilimsel araştırma yöntemi. Ankara: Nobel Yayın Dağıtım.
  • Miller, M., Linn, R. ve Gronlund, N. (2012). Measurement and assessment in teaching. (11th Ed.). Columbus: Pearson. Özkul, A.E. ve Aydın, C.H. (2012). Öğrenci adaylarının açık ve uzaktan öğrenmeye yönelik görüşleri. Akademik Bilişim 2012. https://ab.org.tr/ab12/bildiri/42.pdf
  • Pehlivan Tunç, E. B. ve Kutlu, Ö. (2014). Türkçe test maddelerinde yanıtlama davranışlarının incelenmesi. Eğitimde ve Psikolojide Ölçme ve Değerlendirme Dergisi, (5,1), 61-71.
  • Simonson, M., Smaldino, S., Albright, M. ve Zvacek, S. (2012). Teaching and learning at a distance: Foundations of distance education (3rd ed.). New Jersey: Prentice Hall.
  • Turgut, M. F. ve Baykul, Y. (2010). Eğitimde ölçme ve değerlendirme. Ankara: Pegem Yayıncılık.
  • Umay, A. (1997). Yanıtlayıcı davranışlarının analizi yolu ile matematikte problem çözümleri için bir güvenirlik ve geçerlik araştırması. Hacettepe Üniversitesi Eğitim Fakültesi Dergisi (13), 47-56.
  • Umay, A. (1995). Seçmeli testlerde yanıtlayıcı davranışları ve şans başarısının elimine edilmesi işlemlerine ilişkin bazı öneriler. II. Eğitim Bilimleri Kongresi. Ankara.
  • Yurdabakan, İ. (2012). Bloom’un revize edilen taksonomisinin eğitimde ölçme ve değerlendirmeye etkileri. Gaziantep Üniversitesi Sosyal Bilimler Dergisi,11(2), 327-348.
  • Zhang, W.Y., Tsui, C., Jegede, O., Ng, F. ve Kwok, L. (2000). A comparison of distance education in selected Asian open universities. In Proceedings of the 20th Conference of the Asian Association of Open Universities, 25-27.