Yükseköğretime öğrenci seçmek için bilgisayar ortamında bireyselleştirilmiş testler*

Bu çalışmanın amacı bilgisayar ortamında bireyselleştirilmiş test formatının Türkiyedeki yükseköğretime öğrenci seçme sınavlarına alternatif olarak kullanılabilirliğini tartışmaktır. Çalışmada, önce mevcut öğrenci seçme sistemindeki sorunlar ortaya konmaktadır. Mevcut sınav sistemi öğrencilerin üzerinde büyük bir baskı yaratmakta, ölçme-değerlendirme bakımından eleştiriye açık unsurlar içermekte ve sistemin kamuoyu tarafından eleştirilmesine neden olmaktadır. Bunun ardından bilgisayar ortamında bireyselleştirilmiş testlerin dayandığı temel prensipler ve sağladıkları avantajlar açıklanmakta ve Türkiye'deki öğrenci seçme sınavlarının bu formatta uygulanabilirliğini araştıran deneysel bulgular paylaşılmaktadır. Daha sonra ise, iki farklı araştırma deseni (simülasyon ve gerçek birey uygulaması) kullanan bir çalışmanın sonuçları paylaşılmaktadır. Sonuçlar (i) bilgisayar ortamında bireyselleştirilmiş formatın öğrenci seçme sınavının kağıt kalem formatı ile karşılaştırıldığında öğrencilere sorulan soru sayısında %80'e varan düşüşler sağladığını ve (ii) yetenek kestirimlerinin yüksek güvenilirliğe sahip olduğunu ortaya koymaktadır. Bireylerin klasik öğrenci seçme sınavlarından elde edilen yetenek kestirimleri ile CAT simulasyonlarından gelen kestirimleri arasındaki korelasyonlar 0.80'in üzerinde bulunmuştur. Gerçek bireyler ile yapılan CAT uygulaması da umut verici bulgular ortaya koymuştur. Çalışmanın sonunda bilgisayar ortamında bireyselleştirilmiş testlerin öğrenci seçme sistemi kullanımının mevcut sorunlara nasıl çözüm getirdiği tartışılmış, ayrıca bireyselleştirilmiş formata geçiş konusunda bir takım noktalara değinilmiştir.

Computerized Adaptive Testing for Student Selection to Higher Education*

The purpose of the present study is to discuss applicability of computerized adaptive testing format as an alternative for current student selection examinations to higher education in Turkey. In the study, first problems associated with current student selection system are given. These problems exerts pressure on students that results in test anxiety, produce measurement experiences that can be criticized, and lessen credibility of student selection system. Next, computerized adaptive test are introduced and advantages they provide are presented. Then results of a study that used two research designs (simulation and live testing) were presented. Results revealed that (i) computerized adaptive format provided a reduction up to 80% in the number of items given to students compared to paper and pencil format of student selection examination, (ii) ability estimations have high reliabilities. Correlations between ability estimations obtained from simulation and traditional format were higher than 0.80. At the end of the study solutions provided by computerized adaptive testing implementation to the current problems were discussed. Also some issues for application of CAT format for student selection examinations in Turkey are given.

___

  • Cikrikci-Demirtaslı, N. (1999). Psikometride yeni ufuklar: bilgisayar ortamında bireye uyarlanmış test. Türk Psikoloji Bülteni, 5(13), 31-36.
  • De Ayala, R. J. (2009). The theory and practice of item response theory. New York: Guilford Press.
  • Embretson, S. E. (1996). The new rules of measurement. Psychological Assessment, 8, 341-349.
  • Embretson, S. E. & Reise, S. P. (2000). Item response theory for psycholo- gists. Mahwah, NJ: Erlbaum.
  • Hambleton, R. K., and Swaminathan, H. (1984). Item response theory: Principles and applications. Boston: Kluwer-Nijhoff.
  • Kalender, I. (2011). Effects of different computerized adaptive testing strate- gies on recovery of ability. Unpublished doctoral dissertation, Middle East Technical University, Ankara, Turkey.
  • Mead, A. D., and Drasgow, F. (1993). Equivalence of computerized and paper-and pencil cognitive ability tests: a meta-analysis. Psychological Bulletin, 114(3), 449-458.
  • Ministry of National Education (2011). Ölçme, Seçme ve Yerleştirme Merkezi Başkanlığının Teşkilat ve Görevleri Hakkında Kanun. Accessed through on January 12th, 2012.
  • Rudner, L. M. (1998). An on-line. Interactive computer adaptive testing mini tutorial. Accessed through on December 25th, 2010.
  • Sands, W. A., Waters, B. K., and McBride, J. R. (Eds.) (1997). Computerized adaptive testing: from inquiry to operation. Washington DC.: American Psychological Association.
  • Student Selection and Placement Center (2011). Statistics about scores. Accessed through on June 13rd, 2011.
  • van der Linden, W. J. (2008). Bayesian procedures for identifying aber- rant response-time patterns in adaptive testing. Psychometrika. 73(3), 365-384.
  • Weiss, D. J. (1983). Latent trait theory and adaptive testing. In D. J. Weiss (Ed.). New horizons in testing (pp. 5-7). New York: Academic Press.
  • Weiss, D. J. (2011). CAT Central: A global resource for computerized adap- tive testing research and applications. Accessed through on May 5th, 2011.
  • Wise, S. L., and Kong, X. (2005). Response time effort: a new measure of examinee motivation in computer-based tests. Applied Measurement in Education, 18(2), 163-183.
  • Zimowski, M. F., Muraki, E., Mislevy, R. J., and Bock, R. D. (1996). BILOG-MG: Multiple-group IRT analysis and test maintenance for bina- ry items [Computer software]. Chicago, IL: Scientific Software International.