Yükseköğretime öğrenci seçmek için bilgisayar ortamında bireyselleştirilmiş testler

Bu çalışmanın amacı bilgisayar ortamında bireyselleştirilmiş test formatınınTürkiye'deki yükseköğretime öğrenci seçme sınavlarına alternatif olarak kullanılabilirliğini tartışmaktır. Çalışmada, önce mevcut öğrenci seçme sistemindeki sorunlar ortaya konmaktadır. Mevcut sınav sistemi öğrencilerinüzerinde büyük bir baskı yaratmakta, ölçme-değerlendirme bakımından eleştiriye açık unsurlar içermekte ve sistemin kamuoyu tarafından eleştirilmesine neden olmaktadır. Bunun ardından bilgisayar ortamında bireyselleştirilmiş testlerin dayandığı temel prensipler ve sağladıkları avantajlar açıklanmakta ve Türkiye'deki öğrenci seçme sınavlarının bu formatta uygulanabilirliğini araştıran deneysel bulgular paylaşılmaktadır. Daha sonra ise, iki farklıaraştırma deseni (simülasyon ve gerçek birey uygulaması) kullanan bir çalışmanın sonuçları paylaşılmaktadır. Sonuçlar (i) bilgisayar ortamında bireyselleştirilmiş formatın öğrenci seçme sınavının kağıt kalem formatı ile karşılaştırıldığında öğrencilere sorulan soru sayısında %80'e varan düşüşler sağladığını ve (ii) yetenek kestirimlerinin yüksek güvenilirliğe sahip olduğunu ortaya koymaktadır. Bireylerin klasik öğrenci seçme sınavlarından elde edilen yetenek kestirimleri ile CAT simulasyonlarından gelen kestirimleri arasındakikorelasyonlar 0.80'in üzerinde bulunmuştur. Gerçek bireyler ile yapılanCAT uygulaması da umut verici bulgular ortaya koymuştur. Çalışmanın sonunda bilgisayar ortamında bireyselleştirilmiş testlerin öğrenci seçme sistemikullanımının mevcut sorunlara nasıl çözüm getirdiği tartışılmış, ayrıca bireyselleştirilmiş formata geçiş konusunda bir takım noktalara değinilmiştir.

Computerized Adaptive Testing for Student Selection to Higher Education

The purpose of the present study is to discuss applicability of computerized adaptive testing format as an alternative for current student selectionexaminations to higher education in Turkey. In the study, first problemsassociated with current student selection system are given. These problems exerts pressure on students that results in test anxiety, producemeasurement experiences that can be criticized, and lessen credibility ofstudent selection system. Next, computerized adaptive test are introducedand advantages they provide are presented. Then results of a study thatused two research designs (simulation and live testing) were presented.Results revealed that (i) computerized adaptive format provided a reduction up to 80% in the number of items given to students compared topaper and pencil format of student selection examination, (ii) ability estimations have high reliabilities. Correlations between ability estimationsobtained from simulation and traditional format were higher than 0.80.At the end of the study solutions provided by computerized adaptive testing implementation to the current problems were discussed. Also someissues for application of CAT format for student selection examinationsin Turkey are given.

___

  • Cikrikci-Demirtasl>, N. (1999). Psikometride yeni ufuklar: bilgisayar ortam>nda bireye uyarlanm>fl test. Türk Psikoloji Bülteni, 5(13), 31-36.
  • De Ayala, R. J. (2009). The theory and practice of item response theory. New York: Guilford Press.
  • Embretson, S. E. (1996). The new rules of measurement. Psychological Assessment, 8, 341-349.
  • Embretson, S. E. & Reise, S. P. (2000). Item response theory for psychologists. Mahwah, NJ: Erlbaum.
  • Hambleton, R. K., and Swaminathan, H. (1984). Item response theory: Principles and applications. Boston: Kluwer-Nijhoff.
  • Kalender, I. (2011). Effects of different computerized adaptive testing strategies on recovery of ability. Unpublished doctoral dissertation, Middle East Technical University, Ankara, Turkey.
  • Mead, A. D., and Drasgow, F. (1993). Equivalence of computerized and paper-and pencil cognitive ability tests: a meta-analysis. Psychological Bulletin, 114(3), 449-458.
  • Ministry of National Education (2011). Ölçme, Seçme ve Yerlefltirme Merkezi Baflkanl>¤>n>n Teflkilat ve Görevleri Hakk>nda Kanun. Accessed through _____http://mevzuat.meb.gov.tr/html/27863_6114.html> on January 12th, 2012.
  • Rudner, L. M. (1998). An on-line. Interactive computer adaptive testing mini tutorial. Accessed through _____http://edres.org/scripts/cat/catdemo.htm> on December 25th, 2010.
  • Sands, W. A., Waters, B. K., and McBride, J. R. (Eds.) (1997). Computerized adaptive testing: from inquiry to operation. Washington DC.: American Psychological Association.
  • Student Selection and Placement Center (2011). Statistics about scores. Accessed through _____http://www.osym.gov.tr> on June 13rd, 2011.
  • van der Linden, W. J. (2008). Bayesian procedures for identifying aberrant response-time patterns in adaptive testing. Psychometrika. 73(3), 365-384.
  • Weiss, D. J. (1983). Latent trait theory and adaptive testing. In D. J. Weiss (Ed.). New horizons in testing (pp. 5-7). New York: Academic Press.
  • Weiss, D. J. (2011). CAT Central: A global resource for computerized adaptive testing research and applications. Accessed through _____http:// www.psych.umn.edu/psylabs/CATCentral> on May 5th, 2011.
  • Wise, S. L., and Kong, X. (2005). Response time effort: a new measure of examinee motivation in computer-based tests. Applied Measurement in Education, 18(2), 163-183.
  • Zimowski, M. F., Muraki, E., Mislevy, R. J., and Bock, R. D. (1996). BILOG-MG: Multiple-group IRT analysis and test maintenance for binary items [Computer software]. Chicago, IL: Scientific Software International.