LSTM Derin Sinir Ağları İle Üniversite Giriş Sınavındaki Matematik Soru Sayılarının Konulara Göre Tahmini

Bu çalışmada Long Short-Term Memory (LSTM) derin sinir ağı (DSA) ile üniversite giriş sınavındaki matematik testinin soru sayılarının tahmin edilmesi için bir model önerilmiştir. Modelin veri kümesi 1981-2018 yıllarına ait sınavların matematik testinin 16 farklı konuya göre ayrılmış 931 soru sayısı verisinden oluşmaktadır.  Veri kümesi %80’ı modelin eğitilmesi, %20’u testi için ayrılmıştır. LSTM modelde zaman serisi tahmin problemlerinde yüksek doğruluk sağlanması için hiper parametreleri belirlenmiştir. Her konu gruba ait soru sayıları zaman serisi modelde ayrı ayrı eğitilmiştir. Çalışma sonucunda eğitimde ortalama %98.42, testte ortalama %96.82 doğruluk elde edilmiştir. Kullanılan DSA algoritmasının başarısının ölçülmesi için veri kümesi makine öğrenme algoritmalarında test edilerek ile kıyaslanmıştır. Bunun sonucunda LSTM DSA, en yüksek başarımı sağlamıştır. Çalışma sonucu olarak modelden elde edilen doğruluğun yüksek olması, ilerleyen çalışmalarda soru tahmin robotların geliştirilmesine imkân sağlayacaktır.

___

  • [1] Oral, I., Mcgivney, E J., (2014). Türkiye Eğitim Sisteminde Eşitlik ve Akademik Başarı. Eğitim Reformu Girişimi, İstanbul.
  • [2] Baran, İ.N. ve Altun, T., (2014). 333 Dershanelerin Eğitim Sistemimizdeki Yeri Ve Önemi. Eğitim ve Öğretim Araştırmaları Dergisi, 3(2):2146-9199.
  • [3] Zararsız, M.E., Ekici, B. ve Ulutaş, S., (2012). İlköğretimden Ortaöğretime Ortaöğretimden Yükseköğretime Geçiş Analizi. T.C. Millî Eğitim Bakanlığı.
  • [4] Gürbüztürk, O. ve Kıncal, R.Y., (2018). Türkiye’de Yükseköğretime Geçiş Surecinin Analizi: Gelişmeler, Modeller ve Uygulamalar. Akdeniz Eğitim Araştırmaları Dergisi, 12(24):33-54.
  • [5] Erdem, A.R., (2014). Yükseköğretime Geçişin Kritiği, Cumhuriyet'in Kuruluşundan Günümüze Eğitimde Kademeler Arası Geçiş ve Yeni Modeller. Uluslararası Kongresi, 851-864.
  • [6] Khashei, M. ve Bijari, M., (2011). A Novel Hybridization of Articial Neural Networks and Arima Models for Time Series Forecasting”. Applied Soft Computing 11(2):2664-2675.
  • [7] Szegedy, C., Toshev, A., and Erhan, D., (2013). Deep Neural Networks for Object Detection. In: Advances in Neural Information Processing Systems, pp:2553-2561.
  • [8] Graves, A., (2012). Supervised Sequence Labelling with Recurrent Neural Networks. ISBN 9783642212703. URL http://books. google. com/books.
  • [9] Akmeliawati, R., Ooi, M.P.L., and Kuang, Y.C., (2007). Real-time Malaysian Sign Language Translation Using Colour Segmentation and Neural Network. In: Instrumentation and Measurement Technology Conference Proceedings, 1(6).
  • [10] King, S.Y. and Hwang, J.N., (1989). Neural Network Architectures for Robotic Applications Robotics and Automation, IEEE Transactions on 5(5):641-657.
  • [11] Derakhshani, A. and Foruzan, A.H., (2019). Predicting the Principal Strong Ground Motion Parameters: A deep learning approach, Applied Soft Computing Journal, 80:192-201.
  • [12] Şeker, A., Diri, B. ve Balık, H.H., (2017). Derin Öğrenme Yöntemleri ve Uygulamaları Hakkında Bir İnceleme, Gazi Mühendislik Bilimleri Dergisi, 3(3):47-64.
  • [13] Cheng, J., Chen, X., and Metallinou, A., (2015). Deep Neural Network Acoustic Models for Spoken Assessment Applications. Speech Communication, 73:14-27.
  • [14] Xiong, C., Merity, S., and Socher, R., (2016). Dynamic Memory Networks for Visual and Textual Question Answering. In International conference on machine learning, 2397-240.
  • [15] Liu, Y., Xu, B., Yang, Y., Chung, T., and Zhang, P., (2019). Constructing a Hybrid Automatic Q&A System Integrating Knowledge Graph and Information Retrieval Technologies. In Foundations and Trends in Smart Learning (pp:67-76).
  • [16] Yin, Y., Liu, Q., Huang, Z., Chen, E., Tong, W., Wang, S., and Su, Y., (2019). QuesNet: A Unified Representation for Heterogeneous Test Questions. arXiv preprint arXiv:1905.10949.
  • [17] Hassan, A. and Mahmood, A., (2018). Convolutional Recurrent Deep Learning Model for Sentence Classification. IEEE Access, 6, 13949-13957.
  • [18] Chakraborty, K., Mehrotra, K., Mohan, C.K., and Ranka, S., (1992). Forecasting The Behavior of Multivariate Time Series Using Neural Networks. Neural Networks 5(6):961-970.
  • [19] Hochreiter, S. and Schmidhuber, J., (1997). Long Short-term Memory. Neural Computation, 9(8):1735–1780.
  • [20] Ahmadi, N., Constandinou, T., and Bouganis, C., (2019). Decoding Hand Kinematics from Local Field Potentials Using Long Short-Term Memory (LSTM) Network. 9th International IEEE EMBS Conference on Neural Engineering (NER 2019), 1-5s.
  • [21] Graves, A. and Schmidhuber, J., (2005). Framewise Phoneme Classification With Bidirectional LSTM and other Neural Network Architectures. Neural Networks, 18(5–6):602–610.
  • [22] Graves, A., Mohamed, A., and Hinton, G., (2013). Speech Recognition with Deep Recurrent Neural Networks. In 2013 IEEE International Conference on Acoustics, Speech and Signal Processing, pp:6645–6649.
  • [23] Fernández, S., Graves, A., and Schmidhuber, J.,( 2007). An Application of Recurrent Neural Networks to Discriminative Keyword Spotting. In International Conference on Artificial Neural Networks, pp:220–229.
  • [24] Samui, S., Chakrabarti, I., and Ghosh, S.K., (2018). Tensor-Train Long Short-Term Memory for Monaural Speech Enhancement. ArXiv Preprint ArXiv:1812.10095.
  • [25] Raj, H., Weihong, Y., Banbhrani, S.K., and Dino, S.P., (2018). LSTM Based Short Message Service (SMS) Modeling for Spam Classification. In Proceedings of the 2018 International Conference on Machine Learning Technologies, 76-80.
  • [26] Zang, C., (2017). Deep Learning in Multiple Multistep Time Series Prediction”. arXiv preprint arXiv:1710.04373.