Biyomedikal Görüntülerde Derin Öğrenme ile Mevcut Yöntemlerin Kıyaslanması

Son zamanlarda görüntü işleme ile ilgili gelişmeler, hızla gelişen teknolojik sistemlerin ilerlemesinde katkıda bulunmuştur. Özellikle sağlık alanındaki görüntü işleme ile ilgili çalışmalar popülerliğini daha da artırmıştır. Gerek tıbbi görüntüler olsun gerekse diğer alandaki görüntüler olsun, mevcut yöntemler üzerinde başarı sağlatılmasına rağmen; derin öğrenme modeli, mevcut yöntemlere kıyasla zaman ve performans açısından daha fazla katkıda bulunan bir modeldir. Mevcut yöntemler ile tek katmanlı görüntüler üzerinden işlem yapılıyorken, derin öğrenme modeliyle, çok katmanlı görüntüler üzerinden performansı yüksek sonuçlar alınabilmektedir. Derin öğrenmenin en önemli özelliği, görüntü üzerindeki işlemleri tek bir sefer de işleme tabi tutan ve el ile girilmesi gereken parametreleri kendi kendine keşif edebilmesidir. Ayrıca teknoloji firmalarının da derin öğrenmeye yönelmesi, kendi aralarında rekabet gücünü artırdığı gibi, bilimsel anlamda derin öğrenme üzerine kurdukları yöntemler, mevcut yöntemlere göre daha fazla tercih edilmeye başlanılmıştır. Veri kümesi erişimi sınırlı olan alanlardan biri olan biyomedikal alanında veri kümelerinin son zamanlarda hızlı bir şekilde elde edilmesi bu alandaki görüntü işleme çalışmalarına, derin öğrenme modeliyle beraber daha çok katkıda bulunacağı öngörülmektedir

___

  • [1] J. Zhang, Y. Xia, Y. Xie, M. Fulham, and D. Feng, “Classification of Medical Images in the Biomedical Literature by Jointly Using Deep and Handcrafted Visual Features,” IEEE J. Biomed. Heal. Informatics, vol. 2194, no. 2, pp. 1–10, 2017. [2] S. Koitka and C. M. Friedrich, “Traditional feature engineering and deep learning approaches at medical classification task of imageCLEF 2016,” CEUR Workshop Proc., vol. 1609, pp. 304–317, 2016. [3] “Makineyle Öğrenme – GPU Hızlandırmalı Uygulamalar | Tesla Yüksek Başarımlı Hesaplama|NVIDIA.” [Online]. Available: http://www.nvidia.com.tr/object/tesla-gpu-machine-learning-tr.html. [Accessed: 12-Mar-2018] [4] “Keras Documentation.” [Online]. Available: https://keras.io/. [Accessed: 12-Mar-2018]. [5] Y. Jia et al., “Caffe: Convolutional Architecture for Fast Feature Embedding,” Jun. 2014. [6] “TensorFlow.” [Online]. Available: https://www.tensorflow.org/. [Accessed: 12-Mar-2018]. [7] Ö. R. Girshick, J. Donahue, T. Darrell, and J. Malik, “Rich feature hierarchies for accurate object detection and semantic segmentation,” Proc. IEEE Comput. Soc. Conf. Comput. Vis. Pattern Recognit., pp. 580–587, 2014. [8] A. Krizhevsky, I. Sutskever, and G. E. Hinton, “ImageNet Classification with Deep Convolutional Neural Networks,” Adv. Neural Inf. Process. Syst., pp. 1–9, 2012. [9] M. D. Zeiler and R. Fergus, “Visualizing and Understanding Convolutional Networks arXiv:1311.2901v3 [cs.CV] 28 Nov 2013,” Comput. Vision–ECCV 2014, vol. 8689, pp. 818–833, 2014. [10] C. Szegedy et al., “Going deeper with convolutions,” Proc. IEEE Comput. Soc. Conf. Comput. Vis. Pattern Recognit., vol. 07–12–June, pp. 1–9, 2015. [11] S. Wu, S. Zhong, and Y. Liu, “Deep residual learning for image steganalysis,” Multimed. Tools Appl., pp. 1–17, 2017. [12] S. Xie, R. Girshick, P. Dollár, Z. Tu, and K. He, “Aggregated Residual Transformations for Deep Neural Networks,” 2016. [13] R. Girshick, J. Donahue, T. Darrell, and J. Malik, “Rich feature hierarchies for accurate object detection and semantic segmentation,” Proc. IEEE Comput. Soc. Conf. Comput. Vis. Pattern Recognit., pp. 580–587, 2014. [14] A. Kumar, J. Kim, D. Lyndon, M. Fulham, and D. Feng, “An Ensemble of Fine-Tuned Convolutional Neural Networks for Medical Image Classification,” IEEE J. Biomed. Heal. Informatics, vol. 21, no. 1, pp. 31–40, 2017. [15] T. Valavanis, L.; Stathopoulos, S.; Kalamboukis, “CLEF 2016 | Conference and Labs of the Evaluation Forum,” 2016. [Online]. Available: http://clef2016.clef-initiative.eu/index.php?page=Pages/cfLabsParticipation.html. [Accessed: 12-Mar-2018] [16] A. Kumar, D. Lyndon, J. Kim, and D. Feng, “Subfigure and Multi-Label Classification using a Fine-Tuned Convolutional Neural Network,” pp. 1–4. [17] P. Li et al., “UDEL CIS at imageCLEF medical task 2016,” CEUR Workshop Proc., vol. 1609, pp. 334–346, 2016. [18] D. Semedo and J. Magalhães, “NovaSearch at imageCLEFmed 2016 subfigure classification task,” CEUR Workshop Proc., vol. 1609, pp. 386–398, 2016. [19] R. Achanta, A. Shaji, K. Smith, A. Lucchi, P. Fua, and S. Süsstrunk, “SLIC superpixels compared to state-of-the-art superpixel methods,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 34, no. 11, pp. 2274–2281, 2012. [20] B. Bozorgtabar, S. Sedai, P. K. Roy, and R. Garnavi, “Skin lesion segmentation using deep convolution networks guided by local unsupervised learning,” IBM J. Res. Dev., vol. 61, no. 4, p. 6:1-6:8, 2017. [21] “ Softmax .” [Online]. Available: https : // www.semanticscholar.org/ topic/ Softmax-function/966784/ [Accessed: 16-Nov-2018].
Fırat Üniversitesi Mühendislik Bilimleri Dergisi-Cover
  • ISSN: 1308-9072
  • Yayın Aralığı: Yılda 2 Sayı
  • Başlangıç: 1987
  • Yayıncı: FIRAT ÜNİVERSİTESİ