Bir Holding İşletmesinin İşgücü Planlama Probleminin Markov Zincirleri Metodu ile Çözümü

Stokastik süreçler, rastgeleliği içeren süreçlerdir. Herhangi bir süreç birçok nedenden dolayı rastgele olabilir. Gerçek bir fiziksel süreç, olaylar gözlemlendiğinden stokastiktir. Süreç hakkında bilgi eksikliği nedeniyle rastgelelik oluşabilir. Süreç için kurulan modeller süreci temsil etmeyebilir. İnsan davranışına bağlı olarak süreçlerde meydana gelen değişiklikler rastgeleliğe neden olabilir. Bilinmeyen, tahmin edilemeyen ve modellenemeyen süreçlerin bölümleri varsa, bu süreçler rastgeledir. Bir önceki durumun bir sonraki durumu etkilediği rastgele süreçler Markov zincirleri olarak incelenir.Markov zincirleri eğitim, sağlık, muhasebe ve imalat gibi farklı alanlara uygulanabilir. Bu çalışmada bir holdinge ait İnsan Kaynakları Planlama çalışması ele alınmıştır. Holdingin farklı sektörlerinde faaliyet gösteren işletmeler,personel ihtiyaçlarını holdingin insan kaynakları politikaları kapsamında holdinge ait diğer şirketlerden karşılayabilmektedir. Bu durum, çalışanların mevcut işyerlerinden farklı işletmelerde çalışma fırsatı bularak farklıdeneyimler yaşamalarını sağlamakla kalmaz, aynı zamanda çalışan memnuniyetini de artırır. Çalışmada şirketler arası geçiş yapan personel sayısı baz alınarak önümüzdeki yıllar için işletmeler arası geçiş yapacak personel sayısı belirlenmiştir. Bu çalışma, holding şirketlerinin önümüzdeki yıllarda ihtiyaç duyacağı işgücü planlaması ve insan kaynakları stratejilerinin belirlenmesine destek olmuştur.

Solution of Workforce Planning Problem of a Holding Enterprises with the Markov Chains Method

Stochastic processes are processes that involve randomness. Any process can be random for many reasons. A true physical process is stochastic as events are observed. Randomness may occur due to lack of information about the process. The models established for the process may not be able to represent the process. Changes in processes depending on human behavior may cause randomness. If there are parts of the processes that cannot be known, predicted and modeled, these processes are random. The random processes in which the previous state affects the next state are examined as Markov chains.Markov chains can be applied to different areas such as education, health, accounting and manufacturing. In this study, Human Resources Planning study belonging to a holding has been discussed. Enterprises operating in different sectors of the holding can meet their personnel needs from other companies belonging to the holding within the scope of the holding's human resources policies. This situation not only enables employees to have different experiences by finding the opportunity to work in different businesses than their current ones, but also increases employee satisfaction. In the study, based on the previous years’ personnel transfers between companies, the number of personnel who will transfer between enterprises in the coming years has been determined. This study supported the determination of workforce planning and human resources strategies that the holding companies will need in the coming years. 

___

  • Akyurt, İ. Z. (2011). Ülke Derecelendirme Sisteminin Markov Zinciri ile Analizi. İstanbul Management Journal, 69, 45-60.
  • Kıral, E. (2018). Markov Analizi ile Cep Telefonu Operatör Tercihlerinin Belirlenmesi: Adana İli Üzerine Bir Uygulama. Cukurova University Journal of Social Sciences Institute, 1, 35-47.
  • Köse, E., Genç, T., & Kabak, M. (2015). Markov Analizi ile İnsan Gücü Planlaması. Cukurova University Journal of Economic and Administrative Sciences, 16, 1-12.
  • Yavuz, S., & Karabulut, T. (2016). Markov Analizi ile Üniversite Öğrencilerinin Cep Telefonu Marka Tercihlerinin Belirlenmesi, Dicle University Journal of Social Sciences Institute, 17, 221-235.
  • Bhowmik, M., & Malathi, P. (2022). A Hybrid Model For Energy Efficient Spectrum Sensing in Cognitive Radio. International Journal of Intelligent Computing and Cybernetics, 15, 165-183.
  • Mehmood, R., Meriton, R., Graham, G., Hennelly, P., & Kumar, M. (2017). Exploring The Influence of Big Data on City Transport Operations: A Markovian Approach. International Journal of Operations & Production Management, 37, 75-104.
  • Tee, K.F., Ekpiwhre, E., & Yi, Z. (2018). Degradation Modelling and Life Expectancy Using Markov Chain Model for Carriageway. International Journal of Quality & Reliability Management, 35, 1268-1288.
  • Nwadinobi, C.P., Nwankwojike, B.N., & Abam, F.I. (2019). Improved Markov Stable State Simulation for Maintenance Planning. Journal of Quality in Maintenance Engineering, 25, 199-212.
  • Wei, C., Yu, Z.J., & Chen, X.N. (2017). Research on Social E-Commerce Reputation Formation and StateIntroduced Model. Kybernetes, 46, 1021-1038.
  • Li, J., Sun, M., Ren, L., & Li, B. (2019). Dynamic Evolution And Coordination Mechanism of RSSC Under The Steady-State Quality Constraints : Based on system dynamics and Markov chain model. Kybernetes, 49, 3019-3045.
  • Öz, E., & Erpolat, S. (2010). Çok Değişkenli Markov Zinciri Modeli ve Bir Uygulama. Marmara University Journal of Economic and Administrative Sciences, 2, 577-590.
  • Alp, S., & Öz, E. (2009). Markov Zinciri Yöntemi ile Taşınabilir Bilgisayar Tercihlerinin Analizi. Academic Reviews, 4, 37-55.
  • Özdağoğlu, A., Özdağoğlu, G. & Kurt Gümüş, G. (2012). Altın Fiyatındaki Dağılımların Markov Zinciri ile Analizi: Uzun Erimli Olasılıklar. Erciyes University Journal of Economic and Administrative Sciences, 40, 119-142.
  • Büyüktatlı, F., İşbilir, S. & İpekçi Çetin, E. (2013). Markov Analizi ile Yıllık Ödeneklere Bağlı Bir Tahmin Uygulaması, International Alanya Faculty of Business Journal, 5, 1-8.
  • Güzgör, G. (2012). Stokastik Süreçlerin Döviz Kuru Tahmininde Kullanımı: Gelişmiş ve Gelişmekte Olan Piyasalar İçin Performans Analizi. PhD Thesis, İstanbul University, Social Sciences Institute, İstanbul.
  • Taha, H. A. (2002). Yöneylem Araştırması 6th ed. Ş. Alp Baray-Şakir Esnaf, Literatür Pub. İstanbul.
  • Çınlar, E. (1975). Introduction to Stochastic Processes, 1th ed. New Jersey: Prentice-Hall