Uyum çalışmalarında örneklem büyüklüğünün belirlenmesi
Amaç: Klinik araştırmalarda metot karşılaştırması çalışmalarınabaşlamadan önce tüm araştırmacıların problem yaşadığı şey nekadar örneklem büyüklüğü ile çalışılmasıdır. Bu çalışmanın amacı,değerlendiriciler / yöntemler arasındaki uyumun belirlenmesindekullanılan uyum istatistikleri için örneklem büyüklüğününhesaplanma adımlarını tanımlamak, klinik çalışmalar içinaraştırmacılara araştırmaya başlamadan önce gerekli olanminimum örneklem sayılarına ait pratik tablolar sunmaktır.Gereçler ve Yöntemler: Bu çalışmada, populasyona aitbir bilgi olmadığı durumda ve değerlendiriciler arası uyumbilindiğinde örneklem büyüklüğünün hesaplama adımlarıverilmiştir. Cohen Kappa ve Sınıf içi korelasyon katsayısı içintablolar oluşturulmuştur. Ayrıca Gwet tarafından tüm uyumistatistikleri için kullanılabilecek ortak bir formülasyondanyararlanılarak da örneklem büyüklüğü hesaplama adımları verilmişve pratik tablolar sunulmuştur.Bulgular: Tablolar incelendiğinde, önem seviyesi ve testingücü ne olursa olsun iki değerlendirici arasındaki uyumsuzluğunoranı 0.50’ye kadar artış gösterirken örneklem büyüklüğü deartmakta, 0.50’den 1’e doğru artış gösterirken simetrik olarak birazalış göstermektedir. Bunun yanı sıra, değerlendiriciler arasındakiuyum değeri arttıkça testin gücü ve önem seviyesi ne olursa olsundoğru orantılı olarak çalışmaya dahil edilecek olan örneklem sayısıda azalmaktadır.Sonuç: Bir araştırma çalışmasının başlangıcında, çalışmanıntasarımına ve sonuç değişkeninin durumuna uygun olan yeterliminimum örneklem sayısının doğru olarak belirlenmesi ile,çalışma sonuçlarının güvenilirliği sağlanmış olmasının yanında,örneklem israfının da önüne geçilmiş olacaktır.
Determining the sample size in agreement studies
Objective: Before beginning method comparison studies inclinical researches, all the researchers share a common problem.That is: how to determine the sample size. The aim of this studyis to identify the sample size calculation steps for the consistencystatistics used in the identification of the agreement betweenthe raters/methods; and to present practical tables belonging tothe minimum sample numbers required, before researchers startclinical trials.Materials and Methods: In this study, the steps of samplesize calculation have been given for cases where there is noinformation on neither the population nor the consistency amongthe raters. Tables have been formed for Cohen Kappa and Intraclasscorrelation coefficient. Besides, other steps of sample numbercalculation have been given by utilizing a common formulationused for all consistency statistics by Gwet and practical tables havebeen presented.Results: When the tables are studied, no matter what theimportance level and the test power is, the sample numberincreases while inconsistency rate between the two raters increasesup to 0.50; and the sample number shows a symmetrical decreasewhile inconsistency rate between the two raters shows an increasefrom 0.50 through 1. Moreover, as the consistency value betweenthe raters rise, no matter what the test power and the importancelevel is, the sample size to be included in the study decreases indirect proportion.Conclusion: Before beginning a research study, with the exactdetermination of the minimum number of samples enough forthe design of the study and the state of the final variable, besidesproving reliability of the results of the study, sampling waste willalso be prevented.
___
- Kanık EA, Erdoğan S. Değerlendiriciler arası uyumun
saptanması. Mersin Univ Tıp Fak Derg 2004; 5: 430-7.
- Özdamar K. . Modern bilimsel araştırma yöntemleri.
Eskişehir: Kaan Kitabevi, 2003.
- Süt N. Klinik araştırmalarda örneklem sayısının belirlenmesi
ve güç (power) analizi. RAED Dergisi 2011; 3: 29-33.doi:
10.2399/raed.11.005
- Gwet K. Kappa Statistics is not satisfactory for assessing
the extent of agreement between raters. Series: Statistical
Methods Inter-Rater Reliability Assessment 2002; 1: 1-5.
- Machin D, Tan S B, Champbell MJ, (editors). Sample size
tables for clinical studies. Singapore: BMC Books, 2009
- Gwet KL. Computing inter-rater reliability and its variance
in the presence of high agreement. Br J Mathem Stat Psychol
2008; 61: 29-48. doi:10.1348/000711006X126600
- Viera AJ. Garrett JM. Understanding interobserver
agreement: the kappa statistics. Fam Med 2005; 37: 360-3.
- Kanık EA, Erdoğan S, Orekici Temel G. İki sonuçlu tanı
testlerinde iki hekim arasındaki uyum istatistiklerinin
prevelanstan etkilenme durumları. İnönü Üniversitesi Tıp
Fakültesi Dergisi 2012; 19: 153-8. doi: 10.7247/jiumf.19.3.5
- Fleiss JL, Shrout PE. Intraclass correlation: uses in assessing
rater reliability. Psychological Bulletin 1979; 86:420-8.
- Alpar R. Spor, sağlık ve eğitim bilimlerinden uygulamalı
istatistik ve geçerlik-güvenirlik. Ankara: Detay Yayıncılık,
2012.
- Erdoğan S, Kanık EA. Rasgele ve sistematik hataların
sınıf içi ve uyum korelasyon katsayıları ve bland ve altman
yöntemi üzerine etkileri: bir simülasyon çalışması. VIII.
Ulusal Biyoistatistik Kongresi; 20-22 Eylül 2005; Bursa.
Bursa: Uludağ Üniversitesi; 2005.
- Bonnett DG. Sample size requirements for estimating
intraclasss correlations with desired precision. Stat Med
2002; 21: 1331-5. doi: 10.1002/sim.1108
- Haley DT, Thomas P, Petre M, Roeck AD. Using a new interrater
reliability statistics. Technl Rep 2008; 15: 14-23.
- Kanık EA, Orekici Temel G, Erdoğan S, Ersöz Kaya I.
Comparison of agreement statistics in case of multipleraters
and diagnostic test being categorical: a simulation
study. J Turgut Ozal Med Cent 2012;19: 220-7. doi:10.7247/
jtomc.19.4.4
- Gwet KL. Handbook of inter-rater reliability. USA: Advanced
Analytics, LLC, 2014.
- Gwet KL. Variance estimation of nominal-scale inter-rater
reliability with random selection of raters. Pyschometrica
2008;73:407-30. doi: 10.1007/S11336-007-9054-8