2x2 tablolarında bazı örnek genişlikleri ve I. tip hata seviyeleri ($alpha$ ) için kappa (K) istatistiğine ait ampirik olarak gerçekleşen kritik değerler
Kappa istatistiği, iki yönlü tablolarda uyum ölçüsü olarak kullanılmaktadır. Bu çalışmada, 2x2 tablolarında, bazı $alpha$ (l. Tip hata) değerleri için yaygın olarak karşılaşılan örnek genişliklerine göre Kappa istatistiğinin kritik tablo değerlerinin elde edilmesi amaçlanmıştır. Bu amaçla, simülasyon metodu ile kesikli dağılım gösteren populasyondan örnek genişliği 6 ile 300'arasında değişen'J örnekler alınmıştır. Bu örneklerden 1.000.000 (bir milyon) simülasyon denemesi sonucunda, başlangıçta kararlaştırılan l. Tip hata; $alpha$ = 0.25, 0.20, 0.10, 0.05 ve 0.01 olduğunda, Kappa istatistiği için ampirik olarak gerçekleşen kritik değerler edilmiştir.
The empirically realized critical values for Kappa (K) statistic for several sample size and type I error levels ($alpha$ ) in 2x2 cross-tables
Kappa statistic (coefficient) is used for measurement of agreement in two- way tables. The aim of this study is to obtain empirically critical values of the Kappa statistic for several type I error rates ($alpha$ values) and common sample size in 2 x 2 tables. For this reason/ sample size ranged from 6 to 300 were drawn from discontinous (disoreate) population by the simulation method. When the type I error rates ($alpha$ ) are assumed as 0.25, 0.20, 0.10, 0.05 and 0.01, empirically realized critical values for Kappa statistics were obtained by the end of 1.000.000 (one million ) simulation tirials.
___
- Anonymous, 1994. IMSL MATH/LIBRARY FORTRAN subroutines for mathematical applications. Vol. 1, 2, Visual Numerics Inc. USA.
- Blackman, N. J. M. and J. J. Koval, 2000. Interval estimation for Cohen's kappa as ameasure of agreement, Statistics in Medicine, (19)723-741.
- Cohen, J. 1968. Weighted kappa: nominal scale agreement with provision for scaled disagreement or partial credit, Psychological Bulletin, 70 (4) 213- 220.
- Donner, A. 1998. Sample size requirements for the comparison of two or more coefficient of inter - observer agreement, Statistics in Medicine, (17) 1157-1168.
- Eriksson, E. M., M. Mokhtari, L. Pourmotamed, L. Holmdahl and H. Eriksson, 2000. Inter- rater reliability in a resource oriented physiotherapeutic examination, Physiotherapy Theory and Practice, (16) 95-103.
- Fleiss, J. L, J. Cohen and B. S. Everitt, 1969. Large sample standart erros of kappa and weighted kappa, Psychological Bulletin, 72 (5) 323 - 327.
- Fleiss, J. L, J. C. M. Nee, and J. R. Landis, 1979. Large sample variance of kappa in the case of different sets of raters Psychological Bulletin, 86 (5) 974 - 977.
- Keskin, S. 2001. iki yönlü (contingency) tablolarda kappa (K) istatistiğinin kullanımı, Biyoteknoloji (Kükem) Degisi, 25 (1) 53-57.
- Landis J. R. and G. G. Koch, 1977a. The measurment of observer agreement for categorical data, biometrics, (33) 159-174.
- Lui, K. J. and.C. Kelly, 1999. Anote on interval estimation of kappa in a series of 2 x 2 tables, Statistics in Medicine, (18) 2041-2049.
- Rigby, A. S., 2000. Statistical methods in epidemiology, v. towards an understanding of the kappa coefficient, Disability and Rehabilitation, 22 (8) 339-344.
- Sokal, R. R. and F. J. Rohlf, 1995. Biometry. W. H. Freeman and Company. 887p., New York.