Want to make creations as awesome as this one?

Transcript

Kappa de Cohen

– p e ) / (1 – p e )

k = (p o

Se utiliza para medir el nivel de acuerdo entre dos evaluadores o jueces que clasifican los elementos en categorías mutuamente excluyentes.La fórmula para el kappa de Cohen se calcula como:

En lugar de simplemente calcular el porcentaje de elementos en los que los evaluadores están de acuerdo, el Kappa de Cohen intenta explicar el hecho de que los evaluadores pueden llegar a estar de acuerdo en algunos elementos por pura casualidad.

Siempre varía entre 0 y 1, donde 0 indica que no hay acuerdo entre los dos evaluadores y 1 indica un acuerdo perfecto entre los dos evaluadores.

EJEMPLO

p o = (Ambos dijeron Sí + Ambos dijeron No) / (Calificaciones totales)p o = (25 + 20) / (70) = 0,6429

1. Concordancia relativa (p o ) entre los evaluadores

P("Sí") =((número total de veces que el Calificador 1 dijo «Sí»)/número total de respuestas)*((número total de veces que el Calificador 2 dijo «Sí»/número total de respuestas)P (“Sí”) = ((25 + 10) / 70) * ((25 + 15) / 70) = 0,285714P("No") =((número total de veces que el Calificador 1 dijo «No»)/número total de respuestas)*((número total de veces que el Calificador 2 dijo «No»/número total de respuestas) P («No») = ((15 + 20) / 70) * ((10 + 20) / 70) = 0,214285pe= P("Sí")+P("No")p e = 0,285714 + 0,214285 = 0,5

2. Probabilidad hipotética de acuerdo al azar (p e ) entre evaluadores

k = (p o – p e ) / (1 – p e ) k = (0,6429 – 0,5) / (1 – 0,5) k = 0,2857

3. Cálculo del Kappa de Cohen