Revista da Escola de Enfermagem da USP (Mar 2003)

Avaliando a confiabilidade interavaliadores de um instrumento para classificação de pacientes: coeficiente Kappa Evaluando la confiabilidad interevaluadores de un instrumento para clasificación de pacientes: coeficiente kappa Assessing the interrater reliability of an instrument for classifying patients: kappa quotient

  • Márcia Galan Perroca,
  • Raquel Rapone Gaidzinski

DOI
https://doi.org/10.1590/S0080-62342003000100009
Journal volume & issue
Vol. 37, no. 1
pp. 72 – 80

Abstract

Read online

Este estudo teve como objetivo determinar a confiabilidade interavaliadores do instrumento de classificação de pacientes proposto por Perroca. Cinqüenta pacientes escolhidos aleatoriamente foram avaliados por enfermeiras lotadas na UTI de um hospital de ensino. O coeficiente Kappa foi utilizado para a avaliação do grau de concordância nos escores totais obtidos pelas enfermeiras. A análise de confiabilidade revelou um Kappa entre 0,68 e 0,90 com IC de 95%, indicando uma boa concordância. O estudo permitiu concluir que o instrumento apresenta evidência de confiabilidade.Este estudio tuvo por objetivo determinar la confiabilidad interevaluadores del instrumento de clasificación de pacientes propuesto por Perroca. Cincuenta pacientes escogidos aleatoriamente fueron evaluados por enfermeras que trabajan en la UCI de un hospital-escuela. El coeficiente Kappa se usó para evaluar el grado de concordancia de las puntuaciones totales obtenidas pelas enfermeras. El análisis de confiabilidad reveló un Kappa entre 0,68 y 0,90 con IC de 95%, indicando uma buena concordancia. El estudio permitió concluir que el instrumento manifiesta evidencia de confiabilidad.This study aimed to determine the reliability of Perroca's instrument model for classifying patients. Fifty patients randomly chosen were assessed by the nurses of the General Intensive Unit Care of a medical school hospital. Kappa's quotient was used to observe the concordance degree of the total scores by the nurses. The reliability analysis showed a Kappa between 0.68 and 0.90 with 95% of CI, showing a good concordance. Therefore, this study showed that this instrument model has drawn evidence of reliability.

Keywords