Introducción:
Las prácticas pedagógicas del docente en el debriefing son importantes para asegurar mejores resultados de aprendizaje en la educación basada en simulación clínica.
Objetivo:
Evaluar la estructura factorial de una versión adaptada de la escala de evaluación del debriefing para simulación en salud en estudiantes de Enfermería.
Métodos:
Estudio cuantitativo metodológico. Fueron elegidos 159 estudiantes de la carrera de Enfermería de una universidad privada de Concepción (Chile) mediante muestreo no probabilístico por accesibilidad. Estos respondieron la versión adaptada de la escala de evaluación del debriefing para simulación en salud más un cuestionario sociodemográfico, previo consentimiento informado. Se realizó un análisis factorial exploratorio de esta versión adaptada, se evaluó la confiabilidad del factor encontrado a través de alfa de Cronbach y luego se condujo un análisis descriptivo de estos.
Resultados:
Solo un factor fue identificado, el cual permite evaluar la calidad del debriefing en simulación clínica. El análisis de la confiabilidad del factor identificado mostró un alfa de Cronbach de 0,97, por lo que se clasificó como excelente, según los tramos sugeridos por George y Mallery.
Conclusiones:
Los resultados presentan evidencia psicométrica que apoya la validez y confiabilidad de la versión adaptada de la escala de evaluación del debriefing para simulación en salud, para emplearla en la evaluación de la calidad del debriefing en simulación clínica en la carrera de Enfermería. No obstante, se asume que su uso debe ser complementario y no excluyente, con un abordaje cualitativo de este fenómeno.
Introduction:
Professors’ pedagogical practices in debriefing are important to ensure better learning outcomes in clinical simulation-based education.
Objective:
To assess the factorial structure of an adapted version of the Debriefing Evaluation Scale for health simulation in Nursing students.
Methods:
A methodological quantitative study was carried out with 159 Nursing students from a private university in Concepción, Chile, chosen through nonprobabilistic sampling for accessibility. They answered the adapted version of the Debriefing Evaluation Scale for health simulation and a sociodemographic questionnaire, with prior informed consent. An exploratory factor analysis of this adapted version was carried out, the reliability of the factor found was assessed using Cronbach's alpha, and then a descriptive analysis of these elements was carried out.
Results:
Only one factor was identified, which allows assessing the quality of debriefing in clinical simulation. The analysis of the reliability of the identified factor showed a Cronbach's alpha of 0.97, a reason why it was classified as excellent, according to the ranges suggested by George and Mallery.
Conclusions:
The results present psychometric evidence that supports the validity and reliability of the adapted version of the Debriefing Evaluation Scale for health simulation, to be used for assessing the quality of debriefing in clinical simulation in the Nursing major. However, it is assumed that its use must be complementary and not exclusive, with a qualitative approach to this phenomenon.
- simulación clínica;
- debriefing;
- estudiantes de enfermería;
- fiabilidad;
- validez.
- clinical simulation;
- debriefing;
- Nursing students;
- reliability;
- validity.
Introducción
La enseñanza basada en simulación clínica se ha incorporado rápidamente en los currículos de las carreras en ciencias de la salud.1 Esta metodología de enseñanza y evaluación permite a los estudiantes practicar habilidades y destrezas en pacientes simulados en un entorno seguro, sin poner en riesgo a ningún ser humano.2) Además, se reconoce como una metodología de enseñanza útil para el desarrollo de competencias profesionales, la cual promueve en los estudiantes habilidades de pensamiento crítico, juicio clínico, trabajo en equipo, comunicación, seguridad y autoconfianza.3
En el contexto de la simulación en salud, el debriefing se reconoce como un período crucial para consolidar el aprendizaje.4 Esta actividad es conducida por un docente facilitador, quien aporta retroalimentación a los participantes y los motiva a reflexionar sobre las acciones, percepciones y experiencias obtenidas a través de la simulación, al analizar y explorar los desempeños demostrados, los procesos de pensamiento y los estados emocionales ocurridos desde la perspectiva de los participantes, para así mejorar su rendimiento en situaciones reales.5 Como se describe, el aprendizaje en simulación clínica depende de la integración de la experiencia y la reflexión. Esta última resulta la consideración consciente del significado y la implicación de una acción, que incluye la asimilación de conocimientos, habilidades y actitudes con conocimientos preexistentes. La reflexión puede conducir a nuevas interpretaciones por parte de los participantes; este reencuadre cognitivo es esencial para el aprendizaje.6
Por ello, las prácticas pedagógicas del docente en el debriefing tienen importancia para asegurar los mejores resultados de aprendizaje posibles en simulación clínica. Cuando los docentes promueven una alta implicación de los estudiantes durante el debriefing, se logra una mejor retención y un aprendizaje más profundo, lo que aumenta las probabilidades de transferencia a otros contextos de conocimientos nuevos o reforzados. Por lo tanto, para el docente, liderar un debriefing requiere práctica y retroalimentación.7) Esto genera un replanteamiento en la conducción educativa de los docentes y, al mismo tiempo, la necesidad de contar con marcos teóricos referenciales e instrumentos diseñados para la evaluación y el desarrollo de prácticas pedagógicas efectivas en el debriefing, que guíen los objetivos de la experiencia de aprendizaje en simulación clínica.8
Dada la expansión de la educación basada en simulación y el papel fundamental de la información facilitada por el docente durante el debriefing, se requieren herramientas que proporcionen datos confiables para respaldar los juicios válidos de la competencia de información del docente, y facilitar la capacitación y evaluación de estos.9 El desarrollo de estas herramientas de evaluación proporciona a los programas de simulación una estrategia formal para evaluar la calidad de los informes, y entrega información importante para la investigación en esta metodología de enseñanza y evaluación.
La literatura señala que existen varias herramientas para evaluar el debriefing en entornos especializados, pero aún no hay un instrumento estandarizado para evaluar el debriefing en una amplia variedad de contextos de simulación en salud,10) tal como lo señalan Mikang y Sunghee8) Fey y Jenkins,11) Lee y otros,12Saylor y otros,13 y Cheng y otros.14 Dentro de estas herramientas se encuentra el DASH, elaborada en 2009 por el Center for Medical Simulation (CMS) de Boston, Estados Unidos, y diseñada para ayudar a evaluar y desarrollar habilidades de los instructores en el debriefing.14) Esta escala en el contexto español se conoce como EDSS (escala de evaluación del debriefing para simulación en salud). La EDSS evalúa los comportamientos del instructor que facilitan el aprendizaje y el cambio en contextos experienciales, a través del análisis y la valoración de seis elementos clave de un debriefing. Estos incluyen “si es que” y “cómo” el instructor: 1. Establece un ambiente de aprendizaje estimulante; 2. Mantiene un ambiente de aprendizaje estimulante; 3. Estructura el debriefing de una manera organizada; 4. Provoca discusiones estimulantes; 5. Identifica y explora brechas de rendimiento, y 6. Ayuda a los participantes a lograr o sostener un buen rendimiento en el futuro. El EDSS constituye una escala de evaluación anclada a comportamientos, lo que significa que está basada en aquellos necesarios para efectuar un debriefing efectivo, así como también en los característicos de debriefing inefectivos.5
En estudios empíricos realizados por Adams y otros,15Kang y Yu,16) Rudolph y otros,17) Tanoubi y otros,18Brown y otros,19) Durands y otros,20) Poland y otros,21 y Leal y otros,22 estos mencionan que han empleado dicha escala como herramienta de evaluación del debriefing en simulación clínica, para dar a conocer las puntuaciones obtenidas por los instructores que facilitan este proceso en diversas experiencias de simulación clínica. Por otra parte, autores como Simon y otros5 y Brett-Fleegler y otros23 han analizado esta escala, y mostrado la estructura factorial como evidencia de su validez de constructo y de su confiabilidad. Sin embargo, no existe evidencia en el contexto de Chile, con sus particularidades lingüísticas y culturales, que avalen la validez y confiabilidad de las puntuaciones de este instrumento. Por este motivo, el presente trabajo presenta una versión adaptada de la escala de evaluación del debriefing para simulación en salud (EDSS) al español de Chile.
El presente estudio tuvo como objetivo evaluar la estructura factorial de una versión adaptada de la escala de evaluación del debriefing para simulación en salud en estudiantes de Enfermería.
Métodos
Se realizó un estudio cuantitativo metodológico que evaluó la evidencia de validez de constructo y confiabilidad de una versión adaptada del EDSS.
El Universo estuvo constituido por 299 estudiantes de Enfermería de una universidad privada de Concepción, en 2018. Se estableció como criterios de inclusión que fueran estudiantes inscritos en una asignatura específica que trabajaba con simulación: incluyendo alumnos de segundo año inscritos en la asignatura de Proceso de Enfermería; de tercer año, en Cuidados en la Familia en APS; y de cuarto año, en Cuidados de Enfermería en el Niño y Adolescente en APS, en el primer semestre académico de la carrera. Como criterios de exclusión, se estableció que los estudiantes no cumplieran con el 100 % de asistencia en actividades de simulación clínica contemplada en cada una de las asignaturas mencionadas.
Se obtuvo una muestra de 159 estudiantes de segundo, tercer y cuarto años de la carrera de Enfermería de una universidad privada de Concepción. Estos fueron elegidos a través de un muestreo no probabilístico por accesibilidad.
Cada participante respondió un cuestionario sociodemográfico que permitió caracterizar la muestra. Además, se les aplicó la versión adaptada para esta investigación de la EDSS. Esta se deriva de la versión original en inglés, Debriefing Assessment for Simulation in Healthcare, de Simon y otros.5 En este estudio, se utilizó la traducción al español de Muller-Botti, cuya revisión fue realizada por Maestre y otros 24) en España, la cual se sometió a una adaptación. Sin embargo, dado que algunas palabras no se usan habitualmente en Chile, se realizaron la adaptación lingüística de este y modificaciones menores a las palabras utilizadas, y se simplificó la gramática de algunos ítems, para mantener la equivalencia semántica. La validez de contenido de esta adaptación fue revisada por cuatro expertos en educación superior, investigación y simulación clínica. Luego, esta se sometió a la aplicación piloto de una muestra no probabilística por accesibilidad de 23 estudiantes de Enfermería, desde donde se originó la versión definitiva del instrumento.
El instrumento evaluado estuvo compuesto por 30 afirmaciones sobre las prácticas pedagógicas del docente en el debriefing. El estudiante debía responder con la indicación de su apreciación sobre lo que estas declaraban, al elegir una de seis alternativas mediante formato tipo Likert (1 = Ausente, 2 = Muy Mal, 3 = Mal, 4 = Regular, 5 = Bien y 6 = Muy Bien).
Los participantes recibieron en forma oral y presencial por parte de investigadora responsable, la invitación a participar en el estudio, al explicárseles el propósito del estudio y qué tipo de participación se les pedía. Luego, quienes aceptaban debían firmar un consentimiento informado, para luego responder el instrumento. Además, se les explicó a los participantes que podían solicitar más antecedentes del estudio vía telefónica o por correo electrónico. Todo el procedimiento fue aprobado por el Comité de Ética de la institución donde se tomó la muestra.
A fin de aportar evidencia de la validez de constructo de la versión adaptada de EDSS se evaluó su estructura factorial a partir de un Análisis Factorial Exploratorio (AFE), con un estadístico Kaiser-Meyer-Olkin (KMO) y una prueba de Barlett. Seguidamente, se estimó la cantidad de factores, mediante tres criterios diferentes: Kaiser-Guttman, el de contraste de caída y el Análisis Paralelo de Horn, que es el más adecuado para estos propósitos.
Una vez identificado el factor, se evaluó la confiabilidad de este mediante el coeficiente alfa de Cronbach.
Finalmente, se realizó el cálculo del puntaje del factor encontrado a partir de la sumatoria simple de los ítems de cada uno, para luego realizar un análisis descriptivo de la puntuación del EDSS, en donde se presentan la media y los percentiles obtenidos en la muestra.
Los análisis se realizaron mediante STATA SE 15.0.
Resultados
La estructura factorial de la versión adaptada del EDSS en esta investigación se mostró adecuada para los datos obtenidos, con un estadístico Kaiser-Meyer-Olkin (KMO) de 0,94, y una prueba de Barlett estadísticamente significativa: x 2 (435) = 3707,95; p < 0,001.
Por otra parte, de los criterios utilizados para la estimación de factores en que se agrupaban los 30 ítems del instrumento, el de Kaiser-Guttman25,26 identificó dos factores con valores propios (eigenvalues) mayores a la unidad (15,55 y 1,01), los que explicarían un 82,15 % de la varianza total de los ítems. Por el contrario, el criterio de Catell26 identificó un único factor en el gráfico de sedimentación (Fig.).
Igual resultado se identificó en el Análisis Paralelo,26 sobre la base de 5000 muestras aleatorias, que encontró un factor valor propio (15,55) superior a los obtenidos en el 95 % de las muestras aleatorias (2,04).
Debido a que este último análisis presentaba una solución más depurada, y a su concordancia con el criterio de Catell, se decidió optar por una estructura unifactorial. Para identificar las cargas factoriales de cada ítem en ella, se generó una matriz factorial, mediante el método de Análisis de Ejes Principales (Tabla 1).
Variable | Factor 1 | Comunalidad |
---|---|---|
1. El instructor describió los resultados de aprendizaje esperados de la actividad de simulación. | 0,6793 | 0,461 |
2. El instructor describió el entorno de simulación a los participantes. | 0,5790 | 0,335 |
3. El instructor dio a conocer el acuerdo de confidencialidad y contrato de ficción a los participantes en la actividad de simulación clínica. | 0,5805 | 0,337 |
4. El instructor explicó las capacidades y limitaciones del simulador en el escenario a desarrollar. | 0,4900 | 0,240 |
5. El instructor explicó el escenario a los participantes al entregar información relevante para cada rol que iban a desarrollar. | 0,6684 | 0,447 |
6. El instructor se preocupó de que los participantes pudieran compartir sus pensamientos y emociones sin temor a ser avergonzados o humillados. | 0,7705 | 0,594 |
7. El instructor fomentó la conversación entre los participantes de una forma no amenazante. | 0,6122 | 0,375 |
8. El instructor mantuvo el foco de atención en el aprendizaje en lugar de hacer sentir mal a los participantes cuando cometían errores. | 0,7349 | 0,540 |
9. El instructor se aseguró de que los participantes mantuvieran una conversación en un clima de confianza, respeto y honestidad. | 0,7325 | 0,537 |
10. El instructor incentivó a los participantes a compartir sus pensamientos y opiniones con respecto a la simulación desarrollada. | 0,7336 | 0,538 |
11. El instructor facilitó la discusión activa y constructiva entre los participantes. | 0,7568 | 0,573 |
12. El instructor se preocupó de que los participantes tuvieran la oportunidad de hacer preguntas según la necesidad de su propio aprendizaje. | 0,7238 | 0,524 |
13. El instructor durante el |
0,7414 | 0,550 |
14. El instructor al inicio del |
0,6346 | 0,403 |
15. El instructor permitió a los participantes examinar lo ocurrido en el escenario de simulación, al analizar las acciones y los pensamientos personales a medida que se revisaba el escenario desarrollado. | 0,5584 | 0,312 |
16. El instructor facilitó a los participantes analizar lo que ayudó al buen desempeño y lo que dificultó el logro de los resultados de aprendizaje. | 0,8254 | 0,681 |
17. El instructor ayudó a los participantes a relacionar la experiencia adquirida en el escenario de simulación con la experiencia de la vida real. | 0,7386 | 0,546 |
18. El instructor finalizó el |
0,7584 | 0,575 |
19. El instructor estimulo la reflexión “en la acción” por parte de los participantes en el escenario de simulación. | 0,7456 | 0,556 |
20. El instructor estimuló la reflexión “sobre la acción” por parte de los participantes observantes del escenario de simulación. | 0,7636 | 0,583 |
21. El instructor animó a los participantes a reflexionar personalmente sobre su rendimiento logrado e inspiró a la mejora. | 0,7239 | 0,524 |
22. El instructor facilitó la reflexión sobre el desempeño individual y en equipo para lograr mejoras de rendimiento futuras. | 0,7524 | 0,566 |
23. El instructor incentivó a los participantes a evaluar los desempeños logrados antes de retroalimentar. | 0,7381 | 0,545 |
24. El instructor se interesó por conocer las percepciones o marcos mentales que influyeron en el desempeño demostrado por los participantes en la simulación desarrollada. | 0,7824 | 0,612 |
25. El instructor ayudó a los participantes a explorar y comprender los problemas que contribuyeron a la brecha de rendimiento. | 0,8447 | 0,714 |
26. El instructor entregó a los participantes retroalimentación concreta acerca del desempeño logrado señalando los aspectos positivos y los que se deben mejorar. | 0,7818 | 0,611 |
27. El instructor ayudó a los participantes a aprender cómo mejorar áreas débiles o a cómo repetir un buen rendimiento. | 0,6806 | 0,463 |
28. El instructor utilizó sus conocimientos para ayudar a los participantes a ver cómo rendir con éxito en el futuro. | 0,7166 | 0,514 |
29. El instructor ayudó a los participantes a entender cómo desempeñarse más efectivamente en una próxima oportunidad. | 0,7822 | 0,612 |
30. El instructor ayudó a los participantes a lograr nuevas maneras de pensar y resolver problemas clínicos o de trabajo en equipo. | 0,8259 | 0,682 |
Se encontró que todos los ítems presentaban coeficientes de configuración superiores a 0,30, el valor mínimo propuesto para considerar que una carga es significativa.26
Posteriormente, se realizó un análisis de la confiabilidad del factor identificado, a través del coeficiente alfa de Cronbach, el más empleado con estos propósitos en psicometría.26) Este, resultó ( = 0,97, por lo que se clasificó como excelente, según los tramos sugeridos por George y Mallery27 con correlaciones entre cada ítem y el total corregido del factor -sin considerar el ítem que se estaba correlacionando- desde r = 0,48 (ítem 4) hasta r = 0,83 (ítem 25).
Al final, se realizó el calculo del puntaje del factor, a partir de la sumatoria simple de los ítems de cada uno, para luego realizar un análisis descriptivo de estos puntajes (Tabla 2), donde se presentaron la media y los percentiles obtenidos en la muestra para emplearlos en próximos estudios como valores de referencia.
Discusión
El EDSS se reconoce como una herramienta para evaluar la efectividad de la experiencia en el debriefing, la cual ha mostrado buena confiabilidad y evidencia preliminar de validez, y además ha tenido un uso extendido en distintos países. No obstante, se requiere evidencia de la validez y confiabilidad de las puntuaciones de este instrumento en cada población específica para avalar su uso.
Según los resultados obtenidos del análisis psicométrico de esta versión adaptada de la escala EDSS, se identificó solo un factor, lo que mostró que no fue posible diferenciar distintos elementos del debriefing para esta versión. Este hallazgo puede deberse al efecto halo, ya que por primera vez se aplicaba esta escala de evaluación del debriefing en estos alumnos y se les pedía hacer una evaluación de sus docentes, específicamente en su comportamiento en el debriefing.
Sin embargo, la estructura factorial encontrada permitió evaluar la calidad global del debriefing que estaban desarrollando los docentes en esta experiencia de aprendizaje. Por lo tanto, este resultado aporta evidencia a favor de la validez de constructo del EDSS como una medida general para obtener información diagnóstica de las actuales prácticas pedagógicas del docente en el debriefing, lo que contribuye al entrenamiento y mejoramiento continuo de esta estrategia.
Adicionalmente, la confiabilidad encontrada sería clasificable como excelente, lo que indica que la medición presentó alta presición y bajo error de medición.27
Por todo lo anterior, los resultados de este estudio resultan importantes para el desarrollo de la investigación en simulación y debriefing en nuestro país, pues, aunque su escala de evaluación ha sido frecuentemente empleada en estudios de autores como Kang y Yu,16 Rudolph y otros,17Tanoubi y otros,18Brown y otros,19) Durand y otros,20) Poland y otros21 y Leal y otros,22 a la fecha no se contaba con estudios psicométricos que avalaran la validez y confiabilidad de sus mediciones en nuestro contexto nacional. Por dicho motivo, este estudio contribuye a contar con evidencia psicométrica de esta escala en Chile, que permitirá aplicarla en la carrera de Enfermería y ampliarla progresivamente a otras de la salud.
Se puede señalar como limitación a este resultado, la falta de experiencia de los estudiantes de la carrera de Enfermería en el proceso de evaluación del debriefing, debido a que esta metodología se implementó recientemente en la institución, lo que podría haberles evitado hacer distinciones entre tener un modelo estructurado de debriefing al evaluar a los docentes, y dificultó sus respuestas por falta de pericia como observadores de la situación. Por otra parte, casi todos los docentes evaluados solo contaban con capacitación inicial en simulación clínica y debriefing, respectivamente, a excepción de uno de ellos, que tenía un diplomado en Simulación Clínica.
Se recomienda empezar a usar esta escala para la evaluación del debriefing realizado por los docentes en carreras de Enfermería de Chile, como mecanismo de retroalimentación para el docente y como un dispositivo que facilite la mejora continua de la simulación.
Además, se sugiere continuar con los estudios psicométricos del instrumento, mediante la integración, como participantes, de otras casas de estudios y carreras de la salud; así como evaluar la necesidad de adaptación y las propiedades psicométricas de esta versión del EDSS en otros países hispanohablantes.
También se recomienda complementar esta investigación con estudios mixtos para poder contar con evidencia empírica del impacto de la calidad del debriefing en el aprendizaje de los estudiantes que participan en la enseñanza basada en simulación clínica.
El uso de esta herramienta de manera longitudinal y estructurada permitirá a los docentes hacer un seguimiento de las áreas que debe mejorar en la estructura del debriefing y reforzar aquellas prácticas pedagógicas positivas realizadas en esta experiencia de aprendizaje. Todo esto debe ser apoyado por capacitación permanente para el docente en esta metodología de enseñanza y evaluación.
Los resultados de este estudio presentan evidencia psicométrica que apoya la validez de constructo y confiabilidad de las puntuaciones de la versión adaptada de la escala EDSS, para emplearla en la evaluación de la calidad del debriefing en simulación clínica en la carrera de Enfermería. No obstante, se asume que su uso debe ser complementario y no excluyente con un abordaje cualitativo de este fenómeno.
-
1. Opazo ME, Rojo E, Maestre JM. Modalidades de formación de instructores en simulación clínica: el papel de una estancia o pasantía. Educación Médica. 2017;18(1):22-9. DOI: https://doi.org/10.1016/j.edumed.2016.07.008
-
2. Lestander Ö, Lehto N, Engström Å. Nursing students' perceptions of learning after high fidelity simulation: Effects of a Three-step Post-simulation Reflection Model. Nurse Educ Today. 2016;40:219-24. DOI: https://doi.org/10.1016/j.nedt.2016.03.011
-
3. Urra E, Sandoval S, Irribarren F. El desafío y futuro de la simulación como estrategia de enseñanza en enfermería. Inv Ed Med. 2017;6(22):119-25. DOI: http://dx.doi.org/10.1016/j.riem.2017.01.147.
-
4. Sawyer T, Eppich W, Brett-Fleegler M, Grant V, Cheng A. More than one way to debrief: A critical review of healthcare simulation debriefing methods. Simul Healthc. 2016;11(3):209-17. DOI: https://doi.org/10.1097/sih.0000000000000148
-
5. Simon R, Raemer D, Rudolph J. Debriefing Assessment for Simulation in Healthcare (DASH)-Student Version, Long Form. Boston, Massachusetts: Center for Medical Simulation; 2010 [acceso 30/06/2019]. Disponible en: https://harvardmedsim.org/debriefing-assessment-for-simulation-in-healthcare-dash/.
-
6. INACSL Standards Committee. INACSL Standards of Best Practice: Simulation Debriefing. Clinical Simulation in Nursing. 2016;12:21-5. DOI: https://doi.org/10.1016/j.ecns.2016.09.008
-
7. Cheng A, Morse KJ, Rudolph J, Arab AA, Runnacles J, Eppich W. Learner-Centered Debriefing for Health Care Simulation Education: Lessons for Faculty Development. Simul Healthc. 2016 Feb;11(1):32-40. DOI: https://doi.org/10.1097/sih.0000000000000136
-
8. Mikang K, Sunghee K. Debriefing Practices in Simulation-Based Nursing Education in South Korea. Clinical Simulation in Nursing. 2017;13(5):201-9. DOI: http://dx.doi.org/10.1016/j.ecns.2017.01.008
-
9. Alhaj Ali A, Musalllam E. Debriefing Quality Evaluation in Nursing Simulation-Based Education: An Integrative Review. Clinical Simulation in Nursing. 2018 March; 16:15-24. DOI: https://doi.org/10.1016/j.ecns.2017.09.009
-
10. Cheng A, Grant V, Dieckmann P, Arora S, Robinson T, Eppich W. Faculty Development for Simulation Programs: Five Issues for the Future of Debriefing Training. Simul Healthc. 2015;10(4):217-22. DOI: https://doi.org/10.1097/sih.0000000000000090
-
11. Fey M, Jenkins L. Debriefing Practices in Nursing Education Programs: Results from a National Study. Nurs Educ Perspect. 2015;36(6):361-6. DOI: https://doi.org/10.5480/14-1520
-
12. Lee J, Lee H, Kim S, Choi M, Sun Ko I, Bae J, et al. Debriefing methods and learning outcomes in simulation nursing education: A systematic review and meta-analysis. Nurse Education Today. 2020 January;87(104345). DOI: https://doi.org/10.1016/j.nedt.2020.104345
-
13. Saylor JL, Flannery S, Herge EA, Pohlig RT. Development of an Instrument to Assess the Clinical Effectiveness of the Debriefer in Simulation Education. J Allied Health. 2016 [acceso 07/12/2019];45(3):191-8. Disponible en: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5628394/
-
14. Cheng A, Grant V, Huffman J, Burgess G, Szyld D, Robinson T, et al. Coaching the Debriefer: Peer Coaching to Improve Debriefing Quality in Simulation Programs. Simul Healthc. 2017 Oct;12(5):319-25. DOI: https://doi.org/10.1097/sih.0000000000000232
-
15. Adams T, Newton C, Patel H, Sulistio M, Tomlinson A, Lee W. Resident versus faculty member simulation debriefing. Clin Teach. 2018 Dec; 15(6):462-6. DOI: https://doi.org/10.1111/tct.12735
-
16. Kang K, Yu M. Comparison of student self-debriefing versus instructor debriefing in nursing simulation: A quasi-experimental study. Nurse Educ Today. 2018;65:67-73. DOI: https://doi.org/10.1016/j.nedt.2018.02.030
-
17. Rudolph JW, Palaganas J, Fey MK, Onello R, Thomas Dreifuerst K, Simon R. A DASH to the Top: Educator Debriefing Standards as a Path to Practice Readiness for Nursing Students. Clinical Simulation in Nursing. 2016;12(9):412-7. DOI: https://doi.org/10.1016/j.ecns.2016.05.003
-
18. Tanoubi I, Labben I, Guédira S, Drolet P, Perron R, Robitaille A, et al. The impact of a high fidelity simulation-based debriefing course on the Debriefing Assessment for Simulation in Healthcare (DASH)(c) score of novice instructors. J Adv Med Educ Prof. 2019 Oct;7(4):159-64. DOI: https://doi.org/10.30476/jamp.2019.74583.0
-
19. Brown DK, Wong AH, Ahmed RA. Evaluation of simulation debriefing methods with interprofessional learning. J Interprof Care. 2018 Jul;19:1-3. DOI: https://doi.org/10.1080/13561820.2018.1500451
-
20. Durand C, Secheresse T, Leconte M. [The use of the Debriefing Assessment for Simulation in Healthcare (DASH) in a simulation-based team learning program for newborn resuscitation in the delivery room]. Arch Pediatr. 2017;24(12):1197-204. DOI: https://doi.org/10.1016/j.arcped.2017.09.017
-
21. Poland S, Frey JA, Khobrani A, Ondrejka JE, Ruhlin MU, George RL, et al. Telepresent Focused Assessment With Sonography for Trauma Examination Training Versus Traditional Training for Medical Students: A Simulation-Based Pilot Study. J Ultrasound Med. 2018 Aug;37(8):1985-92. DOI: https://doi.org/10.1002/jum.14551
-
22. Leal C, Juguera L, Pardo M, Martín M, Díaz J. Evaluación del curso de instructores en simulación clínica de la Universidad Católica de Murcia (UCAM). Enfermería Docente. 2015 [acceso 10/04/2019];1(103):8-14. Disponible en: https://www.huvv.es/sites/default/files/revistas/ED-103-04.pdf
-
23. Brett-Fleegler M, Rudolph J, Eppich W, Monuteaux M, Fleegler E, Cheng A, et al. Debriefing assessment for simulation in healthcare: development and psychometric properties. Simul Healthc. 2012;7(5):288-94. DOI: https://doi.org/10.1097/sih.0b013e3182620228
-
24. Maestre J, Muller-Botti S, del Moral I, Fey M, et al. Center For Medical Simulation; 2021 [acceso 05/02/2021]. Disponible en: https://harvardmedsim.org/debriefing-assessment-for-simulation-in-healthcare-dash/.
-
25. Hair J, Black W, Babin B, Anderson R, Tatham R. Análisis multivariante. Madrid: Prentice Hall; 2005. https://dialnet.unirioja.es/servlet/libro?codigo=320227
-
26. Martínez Arias M, Hernández Lloreda MV, Hernández Lloreda MJ. Psicometría Madrid: Alianza Editorial; 2014. https://www.alianzaeditorial.es/libro/manuales/psicometria-maria-rosario-martinez-arias-9788420664064/
-
27. George D, Mallery P. SPSS for Windows step by step: A simple guide and reference. 11.0 update. 4 Ed. Boston: Allyn & Bacon; 2003 [acceso 10/04/2019]. Dsiponible en: https://www.worldcat.org/title/spss-for-windows-stepbystepasimpleguideandreference110update/oclc/50695986/editions?referer=di&editionsView=true
- » Recibido: 16/01/2020
- » Aceptado: 10/03/2021
- » Publicado : 15/07/2021