SciELO - Scientific Electronic Library Online

 
vol.117 issue4Compromiso neurológico grave por déficit de vitamina B12 en lactantes hijos de madres veganas y vegetarianas author indexsubject indexarticles search
Home Pagealphabetic serial listing  

Services on Demand

Journal

Article

Indicators

  • Have no cited articlesCited by SciELO

Related links

  • Have no similar articlesSimilars in SciELO

Share


Archivos argentinos de pediatría

Print version ISSN 0325-0075On-line version ISSN 1668-3501

Arch. argent. pediatr. vol.117 no.4 Buenos Aires Aug. 2019

http://dx.doi.org/10.5546/aap.2019.e425 

EDUCACIÓN MÉDICA

http://dx.doi.org/10.5546/aap.2019.e425

Validación transcultural del Cuestionario de Enseñanza Clínica de Maastricht

Transcultural validation of the Maastricht Clinical Teaching Questionnaire

 

Dr. Sergio E. Giannasia, Dr. Eduardo Durantea, Dr. Fernando R. Vázqueza, Dra. Claudia E. Kecskesa, Dra. Roberta Ladenheimb y Dr. Carlos A. Brailovskyc

a. Hospital Italiano de Buenos Aires.
b. Centro de Educación Médica e Investigaciones Clínicas. Ciudad Autónoma de Buenos Aires, Argentina.
c. Universidad de Laval, Quebec, Canadá.

Correspondencia: Dr. Sergio E. Giannasi: sergio.giannasi@hospitalitaliano.org.ar

Financiamiento: Ninguno.

Conflicto de intereses: Ninguno que declarar.

Recibido: 24-7-2018
Aceptado: 20-3-2019

 


RESUMEN

La evaluación del desempeño del docente clínico permite proporcionar feedback para motivarlo a mejorar sus habilidades docentes.
Se realizó la validación transcultural del Cuestionario de Enseñanza Clínica de Maastricht, mediante la guía internacional para la adaptación de los cuestionarios. Se investigó validez de contenido, proceso de respuesta, constructo y confiabilidad. Luego de la adaptación, residentes de dos hospitales universitarios evaluaron a 187 docentes clínicos.
La validación del contenido y del proceso de respuesta fue adecuada. En el análisis factorial confirmatorio, todos los índices y criterios se ajustaron bien con el modelo de 5 factores y 14 ítems. El alfa de Cronbach fue de 0,80. El coeficiente G fue > 0,70, con bajos valores de varianza del error absoluto. Fueron necesarias 6 evaluaciones por docente para una evaluación confiable en cada dominio y en el desempeño global.
La versión en castellano del Cuestionario es válida y confiable para evaluar a los docentes.

Palabras clave:Educación médica; Adaptación transcultural; Reproducibilidad de los resultados; Encuestas y cuestionarios.

ABSTRACT

The evaluation of the clinical teacher's performance provides feedback to motivate them to improve their teaching skills.
To perform the cross-cultural adaptation of the Maastricht Clinical Teaching Questionnaire, the International Guide for the Adaptation of the Questionnaires was followed. The validity of content, response process, construct and reliability were investigated. After cross-cultural adaption, residents of two University hospitals evaluated 187 clinical teachers.
Content and answering process were validated. In the confirmatory factor analysis, all indexes and criteria for a good fit suited the 5 factors and 14 items model. The Cronbach's alpha coefficient was 0.80. The G coefficient was > 0.70, with low variance of the absolute error. Every clinical teacher should receive at least 6 evaluations to achieve a reliable evaluation of every domain and of their global performance.
The Spanish version of the questionnaire is a valid, reliable instrument for medical residents to evaluate teachers.

Key words: Medical education; Cross-cultural adaptation; Reproducibility of results; Surveys and questionnaires.


 

INTRODUCCIÓN

La formación de los docentes clínicos (DC) es de larga data, pero se desarrolló más plenamente a partir de la década de los años ochenta y noventa. La raíz de este movimiento fue "enseñar a enseñar", y su foco estuvo, más bien, en la didáctica (enseñanza con pequeños y grandes grupos, observación y feedback,enseñanza en distintos lugares de práctica, entre otros). Sin embargo, la mayoría de los programas de formación en enseñanza clínica no han tenido un marco teórico que los fundamente ni evaluaciones adecuadas del desempeño docente.1

La teoría del aprendizaje cognitivo desarrollada por Collins y col., en 19892 incluye conceptos relacionados con la educación y el aprendizaje de los adultos que pueden aplicarse a la enseñanza clínica.3,4 Este modelo propone seis métodos de enseñanza: "modelado, coaching y andamiaje" son el corazón del modelo y facilitan la adquisición de habilidades cognitivas y metacognitivas; "articulación y reflexión" son estrategias que los profesores utilizan para exteriorizar los procesos tácitos que subyacen a su pensamiento y a sus acciones en la práctica, y para mostrar las estrategias que usan para resolver los problemas.5 Finalmente, mediante la "exploración", el docente fomenta que los estudiantes formulen y persigan sus propias metas de aprendizaje.6

Además, la evaluación de la calidad docente permite proporcionar feedback a los profesores para motivarlos a mejorar sus habilidades de enseñanza.7,8 Un feedback adecuado requiere que la evaluación sea realizada con instrumentos válidos, confiables9 y que cuenten con evidencias de validez de múltiples fuentes.10,11

El Cuestionario de Enseñanza Clínica de Maastricht (Maastricht Clinical Teaching Questionnaire, MCTQ) fue construido sobre la base de la teoría del aprendizaje cognitivo y ha mostrado ser válido y confiable para evaluar el desempeño de los DC.12 Los ítems utilizados en la versión final del instrumento se validaron en 4 de los 6 métodos descritos originalmente: modelado, coaching, articulación y exploración, a los que se le sumó la evaluación de "clima de aprendizaje seguro", fundamental en todo proceso educativo.13 La validez y confiabilidad del MCTQ fue probada con estudiantes de Medicina durante sus rotaciones clínicas, en dos hospitales universitarios de Holanda.13 Además, demostró ser válido y confiable para evaluar a DC de estudiantes de Veterinaria durante rotaciones cortas de hasta un día.14

El MCTQ también fue utilizado para evaluar el desempeño de los DC en la residencia de Terapia Intensiva en el Hospital Universitario de Maastricht,15 de Psiquiatría en Nueva Zelanda16 y de todas las residencias en la Universidad Javeriana, en Bogotá.17

Considerando el excelente desempeño del MCTQ y la falta de instrumentos de evaluación del DC en idioma español, el objetivo de la investigación fue realizar su validación transcultural.

MATERIAL Y MÉTODO

Se realizó la adaptación del MCTQ siguiendo las directrices de la Comisión Internacional para la Adaptación de Test.18 Luego de realizar la traducción al español, se exploró la evidencia de validez de cuatro de las cinco fuentes descritas en los Estándares para pruebas educativas y psicológicas:19 1a De contenido mediante un panel de expertos. 2a Del proceso de respuesta, mediante una prueba piloto. 3a La estructura interna del test, validez de constructo y confiabilidad, mediante un análisis factorial confirmatorio (AFC), determinación de la validez convergente y discriminante, la varianza media extractada (VME) y la confiabilidad compuesta. Además, se la evaluó con el coeficiente alfa de Cronbach. Para la evaluación de diferentes aspectos de la varianza total, se realizó un estudio de generalizabilidad (estudio G). 4a Las relaciones con otras variables se midieron mediante un modelo de ecuaciones estructurales (MEE), la relación entre el puntaje recibido por los DC en cada dominio y el juicio general.

Las consecuencias de la aplicación del instrumento (quinta fuente de validez) no se incluyeron como objetivo en este estudio.

Marco, observadores y docentes clínicos

Médicos residentes de dos hospitales universitarios de la Ciudad Autónoma de Buenos Aires (CABA), Argentina, participaron como observadores del desempeño de los DC después de completar 4 semanas de rotación clínica. La participación de los residentes y de los DC fue voluntaria y anónima; en todos los casos, se explicaron los objetivos y alcances de la investigación.

Para el cálculo del N de observaciones, se tuvo en cuenta la necesidad impuesta por el AFC y la existencia o no de normalidad multivariada de los datos.20 Dado que un análisis de una muestra parcial reveló que los datos no presentaban normalidad multivariada, se utilizó el método de análisis de robust maximum likelihood,21 y quedó establecido el N de DC para evaluar en mayor de 120.

Pruebas estadísticas

Para el AFC y el MEE, se utilizaron los siguientes indicadores de buen ajuste: valor de p del estadístico chi2 ajustado, chi2/grados de libertad, root mean square error of approximation (RMSEA), normed fit index (NFI), non normed fit index (NNFI), comparative fit index (CFI), root mean square residual (RMR), goodness of fit index (GFI), adjusted goodness of fit index (AGFI). Se utilizó el programa Lisrel 9.10.22 Se evaluó la validez convergente y discriminante. Para estimar la confiabilidad de cada dominio, se calculó la VME y la confiabilidad compuesta. Se calculó el coeficiente alfa de Cronbach por tratarse de ítems no dicotómicos, y se lo consideró como significativo si era mayor de 0,80. Mediante un MEE, se estableció la relación entre los factores latentes y el rendimiento general, y se compararon los resultados con los del estudio de Stalmeijer y col.13 Para determinar si los resultados de la evaluación de los DC por residentes que aplicaban el MCTQ podrían generalizarse, se realizó un estudio G.23 La faceta de diferenciación fueron los residentes observadores (O) anidados en los DC (O : DC) y la faceta de generalización, los ítems (I). Para el estudio G, se utilizó el software EduG 6.1 y se consideró un coeficiente G satisfactorio igual a 0. 70.o mayor. Finalmente, mediante un proceso de optimización, se determinó la menor cantidad de evaluaciones necesarias para evaluar a un DC en cada una de las actividades docentes (modelado, coaching, articulación, exploración y establecer un clima seguro) y para el juicio global.

El protocolo fue aprobado por el Comité de Ética de Investigación del Hospital Italiano de Buenos Aires, N° 1776.

RESULTADOS

Dos traductores, nativos de habla hispana, independientes de la investigación, realizaron una traducción individual del MCTQ del inglés al español. Un panel de 7 expertos en educación médica produjo un documento único en español, que representó de la mejor manera posible el constructo de la teoría del aprendizaje cognitivo y la pertinencia de los ítems a cada uno de los modos de enseñanza. Otros dos traductores de habla nativa inglesa, independientes de la investigación, realizaron la traducción inversa al inglés. Fueron analizadas por Renee Stalmeijer (autora del estudio original), quien eligió la versión más adecuada y sugirió algunas correcciones. Ese documento fue la base del primer cuestionario definitivo en español (Anexo).

Aporte de evidencia de validez y confiabilidad del Cuestionario de Enseñanza Clínica de Maastricht en español

1. Aporte de evidencia para la validez de contenido: los expertos en educación médica constataron la pertinencia de los ítems en español con los dominios y de estos con el constructo. Consideraron que la estructura gramatical era correcta y que los 14 ítems correspondientes a los 4 modos de enseñanza de la teoría del aprendizaje cognitivo y al clima del aprendizaje eran claros y adecuados para la nueva población.

2. Aporte de evidencia del proceso de respuesta: mediante la técnica de sondeo,7 se aplicó el MCTQ a un grupo de residentes de los hospitales intervinientes que no participarían de la investigación final. La compresión del instrumento y la forma de respuesta fue adecuada y no requirió cambios.

3. Aporte de evidencia de la estructura interna del test y confialibilidad

• Recopilación de datos. Entre febrero de 2013 y mayo de 2014, se recibió un total de 1078 evaluaciones correspondientes a 187 DC de los dos hospitales intervinientes. Luego de eliminar las respuestas incompletas y las correspondientes a DC con menos de 4 evaluaciones, la muestra final incluyó a 151 DC.

• Validez de constructo. En el AFC, se probaron 3 modelos con 1, 3 o 5 factores latentes (Tabla 1). El modelo de cinco factores mostró el mejor ajuste. Para asegurar la validez del constructo y la estabilidad del modelo, se aplicó un AFC en dos muestras aleatorias de 120 evaluaciones cada una. En ambos casos, los índices mostraron un aceptable ajuste a los datos.

Tabla 1. Los 3 modelos de índices de ajuste del análisis factorial confirmatorio con 1, 3 y 5 factores latentes y las dos muestras de 120 de las 151 evaluaciones. Además, en la 7ma línea, están los valores de los índices de ajuste del modelo de ecuaciones estructurales. Método de estimación en todos los casos: robust maximum likelihood

• La validez convergente fue garantizada, ya que las cargas factoriales estandarizadas en el modelo de 5 factores latentes fueron elevadas (> de 0,7) y significativas (con valores t > 1,96).18 La validez discriminante también se confirmó fuertemente, ya que la VME (en negrita, en la Tabla 2) superó el cuadrado de la correlación de cada uno de esos dominios con el resto.20

Tabla 2. Validez discriminante, convergente y confiabilidad

• El índice de ajuste para el M EE también fue adecuado (véase la Tabla 1). Las pruebas en el MEE, con los cinco factores latentes, produjeron un resultado adecuado (consúltese la 7a línea en la Tabla 1). Los "coeficientes path" mostraron fuertes analogías con los resultados de la investigación original, con algunas diferencias (véase la Figura 1). En nuestro caso, "coaching" estuvo menos influenciado por "modelado" y más por "clima de aprendizaje seguro". Además, "coaching" tuvo una mayor influencia en "articulación" y menos en "exploración". Finalmente, "articulación" tuvo una incidencia aún mayor en "exploración" que en el estudio original.


Figura 1. Relaciones causales entre los diferentes modos de enseñanza (factores latentes) del Cuestionario de Enseñanza Clínica de Maastricht y la evaluación global

• La confiablidad de cada dominio fue adecuada, ya que la confiabilidad compuesta y la VME excedieron el 0,7 y el 0,5, respectivamente (véase la Tabla 2).20

• Los resultados del coeficiente alfa de Cronbach fueron adecuados en todos los dominios (véase la Tabla 2).

• Para evaluar las fuentes de varianza, se diseñó un estudio G con tres modelos diferentes de análisis del instrumento siguiendo el plan O : DC/I.

- Análisis del instrumento, que incluyó el juicio global (15 ítems): en la Tabla 3,se representan los componentes de la varianza y el error absoluto para cada faceta. La varianza DC fue del 13,5 % y la de observadores anidados en los DC fue del 10,9 %. El coeficiente G absoluto fue 0,83.

Tabla 3. Resultados del estudio G. 15 ítems

- Análisis del instrumento sin el juicio global (14 ítems): el coeficiente absoluto G para los 14 ítems fue de 0,92.

- Análisis de cada dominio: el coeficiente absoluto G para cada dominio independiente fue superior a 0,7 en todos los casos.

Para un G de, al menos, 0,70, se necesitarían seis o más respuestas para evaluar la competencia de los DC en exploración, cinco para articulación y establecer un ambiente de aprendizaje seguro, y cuatro para modelado, coaching y obtener un juicio del desempeño global.

4. Evidencia relacionada con la relación con otras variables: todas las correlaciones entre los factores latentes y el juicio global fueron altas y estadísticamente significativas (véase la Tabla 4).

Tabla 4. Correlaciones entre cada uno de los factores y la evaluación global (N = 151)

DISCUSIÓN

La adaptación transcultural de un test exige no solo una correcta traducción, sino también una adaptación y validación adecuadas. En la traducción, se buscó mantener las equivalencias lingüísticas, considerando las más importantes la conceptual (significado y contenido), la técnica (sintaxis y gramática) y la lectura y comprensión.24,25 Luego, se buscó evitar los sesgos más frecuentes que aparecían durante la adaptación.

El sesgo de muestreo se produce cuando las características socioculturales o de educación de los que responden el test son distintas y hacen que los ítems sean interpretados de modo diferente a como ocurrió en la investigación original.26

Se consideró que, en ambos estudios, como los observadores de los DC eran médicos residentes (en nuestro caso) o estudiantes de Medicina (en el estudio original), la capacidad de compresión de las preguntas era similar. Respecto a los DC evaluados y sus características, tanto de Holanda como de la Argentina, cumplieron tareas clínicas y docentes similares, y, en ambos casos, el nivel de formación docente era heterogéneo.27

El sesgo de muestreo también puede aparecer por un uso inadecuado del instrumento.28 Mediante una prueba piloto en un grupo de residentes, se comprobó que todos los ítems se consideraban fáciles de entender y el proceso de respuesta era simple. Además, el proceso de implementación final del MCTQ fue el mismo que en el estudio original; se mantuvo la confidencialidad y la participación fue voluntaria.

El sesgo del instrumento aparece cuando las características del test, a causa de las diferencias transculturales, no refleja del mismo modo el constructo por evaluar.26 Se evitó este sesgo mediante la validación del contenido realizado por un panel de expertos en enseñanza clínica y se indicó que todos los elementos incluidos en la versión final del MCTQ eran relevantes para la población que se evaluaba.

Después de completar la adaptación transcultural, se verificaron las propiedades psicométricas del test y se proporcionó evidencia de validez10 de cuatro de las cinco fuentes propuestas en Estándares para pruebas educativas y psicológicas. 19 Se encontró que la versión en español del cuestionario era adecuada para aplicar en nuestra población. La validez de constructo del MCTQ se estableció mediante el AFC, siguiendo el modelo de cinco factores propuesto por Stalmeijer et al.13 La validez convergente y discriminatoria también se confirmó en nuestro análisis. La confiabilidad se calculó utilizando el VME, la confiabilidad compuesta y el coeficiente alfa de Cronbach para la consistencia interna, con resultados muy alentadores.

La interacción entre los factores latentes y el juicio global, evaluada con un MEE, fue muy similar a la reportada en el estudio original, con pequeñas variaciones. En nuestro medio, "coaching" tuvo una mayor influencia sobre "articulación" y menos sobre "exploración". Además, "articulación" tuvo una incidencia aún mayor en "exploración" que en el estudio original. Este hecho podría explicarse por el mayor nivel de competencia de los residentes en comparación con los estudiantes y su necesidad de traducirlo en la práctica (es decir, cuidado del paciente). Esta es solo una hipótesis que puede valer la pena explorar en futuros estudios. Se encontró una relación adecuada entre cada factor latente y el juicio global sobre el desempeño del docente.

Finalmente, el estudio G demostró que la evaluación del DC realizada por los observadores residentes era generalizable, ya que los coeficientes G para el juicio general eran 0,83. Las fuentes de varianza para el error absoluto, para el DC y para los residentes fueron bajas. Se determinó que el 42,4 % de la varianza del error se relacionó con los ítems y el 52,2 %, con la interacción de los estudiantes anidados en los docentes y los ítems; la interacción de los DC con los ítems agregó solo el 5,4 % al error absoluto.

Con estos resultados, se puede suponer que la variabilidad observada deriva de diferencias reales entre los DC y que la variabilidad (confiabilidad interobservador) que aporta el residente en su forma de evaluar es muy baja. La poca variabilidad asociada con los ítems, probablemente, se relaciona con la buena correlación del aprendizaje cognitivo.

El coeficiente G sin el juicio global fue de 0,92 y, para cada uno de los métodos de enseñanza, mayor de 0,70. Se puede concluir que, con, al menos, seis observadores, se puede evaluar, en forma confiable, cada uno de los métodos de enseñanza y que, eliminado el ítem de juicio global, los resultados son aún más generalizables.

Se considera que, tanto con los resultados obtenidos con el análisis de la consistencia interna como con los del estudio G, se puede afirmar que esta investigación aporta evidencia de la confiabilidad del MCTQ en español.

Una limitación de este trabajo es haber validado el cuestionario en dos hospitales universitarios de la CABA de características similares. Dado que la enseñanza clínica está contextualizada por diferentes medios en donde se realiza, para aportar mayor fuente de validez y evitar sesgo de muestreo, es necesario que el MCTQ sea aplicado en otros hospitales de nuestro país y de otros países de habla hispana.

Futuras líneas de investigación podrían estar destinadas a aportar evidencia sobre el impacto de la utilización de este instrumento sobre el desempeño docente luego de brindar feedback basado en los resultados de evaluaciones hechas con el MCTQ.

Se concluye que esta investigación cumplió con todos los requisitos formales para una correcta adaptación transcultural del instrumento de evaluación del desempeño del DC y que aportó validez basada en el contenido, en el proceso de respuesta, en la consistencia interna y en la confiabilidad, así como en las relaciones con otras variables.

ANEXO
Cuestionario de Maastricht para la Enseñanza Clínica

REFERENCIAS

1. Steinert Y. Commentary: faculty development: the road less traveled. Acad Med. 2011; 86(4):409-11.         [ Links ]

2. Collins A, Brown J, Newman S. Cognitive apprenticeship: Teaching the crafts of Reading, writing, and mathematics. In: Resnick L (ed.). Knowing, Learning, and Instruction: Essays in honor of Robert Glaser. Hillsdale, New Jersey: Lawrence Erlbaum Associates; 1989. p. 453-94.         [ Links ]

3. Kaufman DM, Mann KV. Teaching and learning in medical e ducation: how theory can inform practice. In: Swanwick T (ed.). Understanding Medical Education Evidence, Theory and Practice. 2nd ed. London, UK: Willey Blackwell; 2014. p. 7-30.         [ Links ]

4. Morris C, Blaney D. Work-Based Learning. In: Swanwick T (ed.). Understanding Medical Education: evidence, theory and practice. 2nd ed. London, UK: Wiley-Blackwell; 2014. p. 97-109.         [ Links ]

5. Collins A, Brown J, Holum A. Cognitive Apprenticeship: Making Thinking Visible. American Educator. 1991; 6(11):38-46.         [ Links ]

6. Stalmeijer RE, Dolmans DH, Wolfhagen IH, Scherpbier AJ. Cognitive apprenticeship in clinical practice: can it stimulate learning in the opinion of students? Adv Health Sci Educ Theory Pract. 2009; 14(4):535-46.         [ Links ]

7. Litzelman DK, Stratos GA, Marriott DJ, Lazaridis EN, et al. Beneficial and harmful effects of augmented feedback on physicians' clinical-teaching performances. Acad Med. 1998; 73(3):324-32.         [ Links ]

8. Snell L, Tallett S, Haist S, Hays R, et al. A review of the evaluation of clinical teaching: new perspectives and challenges. Med Educ. 2000; 34(10):862-70.         [ Links ]

9. Bowden J, Marton F. Quality and qualities. In: Bowden J (ed.). The University of Learning: Beyond Quality and Competence. London & New York: Taylor & Francis; 2005. p. 212-37.         [ Links ]

10. Beckman TJ, Cook DA, Mandrekar JN. What is the validity evidence for assessments of clinical teaching? J Gen Intern Med. 2005; 20(12):1159-64.         [ Links ]

11. Colliver JA, Conlee MJ, Verhulst SJ. From test validity to construct validity... and back? Med Educ. 2012; 46(4):366-71.         [ Links ]

12. Stalmeijer RE, Dolmans DH, Wolfhagen IH, Muijtjens AM, et al. The development of an instrument for evaluating clinical teachers: involving stakeholders to determine content validity. Med Teach. 2008; 30(8):e272-7.         [ Links ]

13. Stalmeijer RE, Dolmans DH, Wolfhagen IH, Muijtjens AM, et al. The Maastricht Clinical Teaching Questionnaire (MCTQ) as a valid and reliable instrument for the evaluation of clinical teachers. Acad Med. 2010; 85(11):1732-8.         [ Links ]

14. Boerboom TB, Dolmans DH, Jaarsma AD, Muijtjens AM, et al. Exploring the validity and reliability of a questionnaire for evaluating veterinary clinical teachers' supervisory skills during clinical rotations. Med Teach. 2011; 33(2):e84-91.         [ Links ]

15. Van Mook WNKA, Stalmeijer RE, Muijtjens AMM, Scherpbier AJJA. A preliminary study on the quality of the intensive care medicine training programmes in the Netherlands. Neth J Crit Care. 2016; 24(7):10-5.         [ Links ]

16. Stephan A, Cheung G. Clinical teaching and supervision in postgraduate psychiatry training: the trainee perspective. Australasian Psychiatry. 2017; 25(2):191-7.         [ Links ]

17. Olmos-Vega F, Dolmans D, Donkers J, Stalmeijer RE. Understanding how residents' preferences for supervisory methods change throughout residency training: a mixed-methods study. BMC Med Educ. 2015; 15(1):177.         [ Links ]

18. Muñiz J, Elosua P, Hambleton RK, International Test Commission. Directrices para la traducción y adaptación de los tests: segunda edición. Psicothema. 2013; 25(2):151-7.         [ Links ]

19. American Education Research Association, American Psychological Association, National Council on Measurement in Education. Standards for Educational and Psychological Testing. Washington: American Psychological Association; 2014.         [ Links ]

20. Hair JFJ, Black WC, Babin BJ, Anderson RE. Multivariate Data Analysis. 8th ed. Upper Saddle River, NJ: Prentice Hall; 2018.         [ Links ]

21. Li CH. The performance of ML, DWLS, and ULS estimation with robust corrections in structural equation models with ordinal variables. Psychol Methods. 2016; 21(3):369-87.         [ Links ]

22. Joreskog KG, Sorbom D, Inc S. PRELIS 2 User's Reference Guide: a program for multivariate data screening and data summarization: a preprocessor for LISREL. 3rd ed. Chicago: Scientific Software International; 1996.         [ Links ]

23. Wiley EW, Webb NM, Shavelson RJ. The Generalizability of test scores. In: Kurt F. Geisinger P (ed.). APA Handbook of Testing and Assessment in Psychology. New York: American Psychological Association; 2013. p. 43-60.         [ Links ]

24. Gudmundsson E. Guidelines for translating and adapting psychological instruments. Nordic Psychology. 2009; 61(2):29-45.         [ Links ]

25. Fernández A. Adaptación de Tests a Otras Culturas. In: Tornimbeni S, Pérez E, Olaz F (ed.). Introducción a la Psicometría. Buenos Aires: Paidós; 2008. p. 191-205.         [ Links ]

26. Van de Vijver FJR, Hofer J, Chasiotis A. Methodological aspects of cross-cultural developmental studies. In: Bornstein MH (ed.). Handbook of cross-cultural developmental science. Mahwah: Erlbaum; 2010. p. 21-37.         [ Links ]

27. Centeno AM. The programs and context of medical education in Argentina. Acad Med. 2006; 81(12):1081-4.         [ Links ]

28. Hambleton RK, Merenda PF, Spielberger CD. Adapting educational and psychological tests for cross-cultural assessment: Mahwah, NJ: Psychology Press; 2004.         [ Links ]

Creative Commons License All the contents of this journal, except where otherwise noted, is licensed under a Creative Commons Attribution License