SciELO - Scientific Electronic Library Online

 
vol.20 número1Indicadores emocionales del DFH y su relación con los motivos de consulta psicológica en niñosLa migración y sus consecuencias en diferentes franjas etarias índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

  • No hay articulos citadosCitado por SciELO

Links relacionados

  • No hay articulos similaresSimilares en SciELO

Compartir


Anuario de investigaciones

versión On-line ISSN 1851-1686

Anu. investig. vol.20 no.1 Ciudad Autónoma de Buenos Aires ene. 2013

 

TÉCNICAS Y PROCESOS DE EVALUACIÓN PSICOLÓGICA

Adaptación argentina del test de Inteligencia Emocional de Mayer-Salovey-Caruso (MSCEIT V 2.0)

Argentinian adaptation of Mayer-Salovey-Caruso Emotional Intelligence Test (MSCEIT V 2.0)

Mikulic, Isabel M.1; Caballero, Romina Y.2; Crespi, Melina C.3; Radusky, Pablo D.4

1Prof. Titular Regular Teoría y Técnicas de Exploración y Diagnóstico. Módulo I, Cátedra I. Directora del Proyecto UBACyT P 20020100100464

(2011-2014): "Inteligencia Emocional, Resiliencia y Calidad de Vida: Estudio de los aspectos psicosociales y diferenciales de las Competencias

Socioemocionales en contextos naturales".E-mail: mikulic@psi.uba.ar

2Lic. en Psicología. Miembro de Proyecto UBACyT . Co-ayudante Teoría y Técnicas de Exploración y Diagnóstico. Módulo I, Cátedra I.

3Adjunta Interina, Teoría y Técnicas de Exploración y Diagnóstico. Módulo I, Cátedra I. Becaria Posdoctoral CONICET Miembro de Proyecto

UBACyT.

4Lic. en Psicología. Miembro de Proyecto UBACyT. Docente de Teoría y Técnicas de Exploración y Diagnóstico. Módulo I, Cátedra I.

Resumen
El constructo Inteligencia Emocional es definido desde el modelo de habilidades como la capacidad de controlar y regular los sentimientos de uno mismo y de los demás, y utilizarlos como guía del pensamiento y la acción (Mayer & Salovey, 1997).  El objetivo de ésta investigación fue: traducir y adaptar al idioma castellano el MSCEIT 2.0 (Mayer, Salovey & Caruso, 2002). La adaptación de la prueba siguió los lineamientos de la Comisión Internacional de Tests (Hambleton, 1994). Las muestras utilizadas fueron: población general (n=97) y expertos en psicometría (n=33). Se replicaron los resultados obtenidos en la versión original de la prueba: el grado de concordancia en los puntajes del MSCEIT fue más alto entre los expertos que en la población general. Se obtuvo un alto índice de confiabilidad (r=.91) para el puntaje total del MSCEIT 2.0. Se discuten los resultados obtenidos en relación a los reportados en la prueba original.

Palabras clave:
Inteligencia emocional; MSCEIT; Adaptación.

 Abstract:
Emotional Intelligence can be defined, from a model of skills, as the ability to control and regulate one's emotions and those of other people and use them as a guide for thought and action (Mayer & Salovey, 1997). The purpose of this study was to translate and adapt the MSCEIT 2.0 (Mayer, Salovey & Caruso, 2002) to the Spanish language as spoken in Argentina. The adaptation of this test was carried out following the International Tests Commission Guidelines (Hambleton, 1994). Two samples of participants were selected: general population (n=97) and experts in psychometrics (n=33). The results obtained in the original version of the test were replicated; the level of agreement was higher among experts than in general population. A high liability index was obtained (r=.92) for the MSCEIT 2.0 total score. Results are discussed in relation to those informed for the original test.

Key words:
Emotional Intelligence; MSCEIT; Adaptation

INTRODUCCIÓN
En la antigüedad, el debate acerca de la relación entre cognición y emoción, ya se encontraba presente en las premisas estoicas que suponían que pensamiento y emoción mantenían una relación interdependiente. No obstante, la visión estoica de las emociones le otorgaba a las mismas un tinte irracional (Mayer, Caruso & Salovey, 1999). Actualmente se concibe que las emociones son interdependientes de las cogniciones y en sí mismas no son irracionales. El constructo de relevancia que refleja esta relación entre emoción y cognición es la Inteligencia Emocional (IE), término que ofrece una visión más amplia sobre el concepto de inteligencia al subrayar que las emociones, lejos de entorpecer el pensamiento, pueden mejorarlo (Salovey & Mayer, 1990).
En los últimos quince años, en el abordaje del constructo han tendido a coexistir dos enfoques (Mayer, 1999; Mayer, 2006). Una aproximación científica, cuyos modelos permiten llevar a cabo estudios empíricos a fin de validar los instrumentos que miden la IE; y una aproximación pseudocientífica que responde a fines meramente comerciales (Fernández-Berrocal & Extremera, 2006b). Las áreas y ámbitos que abarca su estudio desde el punto de vista científco, han sido varios: educacional, laboral, evaluación, deporte y salud. Dado que los individuos difieren en las capacidades de percibir, regular, comprender y controlar sus emociones, estas diferencias repercuten tanto en su hogar, ámbito educativo, trabajo, así como en sus relaciones sociales (Mayer & Salovey, 1997). Por ello, la rápida difusión de la investigación de la IE responde a la relevancia que las emociones tienen en las distintas áreas de la vida de las personas.

Inteligencia Emocional: Constructo y Modelos Teóricos.
La inteligencia emocional (IE) tiene su primer antecedente en el concepto de inteligencia social de Thorndike, que se refiere a la capacidad para comprender y dirigir a las personas y para actuar sabiamente en las relaciones humanas (Thorndike, 1920). Asimismo, Wechsler (1943) diferenció entre elementos intelectuales y factores no intelectuales (afectivos, personales y sociales), señalando la importancia de incluir éstos últimos en los modelos de evaluación de la inteligencia. Sternberg (1979) ha desarrollado la teoría de los componentes cognitivos, que permitió describir las diferencias individuales respecto de la capacidad intelectual. Luego, Gardner (1983) propuso su teoría de las inteligencias múltiples, donde incluyó a la inteligencia interpersonal, en tanto, capacidad para comprender las intenciones, motivaciones y deseos de los demás y a la inteligencia intrapersonal, en tanto, capacidad del individuo para auto-comprenderse, para tener un modelo de trabajo efectivo para sí mismo y para usar esa información de forma eficiente en la regulación de la propia vida. No obstante, el término IE fue utilizado en el ámbito de la psicología por primera vez en 1990 por Salovey y Mayer (Mayer, DiPaolo & Salovey, 1990; Salovey & Mayer, 1990). El modelo de habilidades propuesto por estos autores define la IE como la capacidad de controlar y regular los sentimientos de uno mismo y de los demás y utilizarlos como guía del pensamiento y la acción (Mayer & Salovey, 1997; Mayer, Salovey & Caruso, 2008).
El constructo IE fue desarrollado para explicar por qué algunas personas parecen ser más emocionalmente competentes que otras y está formado por cuatro habilidades interrelacionadas: percepción, facilitación, comprensión y manejo emocional (Mayer & Salovey, 1997). La capacidad para percibir las emociones de forma precisa, incluye las capacidades involucradas en la identificación de las emociones en caras, voces, fotografías, música y otros estímulos (Grewal & Salovey, 2005). Esta capacidad para "leer" las caras es uno de los atributos que los humanos comparten a través de diversas culturas tal como lo ha demostrado en sus estudios Ekman (1994). La facilitación emocional, remite a la capacidad de aprovechar la información emocional para facilitar otros procesos cognitivos. Ciertos estados emocionales pueden crear condiciones mentales que sean favorables para el desarrollo de determinadas tareas (Mayer & Salovey, 1995). La capacidad para comprender las emociones, se refiere al conocimiento emocional, por medio del cual comprendemos, sustantivamos y etiquetamos las emociones. Por último, el manejo emocional remite a la capacidad que se posee para controlar las propias emociones y las de los demás. Este componente constituye quizás el factor asociado con mayor frecuencia a la definición de IE (Mayer & Salovey 1993; Mayer & Salovey, 1997).
Sin embargo, el modelo de habilidades no ha sido el único marco de estudio de la IE, pues se han presentado otros modelos de abordaje del constructo (Mayer, Barsade & Roberts, 2008; Mayer et al., 2008). Petrides y Furnham (2000a, 2000b, 2001) conceptualizaron un modelo de IE como rasgo de personalidad o autoeficacia emocional. Desde este enfoque, el constructo se define como un conjunto de percepciones y disposiciones de uno mismo, relacionadas con la emoción que conforman los aspectos afectivos de la personalidad del adulto normal y que se ubican en los niveles inferiores de las jerarquías de la personalidad (Petrides & Furnham, 2000a; Petrides & Furnham, 2001). Asimismo, es posible situar el modelo mixto de IE (Bar-On, Tranel, Denburg & Berchara, 2003), caracterizado por una visión más amplia al integrar en la definición del constructo un conjunto de rasgos estables de personalidad, competencias socio-emocionales, aspectos motivacionales y diversas habilidades cognitivas (Bar-On, 2000; Boyatzis, Goleman & Rhee, 2000). A diferencia de estos modelos la IE entendida como habilidad para procesar información relevante de nuestras emociones es independiente de los rasgos estables de personalidad (Grewal & Salovey, 2005).

Medición de la Inteligencia Emocional
Con respecto a la operacionalización del constructo, se han utilizado tres aproximaciones para medir la IE: los autoinfor-mes, reportes realizados por otros y tests basados en capacidades (Mayer et al.,1990; Mayer & Geher, 1996). Las medidas de autoinforme fueron las primeras herramientas desarrolladas para evaluar la IE. Salovey, Mayer, Goldman, Turvey y Palfai (1995) desarrollaron una medida, el Trait Meta-MoodScale (TMMS), que evaluaba aspectos de la IE intrapersonal de los sujetos; en concreto, sus habilidades para atender, discriminar y reparar los propios estados emocionales.
Sin embargo, para Mayer y Salovey (2000) el uso de autoinformes, como el TMMS, conllevaba la difcultad de que los puntajes fueran afectados por los propios sesgos perceptivos del individuo. Asimismo, otra limitación radicaba en la posible tendencia a falsear las repuestas para ofrecer una imagen más positiva de sí mismo (Paulhus & Reid,1991; Paulhus & John,1998).
Por tal motivo, con el fn de superar muchos de los inconvenientes que presentaban los autoinformes, Mayer et a. (2002) elaboraron una medida de inteligencia emocional basada en la evaluación de capacidades: el Test de Inteligencia Emocional (MSCEIT 2.0). Este instrumento es el más reciente de una serie de escalas de habilidades de la IE. Su predecesor inmediato fue el MSCEIT Versión de investigación 1.1 y previo a eso, el MEIS (Escala Multifactorial de IE, Mayer, Caruso & Salovey, 1999; Mayer et al., 2002).
A pesar de que se han señalado posibles discrepancias en los resultados del MSCEIT 2.0 (Gignac, 2005), el instrumento original ha presentado niveles adecuados de confiabilidad y validez, tal como muestran diferentes estudios (Caruso, Mayer & Salovey, 2002; Mayer, Salovey Caruso & Sitarenios, 2003; Mayer, Salovey & Caruso, 2004; Mayer, Panter, Salovey, Caruso & Sitarenios, 2005). Si bien existe una adaptación española de la prueba, la cual ha mostrado poseer adecuadas propiedades psicométricas (Extremera, Fernández-Berrocal & Salovey, 2006) las equivalencias conceptuales y lingüísticas deben garantizarse cuando se propone utilizar un instrumento en otros contextos culturales. Asimismo, dado que uno de los criterios para la puntuación de respuestas correctas que se utiliza en el MSCEIT 2.0 está basado en el consenso de respuestas de grupos de expertos, es sumamente importante disponer de un método de consenso de experto representativo de la población para la que se pretende la aplicación del test.
Por tales motivos se ha realizado el proceso de adaptación del MSCEIT 2.0 a nuestro medio, a fn de poder disponer de un instrumento validado ecológicamente y adaptado a las características del contexto específco en el que se propone la investigación.
La relevancia del estudio efectuado radica asimismo, en la necesidad de poder avanzar en torno a las investigaciones sobre la IE en diversos ámbitos de aplicación de la Psicología, a través del uso de instrumentos válidos y confiables.

OBJETIVOS
Presentar la adaptación realizada del Test de Inteligencia de Mayer-Salovey-Caruso (MSCEIT, 2002), tomando en consideración la metodología propuesta por la Comisión Internacional de Test (Internacional Tests Comisión, ITC) con el fin de obtener una versión adaptada con garantías científicas suficientes para posteriores comparaciones transculturales en los estudios sobre inteligencia emocional.

-Analizar las propiedades psicométricas de la versión adaptada del MSCEIT 2.0.

MÉTODO

Participantes
Se seleccionaron dos muestras intencionales conformadas por:
(a) 97 participantes de población general, 42,3% mujeres y 57,7% hombres, cuyas edades estaban comprendidas entre los 18 y 50 años (M=30,57; SD=9,69). El 5,2% tenía estudios primarios incompletos, el 11,3% estudios primarios completos, el 35,1% estudios secundarios incompletos y el 48,5% estudios secundarios completos. Los criterios de inclusión de la muestra de población general fueron: (a) Haber nacido y residir actualmente en la Ciudad y Provincia de Buenos Aires; (b) Edad entre 18-50 años; (c) No haber cursado -ni estar cursando al momento de la administración de la prueba- estudios universitarios y/o terciarios. Este último criterio responde a las características de la población general argentina, pues según datos relevados por el INDEC (2010) sólo el 11,28% de la población total argentina de 18 o más años asiste a un establecimiento educativo. A su vez, dentro de este grupo que asiste a un establecimiento educativo, sólo el 4,68% alcanza el nivel superior.
(b) Una muestra de expertos compuesta por 33 docentes e investigadores de la Facultad de Psicología (UBA) especializados en evaluación psicológica y con conocimientos teóricos en emociones. Las edades de los expertos oscilaron entre 24 y 52 años (M=33,73; SD=8,24). El 91% fueron mujeres y el restante hombres.

Instrumento
El MSCEIT 2.0 es un test de habilidad que evalúa, a través de ocho tareas, las cuatro ramas del modelo de Inteligencia Emocional, entendida como habilidad, propuesto por Mayer y Salovey (1997). Está compuesto por 141 ítems contenidos en ocho secciones diferentes. Cada una de las cuatro habilidades son evaluadas a través de dos tareas: (1) Percepción emocional: Sección A percepción de emociones en caras) y sección E (percepción de emociones en imágenes); (2) Facilitación o asimilación emocional: Sección B (tarea de facilitación) y sección F (tarea de sensaciones); (3) Comprensión emocional: Sección C (tarea de cambios o transformaciones emocionales) y sección G (tarea de combinación de emociones); (4) Manejo emocional: Sección D (tarea de manejo emocional) y sección H (tarea de relaciones emocionales).
La percepción de las emociones, se evalúa mediante la presentación de fotografías de una persona y pidiendo que se estime el nivel de tristeza, felicidad, miedo, etc., expresado por el rostro fotografiado. El componente de facilitación emocional se mide solicitando al sujeto que indique en qué grado determinados estados de ánimo como el aburrimiento o la felicidad, pueden ser útiles para realizar ciertas actividades, como por ejemplo, planear una fiesta de cumpleaños. La sección del test dedicada a la comprensión de las emociones incluye entradas en las que los participantes deben completar frases que evalúan su conocimiento sobre el vocabulario relacionado con las emociones y sobre la evolución y cambio de éstas. En la sección del test que evalúa el cuarto componente, el control de las emociones, se presentan a los participantes situaciones de la vida real. Los sujetos deben escoger, de entre diversas opciones, la mejor estrategia para controlar las emociones que ha suscitado la situación planteada (Salovey & Grewal, 2005).
Cada una de las 8 tareas del MSCEIT 2.0 se compone de un número de ítems pareéis o ítems individuales. Una estructura parcel ocurre por ejemplo, cuando al participante se lemuestra un rostro (en la tarea de caras) y se le pregunta sobre diferentes emociones que puede percibir en el mismo en 5 ítems posteriores. Los 5 ítems conforman un ítem parcel porque ellos están relacionados a la misma cara, aunque cada uno pregunta sobre una emoción diferente (Cattell & Burdsal, 1975). Otros ítems Involucran una respuesta por estímulo, y son, en ese sentido, independientes.
Los formatos de respuesta fueron variando a través de las tareas intencionalmente, de manera de asegurar que los resultados se pudieran generalizar a través de los métodos de respuesta, y reducir los errores en las medidas de correlación. Así, algunas tareas, como las de fotos (Sección A), utilizaron una clasificación de 5 puntos, mientras que otras como las de combinaciones (Sección G) usaron un formato de respuesta múltiple choice (ej. Aceptación, alegría y calidez a menudo se combinan para formar: a) Amor; b) Asombro; c) Anticipación; d) Satisfacción; e) Aceptación).
El test MSCEIT 2.0 proporciona una puntuación total de IE; dos puntuaciones referidas a las áreas experiencial y estratégica; cuatro puntuaciones correspondientes a las cuatro habilidades del modelo (Percepción, Facilitación, Comprensión y Manejo Emocional) y ocho puntuaciones referentes a las diferentes subescalas (Caras, Imágenes, Facilitación, Sensaciones, Cambios, Combinaciones, Manejo y Relaciones Emocionales).
Las puntuaciones se obtienen mediante dos métodos (Mayer et al., 2003):
I.  Método consenso general: a través de este procedimiento se considera la respuesta individual de cada sujeto contra la proporción de respuestas dadas por la muestra general para cada ítem. Por ejemplo, si un sujeto Indica que la "felicidad" de un rostro es "extrema" y esa misma alternativa fue elegida por el 30% de la muestra, al puntaje individual de ese sujeto se adiciona la proporción .30. La puntuación bruta total es la suma de todos esos puntajes (a los cuales se les adicionó la proporción correspondiente) a través de los 141 ítems.
II.  Método consenso experto: el procedimiento es el mismo que el del método consenso general, pero cada una de las puntuaciones del individuo evaluado es contrastado con las proporciones de las respuestas por parte de la muestra de expertos.
En relación a estos métodos, uno de los propósitos de este estudio consiste precisamente en comparar la convergencia de los mismos, dado que un problema inherente al uso de las medidas de habilidad para evaluar la IE, está relacionado con la dificultad para conocer la idoneidad de las respuestas dadas, es decir, cómo saber que la respuesta de un individuo a un ítem es correcta o no. Como señalan Extremera y Fernández Berrocal (2004) en los tests de inteligencia general, y en particular en los de razonamiento lógico y matemático, normalmente existe una única respuesta correcta. Contrariamente, en la evaluación de otro tipo de habilidades, como las sociales o emocionales, las respuestas correctas a una situación pueden ser varias o presentar distintos grados de idoneidad. En estos casos, considerar correcta una u otra elección depende de diversos factores como el contexto, las variables interpersonales, entre otros. Frente a este tipo de problemas se utilizan diferentes criterios de corrección de las respuestas, como son los métodos consenso general y consenso experto propuestos en el MSCEIT. Resulta relevante en tal sentido, poder establecer si el criterio de expertos y el de población general para las respuestas correctas concuerdan o en otros términos, conocer el grado de convergencia que existe entre ambos criterios.

Procedimiento
La adaptación argentina del MSCEIT 2.0 siguió los lineamientos propuestos por la Comisión Internacional de Test (ITC), para lo cual se contemplaron las siguientes etapas:
(1) Traducción: cuatro traductores bilingües realizaron una traducción del instrumento original de modo independiente. Estas cuatro traducciones fueron realizadas de acuerdo a la metodología de traducción directa o forward translation, del idioma inglés al castellano hablado en Argentina (Hambleton, 1996).
(2)  Equivalencias conceptuales: las cuatro versiones obtenidas fueron evaluadas por un jurado conformado por cuatro jueces bilingües. Cada uno de los miembros del jurado, en forma independiente, comparó la idoneidad de la adaptación (del inglés al castellano) de cada uno de los ítems. Para cada uno de los reactivos se les presentó a los jueces la versión original y la adaptada, solicitándoles que evaluaran la equivalencia de los ítems considerando una escala de cuatro puntos, cuyos valores fueron: 1-idéntico, 2-bastante similar, 3-bastante diferente y 4-diferente. Los resultados obtenidos fueron analizados utilizando el software SPSS V.20.0. Se obtuvieron los porcentajes de acuerdo entre los distintos miembros del jurado para cada ítem. Se seleccionaron los reactivos que tenían un porcentaje superior al 75% de acuerdo en la categoría "idéntico". Luego dos integrantes del equipo de investigación realizaron una revisión de los ítems conflictivos teniendo en cuenta las diferencias lingüísticas que podían surgir al cambiar el contexto cultural de aplicación.
Para validar la adecuación del contenido de los reactivos, se realizó una consulta a jueces expertos, que consistió en administrar la primera versión de la prueba a un grupo de 33 expertos en evaluación psicológica y con conocimientos teóricos sobre emociones. Los mismos debieron detallar en una planilla las observaciones e interrogantes que los ítems les suscitaran. Finalmente, esas observaciones fueron analizadas cualitativamente y consideradas en la revisión de la adaptación. Por ejemplo, se reemplazó el término "weighing", cuya traducción fue "sopesar" por la palabra "considerar", de uso más frecuente en nuestro país.
En otro ítem se cambió el nombre "Rashad" por "Raúl" dado que dicho nombre no es usual ni representativo en nuestra cultura.
(3) Prueba piloto: Por último, se administró el MSCEIT 2.0 a una muestra piloto (n=97) de sujetos monolingües que hablaban el idioma al que ha sido traducido el instrumento. Para la recolección de los datos se contactaron distintas instituciones educativas públicas (Escuelas Primarias y de Educación Media para adultos) de la Ciudad y Provincia de Buenos Aires. Se solicitó a los participantes un consentimiento informado, aclarando el carácter confidencia y anónimo de los resultados a obtenerse. La administración, a través de entrevistas semidirigidas la realizó un miembro del equipo de investigación especialmente capacitado en el uso del test. El tiempo total de aplicación osciló entre 1 y 3 horas.
Los ítems fueron analizados teniendo en cuenta las dificultades detectadas por los propios participantes al momento de responder a los mismos (baja aplicabilidad y claridad). Asimismo, se realizó un análisis diferencial de los ítems del MSCEIT en cuanto a su capacidad de discriminación y su nivel de dificultad.

Análisis de datos
Se analizaron las diferencias y la concordancia entre las respuestas identificadas por los expertos y la población general. Además, se compararon los puntajes obtenidos por la población general, tanto con el criterio de puntuación experto como con el criterio general, siguiendo el mismo procedimiento utilizado por los autores del MSCEIT 2.0 (Mayer et al., 2003). Para evaluar la concordancia entre respuestas se utilizó el coeficiente kappa de Cohén (k) que permite evaluar el nivel de concordancia en las respuestas entre los grupos, controlando el efecto del azar. Para los diferentes análisis, se dividió aleatoriamente al grupo de expertos (n=33) en dos sub-grupos de 16 y 17 expertos cada uno y se seleccionó a 33 sujetos de la muestra de población general (n=97), a fin de que la muestra sea comparable con la muestra de expertos. Luego, se calculó la respuesta modal para cada uno de los 141 ítems de la prueba en cada uno de los subgrupos y los coeficientes kappa de Cohén (k), replicando el análisis realizado en el estudio de la prueba original. Para la valoración del índice Kappa se consideró la escala propuesta por Landis y Koch (1977) para expresar cualitativamente la fuerza de la concordancia, tal como se muestra en la Tabla 1.
El MSCEIT 2.0 se basa en los valores medios de los participantes a nivel del ítem, por lo cual los puntajes obtenidos varían en función del criterio utilizado (general o experto). De este modo, el instrumento posee dos tipos de confiabilidad dependiendo del criterio de puntuación que se considere. Todos los resultados fueron analizados utilizando el paquete SAS (Statistical Analysis System) y el SPSS V20.0.

RESULTADOS
A continuación, se presentan los resultados obtenidos al comparar el grado de acuerdo entre las respuestas dadas por ambas muestras (población general y expertos); los puntajes de la población general corregidos con los dos criterios de puntuación del MSCEIT 2.0 (consenso general y consenso experto); y los índices de confiabilidad de la prueba.
1. Análisis del grado de acuerdo entre las respuestas dadas por el grupo de expertos y el de población general.
A- Correlación y diferencia absoluta promedio entre las frecuencias de las respuestas a los ítems.
Se correlacionaron las frecuencias de acuerdo para las 705 respuestas (141 ítems por 5 respuestas cada uno) entre las puntuaciones obtenidas de ambas muestras (expertos y población general) por separado. Se obtuvo una correlación de r=.914, p<0001, indicando que ambas muestras concuerdan en las mismas respuestas como correctas. Este resultado es consistente con los valores obtenidos por Mayer et al. (2003) que reportaron una correlación de r=.908, p < .0001.
También se analizó el promedio considerando las diferencias absolutas para cada una de las 705 alternativas dadas por las dos muestras. El valor medio de las diferencias absolutas obtenido fue de MD=0,094 (SD=0,082). Estos resultados también son congruentes con los obtenidos por Mayer et al. (2003) quienes encontraron un valor medio de MD= 0,080 (SD=0,086).

B-Concordancia entre respuestas modales.
El índice Kappa para las 5 alternativas de los 141 ítems entre las respuestas modales de los dos subgrupos de expertos fue de k=0.83, representando un excelente grado de concordancia. Por otro lado, los índices obtenidos entre las respuestas modales de expertos y población general fueron los siguientes: Kappa simple k=0.67, mientras que el ponderado fue de k=0.79, ambos expresan una buena concordancia. En forma comparativa, se aprecia menor grado de acuerdo entre la población general y los expertos, aspecto que resulta esperable y consistente con lo reportado en otros estudios realizados con el MSCEIT (Mayer et al., 2003; Extremera et al., 2006). En la Tabla 2 se presentan los índices kappa obtenidos con su intervalo de confianza del 95%.

C-Concordancia comparando pares de evaluadores.
El promedio entre los coeficientes Kappa considerando las cinco respuestas posibles a los 141 ítems, para cada par de jueces del grupo de expertos, fue k (528) 0.32, SD 0.08. Por otro lado, el promedio entre los Kappa para cada par de sujetos del grupo de población general (n=33) fue de k (528) 0.10, SD 0.90.
A fin de poner a prueba la hipótesis que sostiene que el grado de concordancia, aun estimado a nivel individual, es mayor en expertos que en población general, se utilizó la prueba para muestras independientes. Como se observa en la Tabla 3, existen diferencias significativas en el grado de concordancia de pares de evaluadores, entre los grupos de población general y el grupo de expertos (í (1054) = -41,158; = 0,000). La media correspondiente al grupo de expertos es mayor (M=32; SD=.08) que la que corresponde al grupo de población general (M=.10; SD=.09).

2-Comparación de puntajes de la población general obtenidos a partir de ambos criterios de puntuación (consenso general y consenso experto).
Con el fin de contrastar las puntaciones obtenidas por la muestra de población general según el criterio de evaluación adoptado (consenso general vs consenso experto) se realizó un ANOVA de dos factores sobre los puntajes del MSCEIT 2.0. Los factores considerados fueron: ramas (niveles: percepción, facilitación, comprensión y manejo) y criterio de puntuación (niveles: experto y general). El efecto principal del criterio de puntuación fue significativo, F(1, 775) 123825, p< .001. Este resultado replica los reportados por los autores del MSCEIT, indicando que los participantes obtienen puntajes más altos cuando se utiliza el criterio experto. Asimismo, se encontró un efecto principal significativo del factor ramas F(3, 768) 16401, p < .001, reflejando, tal como se esperaba, que los ítems difieren en el nivel de dificultad entre ramas. Finalmente, se encontró un efecto de interacción entre ramas x criterio de puntuación, F(3, 768) 145, p< .01.
Un análisis post hoc indicó que la diferencia entre todos los puntajes estimados con el criterio experto para cada rama resultó estadísticamente significativa (p< 0.05), respecto de los estimados a partir del criterio general. Así, los puntajes obtenidos en cada rama del MSCEIT 2.0 utilizando el criterio experto fueron significativamente más altos que los obtenidos mediante el criterio general (ver Tabla 4).
En una comparación final de los dos criterios de puntuación, se puntuó a los participantes con el criterio general por un lado y con el criterio de expertos por el otro. La correlación entre los dos sets de puntajes fue r=99, mientras que para las áreas y ramas osciló entre r=95 y .99.

3-Análisis de la confiabilidad del MSCEIT V2.0 
En la Tabla 4 se presentan los índices de confiabilidad utilizando ambos criterios de puntuación del MSCEIT 2.0 (consenso general y consenso expertos). Tal como proponen los autores, dado que las tareas propuestas en el MSCEIT incluyen diferentes tipos de ítems, es decir que no son homogéneos, los coeficientes de confiabilidad de división por mitades constituyen la elección estadística más adecuada, ya que implican un ordenamiento de los diferentes tipos de ítems en las dos mitades del test (Nunnally, 1978). En consonancia con los autores, se calcularon los coeficientes de división por mitades para el puntaje total del test, las dos áreas y las cuatro ramas evaluadas. Por otro lado, se calcularon los coeficientes alfa de Cronbach para cada una de las ocho tareas o subescalas Individuales, debido a que los ítems en cada uno de los subtests o tareas son homogéneos.
En este estudio, se obtuvo una alta confiabilidad para el puntaje total del MSCEIT, considerando tanto el criterio de expertos como el de población general (r=.92 y r=93, respectivamente). La confiabilidad de las dos áreas, experiencial y estratégica, fue r=86 y .86, y r=.76 y.78 para el criterio de expertos y general, respectivamente. Los puntajes de las cuatro ramas de percepción, facilitación, comprensión y manejo estuvieron en el rango r=.71 a .91 para ambos tipo de criterio (Tabla 4). El rango de confiabilidad de las tareas individuales osciló entre a=44 y .92, con el criterio general y entre a=.51 y .91, con el criterio de expertos, denotando una confiabilidad más baja respecto de los valores obtenidos en las ramas y áreas del test. Esta misma tendencia ha sido advertida por los autores del MSCEIT y por quienes efectuaron la adaptación española del test, obteniendo también coeficientes de confiabilidad más bajos en las tareas, y razonablemente más elevados en las escalas combinadas.

4-Intercorrelaciones para los puntajes en las ocho subes-calas del MSCEIT en función del criterio de puntuación (general y experto).
Como se expone en la Tabla 5, se analizaron las intercorrelaciones entre las puntuaciones obtenidas en las ocho tareas del MSCEIT con el criterio experto (encima de la diagonal) y con el criterio general (debajo de la diagonal). Excepto la tarea 6 (combinaciones) que mostró una baja correlación con la tarea 3 (facilitación) utilizando el criterio general, todas las tareas correlacionaron positivamente usando los dos criterios (expertos y general). Las intercorrelaciones oscilaron entre (97)=.214 y .727, p < 0,05.

DISCUSIÓN
En este trabajo ha sido posible, con la metodología propuesta por la ITC, realizar la adaptación a nuestro medio del MSCEIT 2.0. El proceso de adaptación cultural y lingüística del instrumento efectuado desde este marco ha permitido elaborar una versión en castellano que es conceptualmente semejante a la prueba original y con adecuados índices de confiabilidad.
Tal como han propuesto los autores de la prueba original (Mayer et al., 2003) en este estudio se analizó la asociación entre las frecuencias de acuerdo entre expertos y población general en las respuestas al MSCEIT 2.0; obteniendo una correlación de r=.91. Este resultado es consistente con el r=.90 reportado por los autores, poniendo en evidencia que ambas muestras (expertos y general) concuerdan en las mismas respuestas como correctas.
Por otro lado, se analizó la concordancia entre las respuestas modales dadas por el grupo de expertos y de población general. Se obtuvo un kappa simple de k=0.67 y un kappa ponderado de k=.0.79, reflejando un buen grado de concordancia, al igual que los resultados de la versión original (k=0.71 y 0.79, respectivamente). Si bien, la concordancia es ligeramente menor a la encontrada entre los expertos, esta diferencia entre población general y expertos es esperable y acorde a lo encontrado en investigaciones anteriores (Mayer et al., 2003; Extremera et al., 2006). Se puede concluir que los expertos en emociones y psicometría concuerdan en cuáles son las respuestas correctas del test con mayor fiabilidad, que los miembros de la muestra de población general.
Al comparar los resultados obtenidos mediante los dos métodos de puntuación (experto y general), se encontró que los participantes obtuvieron puntajes significativamente más altos al utilizar el criterio de puntuación experto, tal como hipotetizaron los autores del MSCEIT. Asimismo, como se esperaba, los ítems difirieron significativamente en el nivel de dificultad a través de las diferentes ramas de la IE.
Por otro lado, los resultados obtenidos aportaron evidencia empírica a otra de las hipótesis sostenidas por los autores del test, de acuerdo a la cual los puntajes en las ramas del MSCEIT son más elevados cuando son corregidos bajo el criterio experto. En consonancia con Mayer et al. (2003), este criterio podría considerarse el predilecto para estimar las puntuaciones de los sujetos, teniendo en cuenta los resultados obtenidos en este estudio.
Respecto de las propiedades psicométricas de la versión adaptada del MSCEIT 2.0, la prueba ha mostrado poseer una adecuada confiabilidad, considerando el criterio experto y general (r=92, r=93, respectivamente), resultado consistente con los obtenidos en la versión original (r=91, r=.93, respectivamente). Valores semejantes (r=.94 y r=95) fueron descriptos en la adaptación española (Extremera et al., 2006). La confiabilidad para los puntajes de las áreas experiencial y estratégica, también indicaron una buena confiabilidad (criterio experto: r=86 y r=.76; criterio general: r=86 y r=.78), con valores levemente inferiores a los reportados en el MSCEIT (criterio experto: r=.90 y r=86; criterio general: r=.90 y r=88). Asimismo, en la adaptación española los valores informados se encuentran dentro del mismo rango (criterio experto: r=93 y r=87; criterio general: r=94 y r=89). La confiabilidad del MSCEIT demuestra ser más baja cuando se consideran las ocho tareas en forma individual, aspecto también observado por otros investigadores (Mayer et al., 2003; Palmer et al., 2005; Extremera et al., 2006). Esto sugiere que tanto las puntuaciones de las áreas como las de las ramas del MSCEIT 2.0 pueden usarse como índices de IE, no así las tareas individuales.
En conclusión, los resultados encontrados en este estudio demuestran ser consistentes con y apoyan los hallazgos recientes obtenidos con la versión en Inglés del MSCEIT 2.0 (Mayer et al, 2003; Palmer et al, 2005). La versión argentina posee validez ecológica, siendo adecuada para su uso en diversos ámbitos del quehacer profesional del psicólogo.
Investigaciones futuras en torno a la adaptación efectuada deberán profundizar el estudio de las propiedades psicométricas en el campo de la validez, utilizando diversos procedimientos que permitan demostrar si la estructura factorial de la versión adaptada del MSCEIT 2.0 es consistente con el modelo teórico de la IE propuesta por los autores. Se requiere poder incrementar el tamaño de la muestra, a fin de poder aplicar análisis factoriales exploratorios y confirmatorios, que garanticen la equivalencia de constructo de la versión adaptada del MSCEIT 2.0. Asimismo, dada la relevancia que la IE presenta en los diferentes contextos y áreas de vida de las personas, es preciso avanzar en torno a la validez predictiva del instrumento tomando en cuenta diversos aspectos del comportamiento de las personas asociados a la salud física y mental, la satisfacción vital, la interacción social y el buen desempeño en contextos educativos y laborales.
La adaptación del MSCEIT 2.0 pretende cubrir un vacío instrumental por ser éste el único instrumento utilizado internacionalmente para la evaluación de la Inteligencia Emocional desde el modelo de habilidades que no se encontraba adaptado a nuestro medio.

Tabla 1
Interpretación de los valores de kappa según Landis y Koch (1977)

Tabla 2
Concordancia entre respuestas modales al MSCEIT de los diferentes grupos

Tabla 3
Comparación de los valores medios y desvíos estándares de la concordancia de pares de evaluadores entre los grupos de expertos y población general

Tabla 4
Valores medios, Desvíos y Confabilidad de los puntajes del MSCEIT V 2.0 con el método de consenso experto y consenso general.

Tabla 5
Intercorrelaciones entre los puntajes de las tareas del MSCEIT en función del criterio de puntuación (general y experto).

REFERENCIAS BIBLIOGRÁFICAS

1- Bar-On, R., Tranel, D., Denburg, N. & Berchara, A. (2003). Exploring the neurological substrate of emotional and social intelligence. Brain, 126, 1790-1800.         [ Links ]

2- Bar-On, R. (2000). Emotional and social intelligence: insights from the emotional quotient inventory. En R. Bar-On y J.D.A. Parker (Eds.), Handbooks of Emotional Intelligence (pp.363-388). San Francisco: Jossey-Bass.         [ Links ]

3- Boyatzis, R., Goleman, D. & Rhee, K. (2000).CIustering competence in emotional intelligence: insights from the emotional quotient inventory.En R. Bar-On y J.D.A. Parker (Eds.), Handbooks of Emotional Intelligence (pp.343-362). San Francisco: Jossey-Bass.         [ Links ]

4- Cattell, R.B. & Burdsal, C.A. (1975). The radial parcel double fac-toring design: A solution to the item-vs.-parcel controversy. Multivaríate Behavioral Research, 10, 165-179         [ Links ]

5- Caruso, D.R., Mayer, J.D. & Salovey, P. (2002). Relation oían Ability Measure of Emotional Intelligence to Personality. Journal of Personality Assessment, 79, 306-320.         [ Links ]

6- Ekman, P. (1994). Strong evidence for universals in facial expressions: A reply to Russell's mistaken critique. Psychological Bulletin, 115, 268-287.         [ Links ]

7- Extremera, N. & Fernández-Berrocal, P. (2004). El papel de la inteligencia emocional en el alumnado: evidencias empíricas. Revista Electrónica de de Investigación Educativa, 6.         [ Links ]

8- Extremera, N., Fernández-Berrocal, P. & Salovey, P. (2006). Spa-nish versión of the Mayer-Salovey-Caruso Emotional Intelligence Test (MSCEIT) Versión 2.0: Reliabilities, age and gender differences.Psicothema, 18, 42-48.         [ Links ]

9- Fernández-Berrocal, F. & Extremera, N. (2006b). Emotional intelligence: A teorical and empirical review of its frst 15 years of history. Psicothema, 18, 7-12.         [ Links ]

10- Gardner, H. (1983). Frames of mind: the theory of Múltiple Intelligences. New York: Basic Books.         [ Links ]

11- Gignac, G.E. (2005). Evaluating the MSCEIT V2.0 via CFA: Comment on Mayer et al. (2003). Emotion, 5, 233-235.         [ Links ]

12- Grewal, D. & Salovey, P. (2005). Feeling Smart: The Science of Emotional Intelligence: A new idea in psychology has matured and shows promise of explaining how attending to emotions can help us in everyday life. Amerícan Scientist, 93, 330-339.         [ Links ]

13- Hambleton, R. (1994). Guidelines for adapting educational and psychological tests: A progress report. European Journal of Psychological Assessment, 10, 229-240.         [ Links ]

14- Hambleton, R. (1996). Adaptación de tests para su uso en diferentes idiomas y culturas: fuentes de error, posibles soluciones y directrices prácticas. En J. Muñiz (Eds.), Psicometría (pp. 203-238). Madrid: Universitas.         [ Links ]

15- Landis, J. & Koch, G. (1977).The measurement of observer agree-ment for categorical data. Biometrics, 33, 159-74.         [ Links ]

16- Mayer, J.D., DiPaolo, M. & Salovey, P. (1990). Perceiving affective content in ambiguous visual stimuli: A component of emotional intelligence. Journal of Personality Assessment, 54, 772-781. DOI: 10.1207/s15327752jpa5403&4_29.         [ Links ]

17- Mayer, J.D. & Salovey, P. (1993). The intelligence of emotional intelligence. Intelligence, 17, 433-442.         [ Links ]

18- Mayer, J.D. & Salovey, P. (1995). Emotional intelligence and the construction and regulation of feelings. Applied and Preventi-ve Psychology, 4, 197-208.         [ Links ]

19- Mayer, J.D. & Geher, G. (1996). Emotional intelligence and the ¡dentifcation of emotion. Intelligence, 22, 89-103.         [ Links ]

20- Mayer, J.D. & Salovey, P. (1997). What is emotional intelligence? En P. Salovey y D. Sluyter (Eds.), Emotional development and emotional intelligence: Implications for educators (pp. 3-34). New York: Basic Books.         [ Links ]

21- Mayer, J.D. (septiembre, 1999). Emotional Intelligence: Popular or scientifc psychology?. APA Monitor, 30, 50.         [ Links ]

22- Mayer, J.D., Caruso, D. & Salovey, P. (1999). Emotional intelligence meets traditional standards for and intelligence. Intelligence, 27, 267-298.         [ Links ]

23- Mayer, J., Caruso, D. & Salovey, P. (2000). Selecting a measure of emotional intelligence: The case for ability scale (pp. 320-342). In: R. Bar-On & J.D.A. Parker (eds.). The Handbook of Emotional Intelligence: Theory, Development, Assessment, and Application al Home, School and in the Workplace. San Francisco: Jossey-Bass.         [ Links ]

24- Mayer, J.D., Salovey, P. & Caruso, D.R. (2002). Mayer, Salovey, Caruso Emotional Intelligence Test: Versión 2 Manual (2nd ed.). Canadá: Multi-Health Systems.         [ Links ]

25- Mayer, J.D., Salovey, R, Caruso, D.R. & Sitaremos, G. (2003). Measuring emotional intelligence with the MSCEIT V2.0. Emo-tion, 3, 97-105.         [ Links ]

26- Mayer, J.D., Salovey, P. & Caruso, D.R. (2004). A further consideraron of the issues of emotional intelligence. Psychological In-quiry,15, 249-255.         [ Links ]

27- Mayer, J.D. (2006). A new feld guide to emotional intelligence. En Ciarrochi, J. Forgas, J.P. & Mayer, J.D. (Eds.), Emotional intelligence and everyday Ufe (pp. 3-26). New York: Psychology Press.         [ Links ]

28- Mayer, J.D., Panter, A.T., Salovey, P. & Caruso, D.R. (2005). A Discrepancy in Analyses of the MSCEIT-Resolving the Mys-tery and Understanding Its Implications: A Reply to Gignac (2005). Emotion, 5, 236-237.         [ Links ]

29- Mayer, J.D., Barsade, S.G. & Roberts, R.D. (2008). Human abilities: Emotional intelligence. Annual Review of Psychology, 59, 507-536.         [ Links ]

30- Mayer, J.D., Salovey, P. & Caruso, D.R. (2008). Emotional intelligence: New ability or eclectic traits?. American Psychologist, 63, 503-517.         [ Links ]

31- Nunnally, J.C. (1978). Psychometric Theory, New York, McGraw-Hill.         [ Links ]

32- Palmer, B.R., Gignac, G., Manocha, R. & Stough, C. (2005). A psychometric evaluation of the Mayer-Salovey-Caruso Emotional Intelligence Test Versión 2.0. Intelligence, 33, 285-305         [ Links ]

33- Paulhus, D.L. & Reid, D.B. (1991). Enhancement and denial in socially desirable responding. Journal of Personality and Social Psychology, 60, 307-317         [ Links ]

34- Paulhus, D.L. & John, O.P. (1998). Egoistic and moralistic biases in self-perception: The interplay of self-deceptive styles with basic traits and motives. Journal of Personality, 66, 1025-1060.         [ Links ]

35- Petrides, K.V. & Furnham, A. (2000a). On the dimensional structure of emotional intelligence. Personality and Individual Diffe-rences, 29, 313-320.         [ Links ]

36- Petrides, K.V. & Furnham, A. (2000b). Gender differences in mea-sured and self-estimated trait emotional intelligence. Sex Roles, 42, 449-461.         [ Links ]

37- Petrides, K.V. & Furnham, A. (2001). Trait emotional intelligence: Psychometric investigation with reference to established trait taxonomies. European Journal of Personality, 15, 425-448.         [ Links ]

38- Salovey, R & Mayer, J.D. (1990). Emotional Intelligence. Imagination, cognition and personality, 9, 185-211.         [ Links ]

39- Salovey, P., Mayer, J.D., Goldman, S.L., Turvey, C. & Palfai, T.R (1995). Emotional attention, clarity, and repair: exploring emotional intelligence using the Trait Meta Mood Scale. En J.W. Pennebaker (Ed.), Emotion, Disclosure, & Health (pp.125-154). Washington: American Psychological Association.         [ Links ]

40- Salovey, P. & Grewal, D. (2005). The Science of Emotional Intelligence. American Psychological Society, 1, 281-285.         [ Links ]

41- Sternberg, R.J. (1979).The nature of mental abilities. American Psychologist, 34, 214-230.doi: 10.1037/0003-066X.34.3.214.         [ Links ]

42- Thorndike, E.L. (1920). Intelligence and its uses. Harper's Magazine, 140, 227-235.         [ Links ]

43- Wechsler, D. (1943). Non-intellective factors in general intelligence. The Journal of Abnormal and Social Psychology, 38, 101-103.         [ Links ]

Fecha de recepción: 31 de mayo de 2013
Fecha de aceptación: 26 de agosto de 2013

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Creative Commons License Todo el contenido de esta revista, excepto dónde está identificado, está bajo una Licencia Creative Commons