SciELO - Scientific Electronic Library Online

 
vol.22 número1Construcción de un banco de ítem de razonamiento verbalAnálisis Comportamental Aplicado (ACA) y Trastornos Generalizados del Desarrollo (TGD): Su evaluación en Argentina índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Articulo

Indicadores

  • No hay articulos citadosCitado por SciELO

Links relacionados

  • En proceso de indezaciónCitado por Google
  • No hay articulos similaresSimilares en SciELO
  • En proceso de indezaciónSimilares en Google

Bookmark


Interdisciplinaria

versión On-line ISSN 1668-7027

Interdisciplinaria v.22 n.1 Buenos Aires ene./jul. 2005

 

Posibilidad de integración de las teorías cognitivas y la psicometría moderna

Nuria Cortada de Kohan *

* MA en Psicología. Profesora Honoraria de la Universidad de Buenos Aires (UBA) y Vice-Directora del Departamento de Psicología de la Universidad Argentina John F. Kennedy. Salguero 1692, 8º Piso Dpto. A, (1425) Buenos Aires - República Argentina. E-Mail: ncortada@psi.uba.ar

Resumen

Se analizan dos orientaciones de la psicología científica actual: la psicología cognitiva y la psicometría. Se presenta una breve revisión histórica de la psicología cognitiva, que utilizando metodologías que permiten estudiar comportamientos observables en condiciones experimentales bien controladas y haciendo uso frecuente de modelos y técnicas matemáticas sofisticados (análisis multivariados, modelos exponenciales, etc.) avanzan sobre el conductismo al interesarse por los procesos internos de la mente. Se señalan importantes aportes de los pioneros en el campo de la lógica (Boole), la máquina de Turing, la computadora de von Neumann, la lógica binaria de Shannon, los programas de Newell y Simon, los modelos de McCullock y Pitts para lograr la metáfora de la mente como una computadora capaz de recibir información, manipular símbolos, registrar elementos y guardarlos en la memoria, recobrarlos, reconocerlos y organizar información (Neiser). Se presentan sumariamente los aportes de las teorías cognitivas a la lingüística y para ejemplificar el pensamiento científico del cognitivismo, se describen los aportes de Kahneman (Premio Nobel 2002) y de Tversky sobre la incertidumbre y los problemas de decisión y sus múltiples consecuencias en los campos económico, médico, etc. También se destacan los progresos de la psicometría a partir de los pioneros Binet y Spearman hasta la Teoría de la Respuesta al Item que permite una medición en los tests más confiable y estricta. Así se llega al núcleo de la propuesta que es la necesidad y la posibilidad de integrar la psicometría con las teorías cognitivas. Con respecto a esto se analizan los aportes de Hunt, Sternberg, Carroll, etc. y se presentan instrumentos, con los cuales se estudian no solo los resultados o producto final, sino también procesos, tales como los tests de Kaufmann y Woodcock-Johnson y el de matemática de Real y colaboradores. Además se señalan los trabajos de pioneros argentinos en este campo como Rimoldi, López Alonso, Roselli, Cortada de Kohan, etc. que han tratado de estudiar los procesos intermedios en la solución de los problemas que representan los ítem.

Palabras clave: Psicología cognitiva; Psicometría; Integración; Modelos psicométricos.

Abstract

A possibility of integration cognitive theory and modern psychometric. The interest of man for himself could be traced in the words at the Delphos Temple in Greece "gnwsi se auton". But in Classic Greece (Plato and Aristotle), as well as in the Middle Age (Saint Thomas), the man was seen as a compound of body and soul in the context of onthology and methaphysics. Only in the Renaissance Luis Vives (1538-1947) said “that it does not matter much what is the soul. Instead what it matters to us is to know how it works”. In the Renaissance the knowledge of the world gave birth to the natural sciences and also more value was given to the person and its subjectivity.
Scientific psychology starts, as everybody knows, at the Wundt Laboratory in Leipzig in 1879 as an experimental science with Herbart, Weber, Ebbinhaus, Fechner and some others.
There are two trends in scientific psychology: cognitive psychology and psychometrics. The interest of psychologists for the study of the mind started around 1950; this concept was rejected by behaviorists. Cognitive psychology tries to find out in detail the mental processes that are used by man. However, cognitive psychology, as behaviorism, studies psychological constructs through observable behavior using experimental designs, establishing good control of the variables and using mathematical models such as multivariate analysis, exponential functions, statistical analysis for the verification of hypothesis, and so on. There are many fields studied by cognitive psychologists, sometimes using different ways to explain the same phenomena. For instance, the language and its evolution is analyzed in very different contexts by Chomsky, Piaget, Vygotsky and Brunner, but all of them are considered cognitivists.
Cognitive Psychology may be defined as an objective science of the mind understood as a system of knowledge (Rivière, 1991). Sometimes in a restricted sense the metaphor of mind-computer is used. Contributions to this point of view were made by Boole (1815-1854) with the Mathematical Analysis of Logic, by Turing with his calculator machine, by Shannon,
from the MIT, by means of reducing uncertainty with binary logic and measuring information, by Wiener (1894-1964) with the concept of cybernetics and the use made by McCullock and Pitts of the concept of feedback in analogy with the neuronal functioning. The nervous system could be understood as a computer system. The human being as the computer, receives information, manipulates and memorizes symbols, memorizes them, and recognizes forms, in fact it processes information (Neiser, 1976). At this point the dualism mind-brain disappears. From now on, the mind is to the brain as the software is to the hardware. In 1960, Miller and Brunner organized the Center for Cognitive Studies at Harvard.
It is impossible to consider all the advances of cognitive psychology. I would like only to point out, as an example, the problems studied by Kahneman (Nobel Prize in Economics, 2002). He studied mainly psychological decision problems and the risk biases using the concepts of risk aversion and the prospect theory. He, together with the late Tversky, demonstrated that intuitive prediction of probability judgements of people do not follow the mathematical probability laws, but showed many biases. These theories have great importance in everyday life.
Theory of tests: Psychometrics has contributed strongly to the mathematization of psychology specially through the great impact of the works of Spearman, Thurstone, Guilford, Cattell, Gulliksen and others. Most of the advances in tests theory come from the use of ANOVA, MANOVA, and factorial analysis to construct more reliable and valid tests. Today, besides the so called classic theory which is a regression model, we have the generalizability model which uses the concept of facets, and lately through the works of Rasch, Birnbaum, Lord, Hambleton, and others, we have the Item Response Theory (IRT model), a probabilistic model that offers the possibility to know the level of information of each item of a test and to create tests according to what is necessary for different circumstances.
Need of integration of the two scientific trends: Some researchers see now the need to stress the knowledge through the tests of the cognitive processes and not to evaluate only the final outcome of the process, as it happens in most tests. There exist already some commercial tests with this aim in view, such as the Kaufmann and the Woodcock tests. Besides, there is a new trend in tests construction to consider psychometric tests as cognitive tasks and to use different multicomponent response models (Bejar, 1993; Embretson, 1993; Fischer, 1995). These are the consequences of the significant impact cognitive theory has made on the theories of abilities and intelligence. Cognitive tasks are viewed as requiring multiple stages, strategies, and knowledge store. Both tasks and persons vary on the processing components. Of course this new research requires sophisticated software. In Argentina this impact has been seen in the pioneering studies work of Rimoldi related to test construction, but also in the efforts of López Alonso, Roselli, Richaud de Minzi, Cortada de Kohan, and others.

Key words: Cognitive psychology; Test theory; Integration; New psychometric models.

“...Ninguna investigación merece el nombre de ciencia si no pasa por la demostración matemática.”
Leonardo da Vinci
Tratado de la Pintura VII,
Buenos Aires: Espasa-Calpe.

Introducción

Seguramente el hombre desde su misma aparición en la tierra se interesó por conocerse a sí mismo y a sus semejantes. En este sentido se puede decir que la psicología es tan antigua como el hombre, ya que en realidad los ensayos para hilvanar sus conocimientos psicológicos, comienzan con el famoso “gnwsi se auton” (conócete a ti mismo), inscripto en el frontispicio del templo del oráculo de Delfos de los antiguos griegos. Sócrates se interesa profundamente en el ser humano, captado en una perspectiva esencialmente moral. Las nociones de justicia, verdad, virtud y felicidad expresan a su juicio la verdadera naturaleza del hombre. La concepción socrática del alma es inseparable de la filosofía de la sabiduría que engloba a todas las demás virtudes (piedad, justicia, templanza, etc.) y de una sabiduría que se puede enseñar a través de su famosa mayéutica, su “solo sé que nada sé” es simplemente un proceso didáctico. Platón tratará de demostrar que el alma es absolutamente incorpórea con destino sobrenatural. En el Fedón, Platón compara el alma con un carro con dos caballos conducido por un cochero. El cochero simboliza la razón, uno de los caballos la energía moral y el otro el deseo. El alma está en el cuerpo como un piloto en su navío para conducirlo y dominarlo. La psicología de Aristóteles apuntará a criticar este idealismo platónico y a rehabilitar la sensación como fuente del conocimiento, estableciendo además casi todos los pasos de la lógica del pensamiento. Pero tanto en la Grecia Clásica (Platón y Aristóteles) como en el Medioevo (San Alberto y Santo Tomás) a pesar de haber formulado muchas ideas sobre el mundo psicológico, el hombre fue pensado siempre como el compuesto de alma y cuerpo desde la trascendencia y en el contexto ontológico de la metafísica y de la teología. Más que analizar cómo era el hombre, se hacían propuestas de cómo debía ser su moral (ética) o su forma de llegar al conocimiento (lógica). Pero en todos los clásicos se encuentra una tendencia a la universalidad, una orientación hacia la totalidad de los objetos y una actitud intelectual, racional del pensamiento que convierte a su saber en filosofía, no existe una actitud dirigida específicamente al mundo psicológico. La concepción científica del psiquismo comenzará con la crisis epistemológica de esta visión metafísica en la Baja Edad Media y lo que iba a preocupar en este nuevo enfoque, no era ya responder a la pregunta estática y especulativa de qué es el alma sino a la más dinámica y funcional de cómo actúa. Así se puede leer en Luis Vives:

“No es cosa que nos importe demasiado saber que es el alma, aunque sí y en gran manera, cómo es y cuáles son sus operaciones” (1538 - 1947, p. 45).

Junto a la revalorización de la persona humana y su subjetividad, en el Renacimiento tuvo lugar la reivindicación de la Naturaleza y del saber natural sobre la misma que dio origen a la moderna noción de ciencia, con características diferentes de la episteme esencialista griega y medieval. Como se sabe, la psicología científica nace en el Siglo XIX con la creación del Laboratorio de Wundt en Leipzig en 1879 y define el comienzo de la psicología experimental con los trabajos de Herbart, Weber, Ebbinhaus, Fechner, etc., aunque no todas las escuelas del Siglo XX han seguido los procesos metodológicos de las ciencias naturales. Hubo muchos enfoques en distintas direcciones. En la primera mitad del Siglo XX la psicología, especialmente en los Estados Unidos se aferró al conductismo que utilizó los métodos experimentales sobre todo para estudios de sujeto único.

Dos orientaciones de la psicología científica actual

Los logros de la psicología cognitiva

Alrededor de 1950 surge con gran fuerza la Psicología Cognitiva. Esto implica el estudio de la mente que era rechazado por los conductistas por inobservable. La psicología cognitiva siempre trata de conocer en detalle los procesos mentales y es lo que la distingue del conductismo. Aunque el conductismo representó una tendencia claramente dominante en la primera mitad del Siglo XX muchos psicólogos mostraban ciertas reservas. Por ejemplo Tolman (1967) consideraba como imposible explicar el aprendizaje de un animal, únicamente por la memorización de una serie de acciones y creía que era necesario referirse a un mapa cognitivo, una especie de plan mental que el animal utilizaba para guiar las acciones necesarias para resolver el problema. Así Tolman introdujo el término variables intervinientes para designar los procesos psicológicos internos no observables y que permiten considerar que la respuesta no es solo una función de una situación estimulante sino también del organismo, es decir: R = f(E,O). Las distintas críticas al conductismo extremo llevaron al surgimiento entre los años 1950 y 1960, de lo que se suele denominar la revolución cognitiva. Sin embargo el movimiento cognitivista sigue estudiando al ser humano a través de comportamientos observables, a menudo usando condiciones experimentales muy bien controladas y recurre frecuentemente a los modelos y técnicas matemáticas sofisticadas, análisis multivariados, funciones exponenciales, etc., es decir, tiene muy en cuenta la metodología científica en sus estudios.
Existen varias corrientes de pensamiento que contribuyeron al surgimiento de la psicología cognitiva. Por ejemplo los análisis del lenguaje realizados por pensadores tan diferentes como Chomsky (1972), Piaget (1926), Vygotsky (1962) y Brunner (1983) pueden incluirse en el pensamiento cognitivista.
Para Chomsky, el lenguaje o cualquier otra capacidad cognitiva surge de una propiedad universal de los individuos que es innata. El niño con su conocimiento innato de los universales lingüísticos deriva a través del lenguaje hablado, un sistema de reglas gramaticales de la lengua particular a la cual está expuesto. Chomsky en 1957 provocó una revolución de la lingüística insistiendo en tres puntos fundamentales:

a.- las personas hablan porque tienen cierto conocimiento de su gramática.

b.- una teoría de la gramática de un lenguaje debe especificar explícitamente las reglas, de modo que pueda determinarse el conjunto de oraciones que las caracterizan sin necesidad de que el teórico intuya o adivine.

c.- una teoría del lenguaje debe explicar la forma por medio de la cual los niños adquieren la gramática de sus lenguas nativas.

Si bien Chomsky modificó y amplió su teoría, siempre sostuvo que la lingüística es una rama de la psicología cognitiva.
La teoría de Piaget (1926) como la de Chomsky es organísmica, es decir que resalta la universalidad de la cognición y el contexto es considerado relativamente poco importante. Su teoría del lenguaje está integrada en su teoría general del desarrollo cognitivo, que es constructivista.
Piaget, así como el lingüista suizo de Saussure y el antropólogo Levi-Strauss, era estructuralista. Su preocupación por la epistemología lo llevó a estudiar el desarrollo mental de los niños con el fin de aclarar los fundamentos del conocimiento. Con una serie de estudios informales realizados con sus propias hijas llegó a la conclusión de que el pensamiento se desarrolla a partir de la internalización de las propias acciones y atraviesa durante la infancia una serie de etapas cualitativamente distintas. Estas etapas corresponden a nuevas estructuras mentales.
Los puntos básicos de la teoría del lenguaje de Vygotsky son que el habla tiene un origen social y que el lenguaje precede al pensamiento racional e influye en la naturaleza del mismo. Vygotsky propuso que las funciones superiores del hombre, lenguaje y pensamiento, se desarrollaban primero en la interacción del niño con otra persona y devendrían las intrapersonales a medida que el niño fuera consciente de su significación.
Brunner (1983) en cambio sugirió que el niño aprende a usar el lenguaje, es decir, acentuó así el aspecto comunicativo del desarrollo del lenguaje más que su naturaleza estructural. Parte del aprendizaje de la comunicación implica aprender el significado de las palabras y las frases.
También resultaron importantes para el surgimiento de la psicología cognitiva algunos aportes de la psicología de la Gestalt. Los psicólogos Wertheimer, Kohler, Koffka y Lewin se oponían al asociacionismo filosófico que consideraba que la vida mental consistía solo en asociaciones de ideas, determinaron la importancia de las relaciones estructurales de la percepción y defendieron la comprensión súbita de un problema o insight, al captar la estructura subyacente.
Mención especial merecen los trabajos de Rimoldi (1955, 1960, 1984) sobre solución de problemas en los cuales señalaba que un problema es una función lingüística de una estructura lógica, aunque sin reducir todo el pensamiento al lenguaje o a la lógica. Sin embargo, consideraba que:

“si no existe un lenguaje apropiado, los procesos de pensamiento no pueden ser explicitados ni evaluados propiamente” (Rimoldi, 1986, p. 157).

El mérito de este investigador fue empezar a aplicar la teoría de la información para expresar la reducción de incertidumbre que tiene lugar a medida que el proceso de comprensión se desarrolla.
La psicología cognitiva se define en general como una ciencia objetiva de la mente concebida como un sistema de conocimiento (Rivière, 1991). Se habla a veces de psicología cognitiva en un sentido restricto que se apoya en la metáfora mente-computadora, es decir que utiliza los conceptos y procesos relacionados con las computadoras.
Los antecedentes científicos de la psicología cognitiva (o ciencia cognitiva como muchos dicen ahora) hay que buscarlos en los grandes avances tecnológicos desarrollados al terminar la Segunda Guerra Mundial. Estos avances tienen varios pioneros, por ejemplo el análisis matemático de la lógica publicado en 1854 por el irlandés Boole, que es la utilización de un sistema binario para representar cantidades lógicas, por ejemplo verdadero-falso por los dígitos 1 y 0. Esta fue la base del diseño de los circuitos digitales y de las técnicas de programación de las computadoras. Por otro lado el matemático inglés Turing (1912-1954) que propuso la llamada Máquina de Turing (1950) capaz de computar cualquier función calculable, y fue la fuente del desarrollo de la inteligencia artificial. Por otro lado Shannon (Shannon & Weaber, 1981) del MIT introdujo la lógica binaria en el diseño de los circuitos eléctricos. Los conceptos de Shannon sobre la posibilidad de cuantificar la información en función de la reducción de la incertidumbre, que se puede establecer en bits fueron aplicados por Broadvent (1958) y otros para establecer la ordenación entre los estímulos al percibirlos. Wiener (1980), matemático también del MIT, introdujo la palabra cibernética y con ella la importancia de la información y su relación con el feedback o retroalimentación.
En 1943 surge el modelo de McCullock y Pitts (fisiólogo y matemático, respectivamente) utilizando la analogía con el funcionamiento de las neuronas. El sistema nervioso se podía entender a un nivel abstracto como sistema de cómputo. A partir de 1947 surge la idea de crear las primeras computadoras, como la famosa ENAC de Princeton construida por von Neumann (1955).
La posibilidad de analizar la mente como un sistema de computación fue la idea clara que posibilitó el traspaso de estas teorías a la psicología. El ser humano así como las computadoras, recibe información, manipula símbolos, registra elementos en la memoria y los puede recobrar, reconoce formas, es decir organiza la información (Neiser, 1976). Este es el enfoque del procesamiento de información. Se concibe a la actividad de la mente como una secuencia en etapas. Desde este momento desaparece el dualismo mente-cerebro. De ahora en adelante la mente será para el cerebro como el programa (software) para la computadora (hardware).
Todos estos adelantos se cristalizaron cuando a mediados de la década de 1950, Newell y Simon (1972) diseñaron un programa para probar teoremas lógicos en forma similar a la humana. Casi en la misma época Brunner desarrolló teorías sobre las estrategias utilizadas por las personas para aprender nuevos conceptos y finalmente en 1960 Miller y Brunner crean en Harvard el Centro para Estudios Cognitivos (Gardner, 1988).
Es imposible en este artículo analizar detalladamente las realizaciones de la ciencia cognitiva en toda su amplitud. Los cognitivistas se han dedicado a estudiar sobre todo los problemas relacionados con lo que usualmente se llama procesos básicos como la percepción, la memoria, el aprendizaje y también problemas muy complejos como la resolución de problemas, la comprensión verbal, la creatividad o las estrategias de la metacognición.
Tal vez sería interesante presentar como ejemplo, los problemas que estudia Kahneman (Khaneman & Tversky, 1984) quien hace tiempo que trabaja en el estudio de la toma de decisiones, tema compartido por muchas disciplinas tales como la matemática, la economía, las ciencias políticas, la sociología y la psicología. Toda decisión implica un riesgo. Los análisis de la decisión distinguen entre elecciones riesgosas (por ejemplo, cuando se participa en un juego de azar) y elecciones sin riesgo (por ejemplo, cuando se acepta pagar un precio por un bien o un servicio).
El enfoque psicológico sobre la toma de decisión surge ya de un ensayo de Bernouillí publicado en 1738 en el que explicaba por qué la gente evita el riesgo y por qué el rechazo al riesgo disminuye con el aumento de la riqueza. Por ejemplo, si a distintas personas se les propone optar entre jugar apostando (con una probabilidad de .85 de ganar) o recibir sin jugar $ 800, la gran mayoría prefiere recibir $ 800 sin jugar. La esperanza matemática en este caso es:

.85 x 1000 + .15 x 0 = $ 850

que es mayor que los $ 800 sin apostar. Esta preferencia es un ejemplo del rechazo al riesgo (risk aversion). El rechazo de una ganancia segura en favor de una apuesta con esperanza muy baja o igual, se llama búsqueda de riesgo. El estudio de las elecciones riesgosas se fundamenta para Kahneman en la llamada teoría prospectiva (prospect theory). Las mediciones empíricas demuestran que el valor subjetivo es una función cóncava del tamaño de las ganancias y convexa en el dominio de las pérdidas. Cuando se colocan juntas (ver Figura 1) dan una función en S, con mayor pendiente en las pérdidas, lo que supone un rechazo a las pérdidas (loss aversion). Esto significa que una pérdida de X $ se rechaza más de lo que atrae una ganancia de los mismos X $. Esta suposición del rechazo al riesgo tuvo importancia central en la teoría económica. En el dominio de las ganancias la gente presenta rechazo por el riesgo, mientras que en el dominio de las pérdidas las personas presentan atracción hacia el riesgo.


Figura 1. Función hipotética del valor subjetivo (Kahneman & Tversky, 2000)

Kahneman y Tversky (1984) demostraron empíricamente que las predicciones intuitivas y los juicios de probabilidad no siguen los principios estadísticos, ni las leyes demostradas de la probabilidad y documentaron sesgos y discrepancias sistemáticas entre las normas del razonamiento probabilístico y la forma de razonar de la gente sobre frecuencias y verosimilitud. Estas teorías tienen gran importancia práctica en la realidad, por ejemplo en problemas de salud pública se demuestra el efecto sobre el mercado de un cambio en las expresiones vidas salvadas o vidas perdidas, que inducían a un cambio en la preferencia entre rechazo del riesgo a búsqueda del riesgo. Por ejemplo, la opción de cirugía para un tratamiento es relativamente menos atractiva cuando las estadísticas del resultado son presentadas en términos de mortalidad en vez de hacerlo en términos de supervivencia.
Kahneman también trabajó en la teoría del apoyo (support theory) que distingue claramente entre los hechos del mundo y cómo se representan formalmente (Tversky & Kahneman,1983). En esta teoría la probabilidad no se asigna a los hechos como en el modelo normativo común, sino a las descripciones de los hechos, llamadas hipótesis. Los juicios de probabilidad según esta teoría se basan en el apoyo, es decir, en la fuerza de la evidencia. La teoría del apoyo distingue las disyunciones explícitas de las implícitas. Una disyunción explícita es aquella hipótesis que pone una lista de sus componentes individuales, por ejemplo: ‘un choque de auto debido al estado de la autopista o a la impericia del conductor o a una avería en los frenos’, mientras que una disyunción implícita señala solo ‘un choque de autos’, generalmente aumenta el apoyo y por lo tanto su verosimilitud percibida. Como resultado, distintas descripciones del mismo hecho dan lugar a diferentes juicios de valor.

Los logros de la Teoría de los Tests

Hace casi un siglo nacieron dos grandes programas de investigación específicos en la psicología diferencial que, partiendo del trasfondo común de la psicología experimental alemana, resultaron sin embargo diversos en su concepción. Uno fue el programa que nació bajo la influencia de Galton (1822-1911) en Inglaterra y Estados Unidos y el otro es el de Binet (1857-1911) en Francia.
Galton (1948) defendió un esquema científico-tecnológico hereditarista que partía de un determinismo biológico de la inteligencia y que posteriormente sería el origen de una importante tecnología para poder llegar a la optimización de los recursos humanos.
En cambio Binet (1911) originaba un pensamiento de tipo ambientalista, que dio lugar a un programa para mejorar las capacidades mediante la educación.
Sin embargo, ambos puntos de vista propiciaron el desarrollo de los tests para lograr el conocimiento, clasificación y distribución de los talentos humanos, utilizando básicamente los mismos instrumentos de medición psicológica. Las teorías psicométricas contribuyeron en gran parte a la matematización de la psicología iniciada y propiciada por grandes teóricos como Spearman, Thurstone, Guildford, Cattell, Gulliksen, Cronbach, Lord, etc.
Hasta ahora la mayoría de los avances en la construcción de los
instrumentos se logró empleando los progresos de la teoría estadística por medio del ANOVA, el análisis de los ítem con los índices de dificultad y discriminación, de los ajustes de las escalas, la normalización de los datos, de las correlaciones biseriales, de índices más poderosos de confiabilidad y de la obtención de la validez de los constructos merced al análisis factorial, etc. Todo esto trajo grandes avances y se puede considerar que hay tres teorías que resumen en la actualidad, los avances de la Psicometría.

1.- La más desarrollada es la Teoría Clásica de los Tests iniciada por Spearman (1904) que es un modelo de regresión lineal con dos variables, cuyo supuesto fundamental es que el puntaje X de una persona en un test, es la suma del puntaje verdadero de la aptitud de esta persona más un error: X = V + e. Esta es una teoría muy conocida y por medio de ella se ha construido la gran mayoría de los tests que se emplean usualmente y que son conocidos por todos los psicólogos.

2.- El segundo modelo es la Teoría de la Generalizabilidad (Cronbach, 1957, 1975; Cronbach, Gleser, Nanda & Rajaratman, 1972) que surgió en la década de 1960 para complementar el primero. Este modelo gracias al uso específico del análisis de variancia, permite descubrir las distintas fuentes de error que se presentan en los puntajes mediante el concepto de faceta. Este término acuñado por Cronbach designa cada una de las características de una situación de medición que puede modificarse de una ocasión a otra y que puede hacer variar los resultados obtenidos (por ejemplo: los ítem del test, la forma de codificar las respuestas, las situaciones de examen, etc.). El diseño de una faceta tiene cuatro fuentes de variación o error. Por ejemplo, en un test de matemática, la primera fuente sería la diferencia en el rendimiento de los alumnos, objeto de la medición y que se llama la variancia verdadera, la segunda es la misma dificultad de los ítem, la tercera es la interacción de las diferencias de las personas con los ítem y la cuarta, las fuentes de error no identificadas o aleatorias. Estos distintos orígenes del error se discriminan con el uso de ANOVA. Los diseños de una sola faceta son los más simples pero a menudo se incluyen más facetas.

3.- El tercer modelo y el más reciente es la Teoría de la Respuesta al Item (TRI) también llamado Teoría del Rasgo Latente. Es un modelo probabilístico que permite conocer la información proporcionada por cada ítem y así crear tests individualizados o sea a medida. Es un modelo complejo que se ha popularizado como Modelo de Rasch (1980). Aunque específicamente el Modelo de Rasch solo determina el parámetro de la dificultad del ítem, existe también el modelo de dos parámetros que tiene en cuenta la discriminación o pendiente de la curva y el de tres parámetros que tiene en cuenta además el factor azar en la respuesta al ítem de alternativas múltiples (Cortada de Kohan, 1999, 2000). La diferencia principal entre el modelo clásico y los de rasgo latente (Lord, 1980) es que la relación entre el puntaje observado y el rasgo o aptitud de la teoría clásica es de tipo lineal, mientras que en los diversos modelos de la TRI las relaciones son funciones de tipo exponencial, principalmente logísticas del tipo:

Es interesante que esta teoría (TRI) se aplique a preguntas o ítem que pueden presentar muy diversos formatos dentro del mismo instrumento de medición y los tests no deben ser necesariamente largos como era conveniente en la teoría clásica (Thissen, 1993).

Necesidad de integración de las teorías cognitivas y la psicometría

El principal objetivo de este trabajo es mostrar la integración que recién ahora se está produciendo entre la psicología cognitiva y la psicometría, gracias a los nuevos aportes de quienes trabajaron en la teoría de la medición. Es muy interesante observar el camino siempre ascendente de la teoría estadística de los tests, a partir de los primeros trabajos científicos de Spearman (1904), Thorndike (1919), Gulliksen (1950), Guildford (1954), Lord y Novick (1968), Rasch (1980) y Glaser (1981), por citar solo algunos. Por ejemplo, Gulliksen en 1961 señalaba que el problema central de los tests era la relación que se establece entre la aptitud verdadera y real de una persona y el puntaje observado en un test y decía:

“Los psicólogos se colocan esencialmente en la posición de los habitantes de la caverna que señalaba Platón en el Libro IV de La República pues conocen los niveles de aptitud por los puntajes de los tests que son solamente como las sombras proyectadas en las paredes de la caverna.” (p. 101).

Y recordemos que una misma sombra puede representar diferentes figuras tridimensionales de la realidad. Siguiendo con la analogía de Platón es como deducir la forma de un objeto por la sombra que proyecta. La inferencia depende en gran parte del concepto de lo que se espera percibir, sobre la base de la imagen imperfecta que se posee.
Actualmente sin embargo, con los avances de la psicología cognitiva es posible identificar algunas de las estrategias de los componentes del proceso, que se necesitan para resolver los ítem de un test de aptitud. Por ejemplo, se considera que son partes separables del proceso, la codificación de los estímulos, la comparación de rasgos, la inducción de reglas, la aplicación de normas y la justificación de las respuestas. También se demostró empíricamente, que una parte significativa de la variancia de las diferencias individuales que se presenta en los tests de aptitud surge de la adaptación estratégica que hacen los sujetos del proceso de información durante la realización del test y no solo por las diferencias de los componentes de la habilidad.
En efecto, muchos creen por todo lo expuesto que la psicometría enfrenta una grave crisis. El problema está en que el punto de vista implícito sobre las aptitudes humanas en la teoría de los tests (tanto en la psicometría clásica como en la TRI), resulta a veces incompatible con los puntos de vista que surgen en la psicología cognitiva.
Se aprende no solamente acumulando nuevos hechos y habilidades, sino reconfigurando las estructuras de conocimiento, buscando procedimientos automáticos, recortando información para reducir el peso de la memoria y desarrollando estrategias y modelos que muestren cuándo y dónde son importantes los hechos y las destrezas (Mislevy, 1993).
Embretson (1993) es quien más ha trabajado en el desarrollo de los modelos basados en la teoría moderna de los tests, pero que permiten la incorporación de las variables del proceso cognitivo. En sus trabajos, el impacto de las variables del proceso cognitivo sobre las propiedades del test está cuantificado. La teoría cognitiva tiene allí un papel central, porque los diversos índices proporcionan información que puede utilizarse para el diseño de los tests. Esta autora ha trabajado sobre todo en los conocidos tests de aptitud espacial como el DAT y otros.
La utilidad de una teoría científica depende de los hechos que explica y de los descubrimientos que inspira. La Psicología recibió un gran impacto con las teorías de Newell y Simon (1972) y de Miller (1967) importadas del ámbito de la computación. El problema central que la teoría computacional planteó a la psicología fue descubrir la forma de las representaciones mentales, es decir las inscripciones simbólicas utilizadas por la mente y los procesos que las autorizan. La investigación llevada a cabo en el ámbito de la psicología cognitiva ha intentado triangular las representaciones internas de la mente midiendo los informes de los sujetos en los tiempos de reacción y errores en que incurren cuando recuerdan, resuelven problemas, reconocen objetos y generalizan a partir de la experiencia (Pinker, 2001). Así es como se sabe que la mente contiene representaciones específicas para los conceptos, es decir, las entradas abstractas de las palabras y no para las figuras que forman las palabras al ser escritas (Pinker, 1994). La psicología cognitiva estudia cómo las personas representan y procesan mentalmente la información. Sus dominios son la percepción, el aprendizaje, la memoria, la resolución de problemas y la toma de decisiones y aunque los psicólogos cognitivos tienden a subrayar la importancia de la variación de los estímulos y los psicólogos diferenciales y los psicómetras ponen el acento en la importancia de la variación individual, en ambos casos se están estudiando comportamientos similares. Si los marcos de referencia convergen, la práctica de los tests mentales puede resultar favorecida. Los procedimientos de los tests psicométricos deberían ser complementados con los enfoques de los componentes de los procesos de información, de las representaciones mentales y de las estrategias que la gente ya utiliza, analizados por los cognitivistas.
Los cognitivistas otorgan mucha importancia a lo que llaman la metacognición, esto es, la conciencia y control de los propios procesos de pensamiento. Así los procesos metacognitivos comprenden las formas en que los estudiantes supervisan la comprensión de sus lecturas, planifican cómo estudiar cada tema y relacionan la nueva información adquirida con sus conocimientos previos. Como parte final, existe lo que se ha dado en llamar el pensamiento afectivo tal como la motivación y la ansiedad que contribuyen en gran parte al logro académico. Las nuevas investigaciones demuestran que las atribuciones que hacen los estudiantes en cuanto al aprendizaje influyen sobre sus expectativas, sus intereses y persistencia al estudiar y aprender (Lazarus & Folkman, 1984). Por ejemplo, si los estudiantes atribuyen su éxito en la escuela a su esfuerzo, suelen procurar seguir aprendiendo, aunque algunas veces fracasen. En cambio si atribuyen su éxito a factores fuera de su control, como la suerte o la herencia es difícil que persistan, aun cuando hayan tenido algunos éxitos. Es decir lo que los alumnos aprenden de sus maestros depende del acervo cultural de los alumnos, de sus adecuadas estrategias de aprendizaje, de sus procesos metacognitivos y de sus atribuciones en cuanto al aprendizaje (Wittrock, 1990; Wittrock & Baker, 1985).
Son fundamentales los aportes de Hunt (1980) acerca del estudio de las capacidades verbales con relación a los procesos cognitivos de acceso al léxico, y es considerado un pionero en esta línea. Este autor puso de manifiesto que sujetos con la más alta capacidad verbal en tests psicométricos, acceden más rápidamente a los códigos de la memoria a largo plazo (MLP) para poder establecer los juicios de identidad nominal que sujetos con poca capacidad verbal y esto se observa experimentalmente en las mediciones del tiempo de reacción, tal como el tiempo de decisión para juzgar si dos letras escritas con grafías distintas son iguales o diferentes, por ejemplo (A) mayúscula y (a) minúscula.
Luego Sternberg (1981, 1987) analizó las capacidades de razonamiento tratando de estudiar la inteligencia según un análisis componencial. Para él, en vez de ser los factores como para los factorialistas, el componente sería el proceso elemental de información que opera sobre las representaciones internas de los objetos o símbolos, según la actuación de los componentes y sus distintas clases. Sternberg propuso una teoría triárquica de la inteligencia que se caracteriza por estimar velocidad de ejecución de los componentes suponiendo que el tiempo que se tarda en resolver un ítem es la suma requerida para ejecutar cada uno de los componentes.
La diferencia fundamental entre la teoría de Sternberg y los factorialistas es que lo que organiza el sistema de pensamiento para los factorialistas son las aptitudes, y para Sternberg las tareas. El factor G de Spearman estaría acá representado por lo que Sternberg llama los metacomponentes que son procesos de orden elevado que se usan para planificar cómo resolver un problema.
Más adelante Carroll (1976, 1993) realizó una extensa labor para explicar la naturaleza de los factores en términos de procesos cognitivos. Su trabajo es muy complejo y utilizó el modelo de la memoria distributiva de Hunt (1971) que señalaba la existencia de tres tipos de memoria: a corto, medio y largo plazo por los que pasa la información, se transforma y se graba o desaparece, si es necesario.
Además Carroll (1993) usó las teorías de Neiser (1976) y de Newell (1972) que suponen un proceso ejecutivo que controla todo el flujo de información estableciendo codificaciones. Finalmente, según Carroll, se establece un programa o sistema de producción de cualquier tarea cognitiva que comprende operaciones y estrategias.
Carroll ha estudiado especialmente lo que denomina aptitud lingüística que es la aptitud para el aprendizaje de una segunda lengua aparte de la materna. Hizo a través de su teoría un análisis de los componentes de los procesos que conforman los distintos factores que permiten describir las diferencias cualitativas de la inteligencia entre las personas.

Modelos matemáticos que integran ambas teorías

Hace algún tiempo que se dan acercamientos definidos entre la psicología cognitiva y la psicometría. Surgieron modelos psicométricos que incorporan los diferentes componentes de los procesos cognitivos en la resolución de un problema son los modelos componenciales (Prieto & Delgado, 1999; van der Linden & Hambleton, 1997). Se trata de lo que se ha denominado evaluación inteligente. Se presentan tareas que son comunes al mundo real. Por ejemplo para un ítem se presenta el siguiente problema:

En un viaje en automóvil de 600 kilómetros, Juan hizo un promedio de 45 kilómetros por hora los primeros 285 kilómetros y 50 kilómetros por hora el resto del viaje. Si comenzó el viaje a las 7 horas de la mañana ¿a qué hora terminó el viaje (con exactitud en horas y minutos)?

Para resolver correctamente este poblema el sujeto debe:

1.- Averiguar el tiempo que tardó Juan en la primera parte del viaje.

2.- Averiguar la distancia que le quedó para la segunda parte.

3.- Averiguar el tiempo empleado en la segunda parte.

4.- Sumar los tiempos empleados en las dos partes.

5.- Añadir el tiempo total del viaje a la hora de partida.

Básicamente un modelo componencial requiere:

a.- un análisis de las operaciones mentales (componentes cognitivos) que intervienen en la resolución de los ítem y

b.- un modelo matemático que estime la probabilidad de acertar el ítem, teniendo en cuenta sus propiedades estructurales y el nivel de conocimiento del sujeto.

Determinar las propiedades estructurales de los ítem significa por tanto delimitar el tipo, la cantidad y el orden de los procesos intervinientes, lo cual permitirá si es necesario estudiar en dónde ha cometido errores el participante. Los problemas pueden ser de muy distintos tipos. Por ejemplo McDermott (1984) proponía el siguiente ítem de física: Presentaba el dibujo de un péndulo y preguntaba cuál sería la trayectoria que seguiría el peso, si la cuerda se rompía a mitad de camino. Las trayectorias solían ser cuatro y la única correcta era A, en donde se veía el conocimiento del resultado de la interacción de las dos leyes, la de inercia y la de gravedad al estar dibujada una parábola (ver Figura 2).

Figura 2. Péndulo

Existen varios modelos componenciales conocidos por las siglas: el LLTM (Linear Logistic Trait Model) de Fischer (1997) o sea Modelo Lineal Logístico de los Rasgos Latentes, el MLTM (Multicomponent Latent Trait Model) de Whitely (1980), el Modelo de los Rasgos Latentes Multicomponentes y el Modelo General de los Rasgos Latentes (GLTM) de Embretson (1993). De estos el más utilizado es el primero, según el cual la dificultad final del ítem es el resultado de la suma de las dificultades de los componentes implicados. El modelo LLTM de Fischer descompone mediante una combinación lineal, la dificultad del modelo de Rasch b, en una serie de componentes de dificultad h, que se ejecutan f veces, más una constante c de escalamiento. Formalmente sería:

Si se delimitan en forma correcta los componentes se presentará una relación elevada entre los parámetros b estimados por el modelo de Rasch y los b* pronosticados por el modelo LLTM (Real, Olea, Ponsoda, Revuelta & Abad, 1999). También hay un procedimiento que se llama GAI que es la Generación Automática de Item que permite crear ítem automáticamente por medio de determinados algoritmos (Bejar, 1993; Embretson, 1997). Lógicamente para estos estudios hay que contar con programas especiales como RASCAL (Assessment System Corporation, 1989) y LPCM.Win (Fischer & Ponosny-Seliger, 1997).

Tests psicométricos comercializados que aplican muchos de los hallazgos de las teorías cognitivas

Existen ya algunos tests como los de Kaufman para conocimientos (Kaufman & Kaufman, 1985) que informan al examinado sobre los errores que comete. En este test las escalas de procesos mentales se derivan de la teoría sobre el proceso neurofisiológico de la especialización cerebral de Sperry y la investigación neurológica de Luria (1968). Las escalas enfocan el proceso utilizado para resolver un problema diferenciado del proceso secuencial lineal y analítico propio del hemisferio cerebral izquierdo (en los diestros) del procesamiento simultáneo, holístico y guestáltico que corresponde al derecho. Así atendiendo a cómo se realiza la solución del problema se pueden realizar intervenciones clínicas terapéuticas para mejorar el aprendizaje.
Un test interesante en este sentido, es el de Woodcock-Johnson cuya versión en castellano es Woodcock-Muñoz (1996) y se basa en el procesamiento intelectual de Horn (1966) llamado Teoría Gf-Gc. En ella, Gf sería inteligencia fluida y es la aptitud para resolver problemas nuevos que no dependen de la educación y la cultura del examinado y Gc es la inteligencia cristalizada que implica el conocimiento y las aptitudes de una persona relacionados con su nivel educativo y el medio cultural en que vive. La teoría de Horn inspirada en Cattell (1971) pasó de las dos inteligencias a una teoría de las inteligencias, pues el funcionamiento intelectual sería una estructura similar a la Vía Láctea. No se sabe cuántas inteligencias hay pero gracias al análisis factorial, se pueden establecer constelaciones diferenciando aptitudes amplias y aptitudes específicas. Hasta ahora se habrían determinado: Memoria a corto plazo (Gsm), Aptitud cuantitativa (Gq), Procesamiento verbal (Gv), Procesamiento auditivo (Ga), Almacenamiento o recuperación asociativa (Gir), Razonamiento fluido (Gf), Velocidad de procesamiento (Gs) y Tiempo de decisión (Gt).

Investigaciones realizadas en la Argentina que intentan la integración de los descubrimientos cognitivos a la evaluación

Rimoldi (1984, 1991) ha sido uno de los pioneros en la Argentina que abordó la necesidad de estudiar cómo se logra la resolución de un problema y no conformarse solamente con un producto final, sino tratar de analizar los pasos del proceso. Este autor considera que saber hacer una pregunta es fundamental para poder solucionar un problema. En este sentido comenzó construyendo una serie de problemas para los que presentaba posibles preguntas, que formuladas en un cierto orden, llevaban a la solución. Por ejemplo sea el problema siguiente:

“En un corral hay 100 animales (conejos y palomas). Los conejos son de dos clases blancos o negros y las palomas también son blancas o negras. Se quiere saber cuántas palomas negras hay.”

Para averiguarlo se presentaba una serie de tarjetas con preguntas y en la parte posterior de la tarjeta, estaban las respuestas. El sujeto solo podía conocer las respuestas después de haber elegido la pregunta. Las preguntas y respuestas eran las siguientes:

Este problema se puede simbolizar con un árbol lógico como el siguiente:

Árbol lógico

Se resuelve de inmediato eligiendo las preguntas 1 (ó 4) y 7, que son las únicas que proporcionan información, las demás son redundantes o no sirven para la solución. Cada problema podía evaluarse en bits según la teoría de la información (Attneave, 1959) y estaba calculado el puntaje máximo para cada uno de ellos. Los problemas podían ser mucho más complejos, según las ramas del árbol lógico (Cortada de Kohan, 1997). Rimoldi aplicó también este procedimiento con diversas modificaciones, para evaluar la aptitud de estudiantes de medicina para llegar a un diagnóstico clínico, y los resultados fueron encomiables.
Otro ensayo interesante fue el de López Alonso (1981) al construir un Test de Coherencia del Razonamiento (TCR) que incluye un procedimiento original. La primera parte consiste en cuatro preguntas que delimitan en términos de porcentaje, la extensión de cuatro atributos o conjuntos. En la segunda parte el participante adjudicará a dichos atributos presentados por pares, la relación tiene que ser, puede ser o no puede ser. Según los errores que el sujeto cometa, se evalúan las aptitudes lógicas para establecer las estimaciones probables y la adecuación a los principios de identidad y no contradicción. El test tiene varias formas y ha sido aplicado en diferentes muestras de sujetos adultos, niños y pacientes psiquiátricos. La corrección del test se hace con tablas preparadas para tal fin que representan las relaciones entre dos atributos en términos de la teoría de los conjuntos, utilizando los diagramas de Venn. Por este motivo el test es evaluado sobre la base de principios lógicos y probabilísticos, considerando las relaciones de inclusión, exclusión, identidad y no contradicción con respecto a las premisas fijadas por el mismo participante. El test para niños ha demostrado una elevada correlación con los tests de aptitud verbal.
Resulta también muy interesante el trabajo de Roselli (1999) que compara los resultados de la resolución de problemas formulados, en tres lenguajes o modos de representación distintos: gráfico, matemático y verbal. Los participantes fueron tres muestras de alumnos de primer año del ciclo secundario de una escuela pública. El objetivo era analizar el efecto de la variabilidad representacional con relación a la misma estructura lógica obtenida, de los modelos de seis ítem gráficos de la forma general del Test de Raven. Los resultados demostraron una correlación moderada entre los tres lenguajes. Aparentemente el más difícil fue el verbal. Su mayor dificultad residiría en el efecto distractor que el contenido empírico de tipo social, ejercería sobre el aspecto puramente lógico del problema.
Actualmente casi todos los investigadores que trabajan con instrumentos psicométricos tienen en cuenta los puntos de vista de las teorías cognitivas, por ejemplo Richaud de Minzi que ha trabajado mucho en estrés y en las relaciones interpersonales de los niños, siempre señala “la aceptación de los postulados de la perspectiva cognitivista” (2002, p. 161).
En un trabajo de tipificación de la Forma Avanzada del Test de Raven para la Argentina (Cortada de Kohan & Gentile, 1997) se realizó un análisis de los errores que cometían los examinados y se los dividía, según hubieran cometido un error leve (olvidando solo una variable del problema) o errores más groseros (olvidando tener en cuenta varias variables y dando respuestas totalmente equivocadas o azarosas). La relación entre tipo de error y puntaje obtenido resultó muy elevada. Los alumnos del 27% más elevado de la muestra (300 sujetos) cometían no solo menos errores sino que sus errores eran casi todos de tipo leve.
Los antecedentes citados demuestran que existe un interés muy importante entre los investigadores argentinos por relacionar los nuevos saberes de la teoría cognitiva con las posibilidades de obtener evaluaciones centradas no en el mero resultado final o producto, sino en el proceso de resolución de los problemas que constituyen los ítem de un test, pero solo recientemente al contar con programas adecuados como BILOG, RASCAL, etc. se puede establecer un vínculo definido entre Psicometría y Teoría Cognitiva, lo que se cree será un gran avance para ambos puntos de vista.

Referencias bibliográficas

1 Assessment System Corporation (1989). RASCAL Rasch item calibration program. MN: St.Paul.         [ Links ]

2 Attneave, F. (1959). Applications of information theory to psychology. NY: Holt, Rinehart & Winston.        [ Links ]

3 Bejar, I.I. (1993). A generative approach to psychological and educational measurement. En N. Frederiksen, J. Mislevy & I. Bejar (Eds.), Test theory for a new generation of tests (pp. 323-359). NY: Erlbaum.        [ Links ]

4 Binet, A. (1911). Nouvelles recherches sur la mesure du niveau intellectuel chez les enfants d’ecole [News investigations about intellectual level measurement of pupils]. L’Année Psychologique, 17, 145-201.        [ Links ]

5 Boole, G. (1854). An investigation of the laws of thought. London: Mac Millan.        [ Links ]

6 Broadvent, D.Z. (1958). Perception and communication. London: Pergamon Press.        [ Links ]

7 Brunner, J.S. (1983). Child’s talk. Learning to use language. NY: Norton.        [ Links ]

8 Cattell, R.B. (1971). Abilities. Their structure, growth and action. Boston: Houghton and Mifflin.        [ Links ]

9 Carroll, J.B. (1976). Psychometric tests as cognitive tasks. En E. Resnik (Ed.), The nature of intelligence (p. 240). Hillsdale: Erlbaum.        [ Links ]

10 Carroll, J.B. (1993). Human cognitive abilities. A survey of factor analytic studies. Cambridge, MA: Harvard University Press.        [ Links ]

11 Chomsky, N. (1972). Language and mind. NY: Harcourt & Brace.        [ Links ]

12 Cortada de Kohan, N. (1997). Logros en educación primaria y su relación con inteligencia general y con los procesos de pensamiento en la resolución de problemas [Attainment in primary education and it relationship with general intelligence and the thought processes in problem solving]. Revista Latinoamericana de Psicología, 29(1), 65-80.        [ Links ]

13 Cortada de Kohan, N. (1998). La teoría de la respuesta al ítem y su aplicación al Test Verbal Buenos Aires [The theory of the item response and it aplication to the Verbal Test Buenos Aires]. Interdisciplinaria, 15(1-2), 101-129.        [ Links ]

14 Cortada de Kohan, N. (1999). Teorías psicométricas y construcción de tests [Psychometrics theories and tests construction]. Buenos Aires: Lugar Editorial.        [ Links ]

15 Cortada de Kohan, N. (2000). Técnicas psicológicas de evaluación y exploración [Psychological techniques for evaluation and exploration]. México: Trillas.        [ Links ]

16 Cortada de Kohan, N. & Gentile, S. (1997). El Test de las Matrices Progresivas de Raven (Forma Avanzada) en jóvenes de 17 años [Progressive Matrices Test by Raven (Advanced Form)]. Interdisciplinaria, 14(1-2), 107-122.        [ Links ]

17 Cronbach, L.J. (1957). The two disciplines of scientific psychology. American Psychologist, 12, 671-684.        [ Links ]

18 Cronbach, L.J. (1975). Five decades of public controversies over mental testing. American Psychologist, 30, 1-14.        [ Links ]

19 Cronbach, L.J., Gleser, G., Nanda, H. & Rajaratman, R. (1972). The dependability of behavioral measurements. NY: Wiley.        [ Links ]

20 Embretson, S.E. (1993). Multicomponent response models. En W.J. van der Linden & R.K. Hambleton (Eds.), Handbook of modern item response theory. NY: Springer.        [ Links ]

21 Fischer, G.H. (1997). The linear logist test model as an instrument in educational research. Acta Psychologica, 37, 359-374.        [ Links ]

22 Fischer, G.H. & Ponosny-Seliger, E. (1997). LPCM-WIN. Program Gromingen: IEE ProGAMMA. Bern, Huber.        [ Links ]

23 Galton, F. (1948). Memories of my life. London: Methuen.        [ Links ]

24 Gardner, W. (1988). The contribution of information theory to psychology. En W. Hirst (Ed.), The making of cognitive science. Essays in honor of George Miller. MA: Cambridge University Press.         [ Links ]

25 Glaser, R. (1981). The future of testing. American Psychologist, 36, 923-936.        [ Links ]

26 Guildford, J.P. (1954). Psychometric methods. NY: McGraw Hill.         [ Links ]

27 Gulliksen, H. (1950). Theory of mental tests. NY: John Wiley.        [ Links ]

28 Gulliksen, H. (1961). Measurement of learning and mental abilities. Psychometrika, 26, 93-107.        [ Links ]

29 Horn, J.L. (1966). Refinement of the theory of fluid and crystallized intelligence. Journal of Educational Psychology, 57, 253-270.        [ Links ]

30 Hunt, E.B. (1971). What kind of computer is man? Cognitive Psychology, 2, 57-98.         [ Links ]

31 Hunt, E.B. (1980). Intelligence as an information processing concept. British Journal of Psychology, 71, 449-474.        [ Links ]

32 Kahneman, D. & Tversky, A. (1984). Choices, values and frames. American Psychologist, 39, 341-350.        [ Links ]

33 Kaufman, A.S. & Kaufman, N.L. (1985). Kaufman Tests of Educational Achievement. Comprehensive manual. Circle Pine, MN: American Guidance Service.        [ Links ]

34 Lazarus, R.S. & Folkman, J. (1984). Stress appraisal and coping. NY: Springer.        [ Links ]

35 López Alonso, A.O. (1981). Test de Coherencia [Coherence Test]. Publicación CIIPME, 65.         [ Links ]

36 Lord, F.M. (1980). Applications of item response theory to practical testing problems. Hillsdale: Erlbaum.        [ Links ]

37 Lord, F.M. & Novick, E. (1968). Statistical theories of mental tests scores. Reading, MA: Addison Westley.        [ Links ]

38 Luria, A.R. (1968). The mind of a mnemonist. NY: Basic Book.        [ Links ]

39 McCullock, C. & Pitts, W. (1943). A logical calculus of the ideas inmanent in nervous activities. Bulletin of Mathematics and Biophysics, 5, 115-155.        [ Links ]

40 McDermott, L.C. (1984). Research on conceptual understanding in mechanics. Physics Today, 37, 1-10.        [ Links ]

41 Miller, G. (1967). Introducción a la psicología [Introduction to psychology]. Madrid: Alianza.        [ Links ]

42 Mislevy, R.J. (1993). Formulations of a new test theory. En N. Frederiksen, R. Mislevy & I. Bejar (Eds.), Test theory for a new generations of tests. (pp. 19-40). Hillsdale: Erlbaum.        [ Links ]

43 Neiser, V. (1976). Cognition and reality. Principles and implication of cognitive psychology. NY: Freeman.        [ Links ]

44 Newell, A. & Simon, H.A. (1972). Human problem solving. Englewood Cliffts, NJ: Prentice Hall.        [ Links ]

45 Piaget, J. (1926). The language and thought of the child. London: Routledge: Kegan.        [ Links ]

46 Pinker, S. (1994). The language instinct. NY: Harper Collins.        [ Links ]

47 Pinker, S. (2001). Cómo funciona la mente [How the mind works]. Buenos Aires: Planeta.        [ Links ]

48 Prieto, G. & Delgado, A. (1999). Medición cognitiva de las aptitudes [Cognitive measurement of abilities]. En J. Olea, V. Ponsoda & G. Prieto (Eds.), Tests informatizados. Fundamentos y aplicaciones. Madrid: Pirámide.        [ Links ]

49 Rasch, G. (1980). Probabilistic models for some intelligence and attainement tests (Reprint). Chicago: Chicago University Press.        [ Links ]

50 Real, E., Olea, J., Ponsoda, V., Revuelta, J. & Abad, F. (1999). Análisis de las dificultades de un test de matemáticas mediante un modelo componencial [Analysis of the difficulties of a mathematical test with a componential model]. Psicología, 20, 121-134.        [ Links ]

51 Richaud de Minzi, M.C. (2002). Inventario acerca de la percepción que tienen los niños y niñas de las relaciones con sus padres y madres: Versión para 4 a 6 años [Perception inventory for children’s perception of their relationship with the parents between 4 and 6 years old]. Revista Interamericana de Psicología, 36(1-2), 149-165.        [ Links ]

52 Rimoldi, H.J.A. (1955). A technique for the study of problem solving. Educational and Psychological Measurement, 15(4), 450-461.        [ Links ]

53 Rimoldi, H.J.A. (1960). Problem solving as a process. Educational and Psychological Measurement, 20(3), 449-460.        [ Links ]

54 Rimoldi, H.J.A. (1984). Sobre solución de problemas: Teorías, metodología y experimentación [On problem solving: Theories, methodology and experimentation]. Revista de Psicología General y Aplicada, 39 (1), 75-96.        [ Links ]

55 Rimoldi, H.J.A. (1986). Cognitive processes: From problem solving through medical diagnosis to thinking. Interdisciplinaria, 7(2), 149-167.        [ Links ]

56 Rimoldi, H.J.A. (1991). Solución de problemas. Problemas que trae un problema [Problem solving: Problems that come out from a problem]. En J. Mayor & J. Pinillos (Eds.), Tratado de psicología general. Vol 5: Pensamiento e inteligencia (pp. 349-382). Madrid: Alambra Longmans.         [ Links ]

57 Rivière, A. (1991). Objetos con mente [Objects with mind]. Madrid: Alianza.        [ Links ]

58 Roselli, N.D. (1999). Identidad lógica y variabilidad representacional en tarea de resolución de problemas [Logical identity and representational variability in problem solving task]. Interdisciplinaria, 16(1), 75-97.        [ Links ]

59 Shannon, S. & Weaver, W. (1981). Teoría matemática de la comunicación [Mathematical theory of communication]. Madrid: Forja.        [ Links ]

60 Spearman, C. (1904). General intelligence objectively determined and measured. American Journal of Psychology, 18, 161-169.         [ Links ]

61 Sternberg, R.J. (1981). Testing and cognitive psychology. American Psychologist, 36(7), 470-476.        [ Links ]

62 Sternberg, R.J. (1987). La inteligencia humana [The human intelligence]. Barcelona: Paidós.        [ Links ]

63 Thissen, D. (1993). Repeating rules no longer apply to psychological measurement. En J. Frederiksen, (Ed.), Test theory for a new generation of tests (pp. 79-99). Hillsdale, NJ: Lawrence Erlbaum.        [ Links ]

64 Thorndike, E.L. (1919). An introduction to the theory of mental and social measurements. NY: Columbia University Press.        [ Links ]

65 Tolman, E.C. (1967). Purposive behavior in animals and men. NY: Appleton Century Crofts.        [ Links ]

66 Turing, A. (1950). Máquinas de calcular e inteligencia [Calculate machines and intelligence]. En A. Amderson (Ed.), Controversia sobre mentes y máquinas (p. 56). Barcelona: Tusquets.        [ Links ]

67 Tversky, A. & Kahneman, D. (1983). Extensional versus intuitive reasoning: The conjunction fallacy in probability judgement. Psychological Review, 90(4), 32-40.        [ Links ]

68 van der Linden, W.J. & Hambleton, R.K. (1997). Handbook of modern Item Response Theory. NY: Springer.        [ Links ]

69 Vygotsky, L. (1962). Thought and language. Cambridge, MA: MIT Press.        [ Links ]

70 Vives, J.L. (1538-1947). De anima et viota. Obras completas. Madrid: Aguilar.        [ Links ]

71 von Neumann, J. (1955). The computer and the brain. New Haven: Yale University Press.        [ Links ]

72 Whitely, S.E. (1980). Latent trial models in the study of intelligence. Intelligence, 4, 97-132.        [ Links ]

73 Wiener, N. (1980). Cibernética [Cibernetics]. Barcelona: Tusquets.        [ Links ]

74 Wittrock, M.C. (1990). Generative processes of comprehension. Educational Psychology, 24, 345-376.        [ Links ]

75 Wittrock, M.C. & Baker, L.L. (1985). Testing and cognition. NJ: Prentice Hall.        [ Links ]

76 Woodcock, R. & Muñoz, A. (1996). Batería R. Pruebas de habilidad cognitiva y de aprovechamiento [R Battery. Cognitive ability and development tests]. Itaka: Riverside Publications.        [ Links ]

Facultad de Psicología, Universidad de Buenos Aires (UBA). Buenos Aires - República Argentina

Fecha de recepción: 28 de julio de 2003
Fecha de aceptación: 4 de septiembre de 2003