SciELO - Scientific Electronic Library Online

 
 número41Estudio sobre cambios de la firmeza de bayas de arándanos durante su maduraciónGestión del agua subterránea en el Barrio Cerro Los Leones de Tandil (Argentina) índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

  • No hay articulos citadosCitado por SciELO

Links relacionados

  • No hay articulos similaresSimilares en SciELO

Compartir


Ciencia, docencia y tecnología

versión On-line ISSN 1851-1716

Cienc. docencia tecnol.  no.41 Concepción del Uruguay nov. 2010

 

CIENCIAS EXACTAS Y NATURALES - COMUNICACIONES

Condicionamiento del modelo logístico para la evaluación informatizada de competencias matemáticas*

González, José**; Cabrera, Eduardo**; Montenegro, Eduardo**; Nettle, Alejandro**; Guevara, Miguel***

*)Artículo producido desde el Equipo del Laboratorio [EXPERIMENTAL] de Saberes Matemáticos (Equipo Lab[e]saM), Departamento de Matemática & Física, Facultad de Ciencias Naturales & Exactas, Universidad de Playa Ancha (Valparaíso, Chile); recibido en octubre 2009, admitido en agosto 2010.
**)Equipo Lab[e]saM, Depto de Matemática & Física, Fac. Cs. Naturales & Exactas, Universidad de Playa Ancha (Valparaíso, Chile). E-mail: labesam.upla@gmail.com
***)Académico del Depto de Ingeniería, Facultad de Ciencias Naturales & Exactas, Universidad de Playa Ancha, Valparaíso, (Chile).

Resumen: Preocupados por el mejoramiento de la calidad educativa en la enseñanza de Matemáticas en la universidad, se desarrolló una propuesta de reparametrización del modelo logístico basado en la Teoría de la Respuesta al Ítem. Dicho trabajo tiene como base teórica el procesamiento de los saberes matemáticos, incorporando el tiempo de respuesta, parámetro estimado a través de la rendición de test virtuales; constituye un proceso de precisión en la determinación del nivel de competencias matemáticas y fue probado en experiencias de simulación.

Palabras clave: Enseñanza de matemáticas; Teoría de la respuesta al ítem; Modelo logístico de tres parámetros

Logistic model conditioning for computerised assessment of mathematics competences*

Abstract: Concerned about improving the quality of education in the teaching of mathematics at university level we developed a proposal for parameterization of the logistic model based on the Theory of Item Response. This theoretical work is based on the processing of mathematical knowledge, incorporating the response time, parameter estimated from the rendering of virtual test; it is a process of precision in determining the level of math skills and tested in simulation experiences.

Keywords: Math teaching; Item response model; Three parameters logistic model

Condicionamento do modelo logístico para a avaliação informatizada de competências matemáticas*

Resumo: Preocupados com o melhoramento da qualidade educativa no ensino de Matemáticas na universidade, desenvolveu-se uma proposta de reparametrização do modelo logístico baseado na Teoria da Resposta ao item. Dito trabalho tem como base teórica o processamento dos saberes matemáticos, incorporando o tempo de resposta, parâmetro estimado através da realização de testes virtuais; constitui um processo de precisão na determinação do nível de competências matemáticas e foi provado em experiências de simulação.

Palavras chave: Ensino de matemáticas; Teoria da resposta ao item; Modelo logístico de três parâmetros

I. Introducción

Actualmente, en el ámbito de la evaluación educacional en la enseñanza de las Matemáticas en las carreras pedagógicas e Ingenierías, se está interesado en determinar con mayor precisión el nivel de competencias de nuestros alumnos, dando origen a una serie de estrategias y teorías, entre las que resalta la Teoría de Respuesta al Ítem. Esta teoría plantea la existencia de una relación funcional entre la probabilidad de acierto a un determinado ítem y el nivel de competencia del alumno, siendo esta relación identificada a través del modelo Logístico. Este modelo y modificaciones de él, como el modelo Logístico de uno, dos o tres parámetros, ha sido el resultado de esta incansable búsqueda de precisión.
Esta última década, tomó un fuerte realce la incorporación de herramientas computacionales en la aplicación de tests, siendo la razón fuerza el hecho de poder obtener resultados y mediciones en forma inmediata, es decir, por la facilidad de cálculo, entre otras importantes utilidades como la reducción de falla humana en la calificación, facilidad de administración de calificaciones o modelo adaptivo del cuestionario según las respuestas que va entregando el estudiante.
La propuesta que exponemos en este artículo tiene como sustento la teoría de respuesta al ítem, pero con la diferencia en la incorporación de un nuevo parámetro en el modelo, caracterizado como tiempo de respuesta, y el sustento teórico definido por el Laboratorio Experimental de Saberes Matemáticos, Lab[e]saM, de la Facultad de Ciencias Naturales y Exactas de la Universidad de Playa Ancha (Valparaíso, Chile).
En la actualidad, el uso de la tecnología ha permitido desarrollar una serie de estrategias metodológicas para la medición del logro de una competencia, permitiendo además considerar una serie de factores y cálculos inmediatos. Por tal razón, hemos querido utilizar esta información, en especial el tiempo de respuesta, como un factor influyente en el nivel de competencia del alumno. Ya no importa solamente que el profesional responda de manera correcta una situación problemática, sino que la resuelva en el menor tiempo posible.
Por tal razón, el problema del trabajo que aquí se expone fue: "Definir una variación del Modelo Logístico, en la cual se considere el parámetro tiempo de respuesta, considerada en esta visión como un factor relevante a la hora de la determinación del nivel de competencia de un alumno". Los objetivos atendieron a: promover el uso de recursos tecnológicos para los procesos de evaluación, presentar un modelo de probabilidad adaptado a la consideración del tiempo de respuesta como un parámetro discriminativo en la determinación del nivel de competencia, caracterizar el parámetro temporal en el modelo, simular la metodología de trabajo bajo la propuesta desarrollada y promover el uso de la Teoría de Respuesta al Ítem. El modelo desarrollado fue probado mediante la simulación en tres estudiantes.

II. Marco teórico metodológico

La concepción de los saberes y la Teoría de Respuesta al Ítem (IRT)1 serán el soporte teórico y andamiaje de nuestra propuesta metodológica en el análisis de la información en función del nivel de competencia de los alumnos.
El parámetro temporal o tiempo de respuesta conformó el objeto de diseño de nuestra investigación, pues sobre él se desarrolla la cuantifi-cación o estimación del nivel de competencia del alumno a través del método de estimación de máxima verosimilitud.
Las fases de la Investigación desarrollada incluyeron una etapa de análisis preliminar, el desarrollo conceptual de nuestro modelo, una etapa de simulaciones y su posterior análisis y evaluación.
La concepción teórica Lab[e]saM está soportada por el marco de la Teoría de las Situaciones Didácticas [1], y particularmente por la aproximación antropológica propuesta por [2], caracterizando así tres facetas:

-Saber Sabio: generado en las comunidades científicas. Para esta investigación consideraremos que el saber Sabio posee infinitas dimensiones2 no manejables en el sentido estadístico.
-Saber a Enseñar: se orienta a la labor del enseñante (i.e., el que enseña), que debe producir la recontextualización y elección responsable de los conocimientos que pretenden transformarse en conocimiento para el alumno. Es decir, la labor del enseñante es elegir y construir un modelo (que, como tal, reduce la com
plejidad) adecuado al contexto y al saber sabio, para transformarlo en un saber adecuado para enseñar.
-Saber Aprendido: representa el modelo construido por el alumno como producto del trabajo intelectual en su interacción con el modelo enseñado.

Como postulado de la investigación se presenta que la calidad del modelo definido por el alumno depende en esencia de la calidad de la transposición didáctica. Por otro lado, el saber aprendido se medirá bajo la forma de preguntas y respuestas del tipo Bernoulli (i.e., dicotómicas), orientadas a las dimensiones independientes que constituyen un saber. Finalmente, se asume que los alumnos poseen las competencias básicas para una correcta decodificación.
Pensamos que, a través de este trabajo, podemos iniciar un camino hacia la caracterización de las variables que tienen mayor incidencia en el modelo que el estudiante construye en una situación de enseñanza, y en la calidad de éste.
Por otro lado, asumiremos que los saberes antes indicados interactúan y son organizados según el desarrollo relacional y conjuntista siguiente:
Sea el universo de los saberes sabios, donde cada tiene asociado un conjunto Xθ, constituido por todas las dimensiones de θ, que suponemos es de tamaño no finito, y

donde es la familia de las partes de Xθ. Además, sea una aplicación que denominaremos Operador de Elección donde la imagen de , a través de , elige un subconjunto finito y no vacío de Xθ que se espera caracterice a θ.
Observemos que es una - álgebra sobre {Xθ: }. Por otro lado, se define un Operador de Transposición , cuyo dominio es , una familia de conjuntos finitos de ; esto es , cuyas proyecciones definen una familia de saberes enseñados que, a través de un proceso de decodificación, el alumno transforma en saber aprendido.
Esta familia de saberes aprendidos, W, contiene algunas dimensiones y seudo-dimensiones3 del saber, cuya . Según lo anterior, interesa determinar cuáles fueron aquellas dimensiones que constituyen a W que son parte de , además de determinar qué tan distante se encuentran estas seudo-dimensiones de lo que debieran haber sido y, por último, cuál es la distancia existente entre el saber aprendido y el saber a enseñar, es decir, cuál es la distancia entre el modelo definido por el alumno a través de la transposición (saber aprendido) y el saber a enseñar.
Adviértase que si , la distancia entre el saber aprendido y el saber a enseñar se considerará nula.
Visualización:

Por otro lado, desde un punto de vista estocástico, consideremos que el poseer la dimensión i-ésima del saber es una variable aleatoria del tipo Bernoulli, donde la probabilidad de éxito está modelada por la siguiente función de distribución,

que es función de θij, que representa el nivel de competencia de la j-ésima persona en la i-ésima dimensión del saber θ, si además bi representa el nivel de importancia de la i-ésima dimensión del saber en estudio, gráficamente se tiene:


GRÁFICO 1

Lo que permite visualizar que, a mayor nivel de competencia en la dimensión del saber en estudio (en el gráfico el eje de absisas), mayor es la probabilidad de éxito (eje de ordenadas). Así la probabilidad de que la j-ésima persona construya la i-ésima dimensión está dada por:

P(Xij = x) = (P(θij))x(1-P(θij))1-x

donde x = 0,1 denota, respectivamente, fracaso o éxito.

III. Antecedentes

En muchos sistemas educativos se da la necesidad de disponer de un mecanismo para evaluar la adquisición de conocimiento de los alumnos, algo fundamental para identificar el éxito o fracaso en el proceso de aprendizaje. Los tests son probablemente hoy en día el modo más habitual de efectuar dicha tarea, pudiendo estar ligado a diferentes contextos educativos [3].
Históricamente, la primera teoría fue la que hoy se conoce como Teoría Clásica de los Tests (TCT), que surgió a comienzos del siglo XX. Si bien no recibió su forma axiomática hasta mediados de los 60, la TCT se fundamenta en el denominado modelo clásico, que establece una relación lineal entre el nivel del rasgo del examinado y la puntuación obtenida en el test realizado [4].

X = V + ε

Este modelo se expresa en términos de la puntuación empírica del test, el elemento central sobre el que gira toda la teoría. Concretamente, se considera que la puntuación empírica del sujeto, esto es, el valor observado en el test, es igual a la suma de dos componentes hipotéticos y desconocidos a priori: la puntuación verdadera o nivel del rasgo real del evaluando y un determinado error de medida [5].
La principal limitación de la TCT es que en su contexto las características del test y las del examinado son dependientes, esto es, las mediciones obtenidas dependen por lo general de la naturaleza del test utilizado y, a la inversa, las propiedades de los test dependen de los sujetos a los cuales se aplica. Así, para la TCT, el nivel del rasgo del alumno se mide mediante el número de respuestas acertadas en el test realizado. Por lo tanto, los resultados estarán siempre relacionados con el test administrado: si las preguntas son difíciles, el nivel del rasgo de los examinados resultará ser bajo porque habrá pocos que la respondan correctamente, y viceversa. Así, la dificultad estimada de un test según la TCT dependerá de quién lo realice: si los examinados son muy listos, responderán correctamente a las preguntas y, por tanto, el test será considerado fácil. Estas dependencias entre test y examinados suponen que las medidas obtenidas en la TCT no se pueden utilizar en otros contextos de manera generalizada, y por lo tanto comparar individuos que hayan hecho exámenes distintos resultará muy difícil [6].
La Teoría de Respuesta al Ítem supera esta limitación, pues propone modelos matemáticos orientados a las preguntas (que en este contexto reciben el nombre de ítem), en contraposición a la TCT, para el cual la evaluación de conocimientos gira en torno al test como unidad. Se trata de una teoría relativamente joven, data de comienzos de los años 60, habiendo sido implementada por primera vez durante los '80. [4]
Por otro lado, analizaremos dos de las principales teorías que se utilizan en el ámbito de la medición educacional: La Teoría Clásica de los Tests (TCT) y la Teoría de Respuesta al Ítem (TRI).
Previamente, se hace necesario definir algunos términos. Distintas pruebas miden diferentes características de los examinados, por ejemplo: conocimiento matemático, razonamiento científico, capacidad de memorización, vocabulario, etc. En medición educacional, por Rasgo se entenderá a la característica del examinado que va a ser medida a través de la prueba y, por consiguiente, ésta se utiliza para representar de manera genérica cualquiera de esas características. Por otro lado, en lo que respecta a los ítemes de una prueba, hay parámetros (o descriptores) que permiten describir sus atributos particulares. Los parámetros de un ítem que suelen ser más frecuentemente utilizados y, por consiguiente, estimados son:

a) Nivel de Dificultad.
b) Nivel de Discriminación de un Ítem.
c) Efectos del Azar.

Una forma de medición que se utiliza con mucha frecuencia en pruebas de gran escala, como las de admisión a la universidad (por ejemplo, en el SAT de Estados Unidos y en la PSU en Chile), es la llamada Teoría Clásica (TC). En teoría clásica, el indicador del rasgo de un estudiante corresponde al puntaje que se obtuvo en la prueba, construido a partir del número de respuestas correctas (o número de respuesta correctas netas) que obtuvo. Como indicador de la dificultad de una pregunta, en este sistema se utiliza la razón entre el número de personas que acertaron correctamente el ítem y el total de alumnos que dieron una respuesta a éste. Por otro lado, el índice de discriminación de un ítem se calcula como la correlación entre el puntaje de la respuesta a éste y el puntaje en la prueba total. Además, en los test formados por ítemes de opción múltiple, en las que sólo una alternativa es la correcta, podríamos sobreestimar la puntuación directa de una persona debido a que alguno de sus aciertos se haya podido producir por azar. El problema, entonces, consiste en establecer un procedimiento para descontar del número total de aciertos, aquellos que se hayan producido por azar. Si se asume que no se conoce la respuesta correcta a un ítem, todas las alternativas de respuesta son equiprobables y la probabilidad de acertar al azar ese ítem se puede establecer como:, donde n es el número de alternativas del ítem. Estos descriptores de los ítemes pueden calcularse ya sea en el contexto de una prueba piloto o experimental, o en la prueba definitiva u operacional.
Como se puede apreciar, en la TC el grado del rasgo de una persona depende del grupo de ítemes (vale decir, de sus diferentes parámetros) que contiene la prueba. Por ejemplo, si la prueba es fácil, un mismo alumno tendrá un puntaje mayor que si la prueba es difícil. Con esto resulta difícil hacer comparaciones entre estudiantes que han rendido pruebas diferentes. A su vez, la estimación de los parámetros depende del grupo de personas a las cuales se aplicó el test. Así, un mismo ítem puede ser catalogado como fácil si el grupo que rindió la prueba es excepcionalmente hábil, pero como difícil si el grupo que rindió la prueba es desaventajado. Con respecto a la discriminación, un ítem puede aparecer muy discriminativo en el contexto de un grupo con nivel heterogéneo del rasgo, pero poco discriminativo si el grupo que rindió la prueba es homogéneo (es decir, si todos los estudiantes tienen un nivel del rasgo similar). Esta debilidad, que se genera en la estimación del rasgo de los examinados y los parámetros de los ítemes, ha llevado a buscar un método que permitiese una medida del rasgo que sea independiente de los ítemes a los que éstos se han enfrentado, una caracterización de los ítemes independiente de la población a la que se aplica y, al mismo tiempo, una medida más fiel de la precisión con que se está midiendo el rasgo.
La satisfacción de estos requerimientos se ha intentado encontrar en la Teoría de Respuesta al Ítem o TRI.

III.1. Teoría de Respuesta al Ítem
Los modelos de la TRI se centran en los ítemes e intentan establecer, para cada uno de ellos, la probabilidad de ser respondidos correctamente. Esta probabilidad depende del rasgo del examinado y de ciertas características de los ítemes, entre las que se encuentra el grado de dificultad, discriminación y la probabilidad de ser respondido correctamente por azar por una persona de bajo nivel del rasgo. Hay varios modelos en TRI de distinta complejidad. El modelo más simple es aquél que sólo diferencia los ítemes según su grado de dificultad. Sin embargo, otros modelos permiten además incluir otros parámetros de los ítemes, como su grado de discriminación y la probabilidad de responderlo correctamente al azar.
Aparte de lo anterior, la TRI hace posible conocer el nivel de precisión que un ítem aporta a la estimación para cada nivel del rasgo. En términos técnicos esto es lo que se conoce como Información de Fischer, que contextualizado se llama Información del Ítem. Mientras mayor es la información que aporta el ítem a un determinado nivel del rasgo, mayor es la precisión en la estimación de ese nivel.
La principal ventaja teórica de la TRI es que mediante su utilización se lograría que un estudiante obtuviese siempre la misma estimación de su nivel del rasgo, independientemente de las preguntas que le tocó responder. También, con la TRI un ítem tendría siempre los mismos parámetros que lo describen (dificultad, discriminación, azar), independientemente del grupo que rindió la prueba. Esta notable propiedad se llama invarianza, siendo ésta la principal ventaja que distingue a la TRI de la Teoría Clásica. Sin embargo, es preciso destacar que la invarianza se cumple siempre y cuando se satisfagan ciertos supuestos y requisitos que se enunciarán a continuación.

III.1.1. Supuestos de la TRI
1. Unidimensionalidad: este supuesto consiste en que, en una prueba, todos los ítemes están midiendo uno y sólo un rasgo en los examinados.
2. Independencia Local: postula que, dado un nivel del rasgo, las respuestas a los ítemes no pueden estar correlacionadas entre sí.
3. Igualdad de Educación: que todos los alumnos que rindan la prueba hayan tenido experiencias educacionales similares.
4. Que la prueba no haya sido apurada, es decir, que los tiempos de estimados en el desarrollo de la prueba se respeten.
5. Efectos de Contextos no controlados: se refiere a que algunas preguntas se comportan de modo diferente según la posición que tenga en la prueba.

III.2. Ventajas y Desventajas de la TRI
La Teoría de Respuesta al Item presenta una serie de potenciales ventajas sobre la teoría clásica. La principal de ellas es la invarianza de los puntajes de la prueba y de las características de las preguntas. También surge, gracias a las curvas de información –herramienta exclusiva de la TRI–, la posibilidad de optimizar el proceso de selección de preguntas según el objetivo que se busca.
Todas las ventajas anteriores se pierden cuando los supuestos y requisitos de la TRI no se cumplen. Para que haya invarianza, principal ventaja de la TRI sobre la TC, es fundamental que exista, como se señalaba anteriormente, unidimensionalidad e independencia local. Sin embargo, en muchas ocasiones la naturaleza de las disciplinas mismas les impide someterse a tales restricciones. Es por ello que en la práctica los supuestos y requisitos de la TRI se transgreden a menudo [7]. Este incumplimiento de los supuestos lleva no sólo a perder la invarianza sino que afecta directamente a la estimación del rasgo e introduce errores en aplicaciones secundarias de la teoría.

IV. Propuesta

En el proceso de reparametrización del modelo logístico, hemos incorporado un parámetro que relaciona el tiempo de respuesta a un ítem con el nivel de logro o competencia del alumno, el cual está sujeto a los postulados siguientes:

·Si un ítem requiere de mayor tiempo para su respuesta, esto implicará mayor dificultad para el alumno.
·Si un ítem requiere de mayor tiempo para su respuesta, esto implicará mayor discriminación.

IV.1. Modelo propuesto
La propuesta metodológica que se presenta tiene su sustento en la Teoría de Respuesta al Ítem. Se basa en el hecho de poder cuantificar el tiempo de emisión de respuesta, desde el momento en que la persona recibe el ítem hasta que emite una respuesta, el que será caracterizado por tij, que representa el tiempo que demora la persona j-ésima en emitir una respuesta al ítem i del test.
La incorporación de este nuevo parámetro permitirá desarrollar un enfoque de la teoría de los test hacia las pruebas computarizadas, cuyas consecuencias serán el poder diferenciar a dos personas, que tra-dicionalmente se encuentran en igual condición.
Considerando bi=0, ai=1 y ci=0 parámetros de dificultad, discriminación y azar respectivamente en el modelo logístico de tres parámetros, se propone el siguiente modelo, denominado Modelo Logístico Reacondicionado, que incorpora el parámetro temporal tij, como:

Gráficamente, es posible verificar los efectos tij sobre los parámetros clásicos de dificultad y discriminación en el modelo logístico de uno y dos parámetros, esto es:


GRÁFICO 2

El Gráfico 2 permite visualizar que a medida que aumenta el tiempo de respuesta a un ítem, la representación gráfica del modelo aumenta su pendiente en el punto en que ella es máxima y en el caso de la densidad, la curtosis aumenta al igual que su punto máximo, es decir el tiempo que transcurre desde que la persona recibe el ítem hasta que emite una respuesta, produce perturbaciones respecto de los parámetros de dificultad y discriminación, estableciéndose una relación proporcional en forma directa.
Analíticamente, se define al parámetro temporal tij como un parámetro de localización y de escala, a partir del cual se definen una familia de densidades que indizan a tij, esto es:

Notemos que

satisface lo siguiente:


GRÁFICO 3

Es decir que la libertad temporal nos permite recuperar el modelo original de tres parámetros, lo que se traduce en una convergencia de las densidades, ante variaciones del parámetro temporal, a la densidad independiente de éste, es decir la Curva de mayor máximo en el Gráfico 3.

IV.2. Modelo Logístico Temporal
Este modelo representa la probabilidad de que la persona j acierte al ítem i, con un nivel de competencia θ, condicionado a un tiempo de respuesta tij.

Debemos notar que, en este modelo, no se presentan los parámetros de dificultad, discriminación y azar, con el objetivo de resaltar la influencia del tiempo de respuesta en el modelo.
Una vez caracterizado el parámetro temporal, el siguiente paso es aplicar las pruebas, registrar el tiempo de respuesta y estimar el nivel de competencia de cada estudiante a través de la estimación máximo verosímil.

V. Simulaciones

Para este proceso simularemos las respuestas, el tiempo de respuesta y los parámetros de cada ítem, en 3 estudiantes, con el propósito de ejemplificar.
Ahora supongamos que las pruebas fueron suministradas y los resultados son los que se exponen en las Tablas 1, 2 y 3 para cada uno de los estudiantes.

Basado en lo anterior, se procede a estimar el nivel de competencias de cada una de las tres personas. En el proceso de estimación se considerarán bi=0, ai=1 y ci=0.
Persona 1: El nivel de Competencia que hace más probable el patrón de respuestas de la persona 1 es θ1 = -0.1 (Gráfico 4).
Persona 2: El nivel de Competencia que hace más probable el patrón de respuestas de la persona 2 es θ2 = -1.0. Además es un nivel notoriamente menor a la persona 1(Gráfico 5).
Persona 3: El nivel de Competencia que hace más probable el patrón de respuestas de la persona 3 es θ3= -0.2. Además es un nivel notoriamente superior a las dos personas anteriores (Gráfico 6).


GRÁFICO 4.
Nivel de Competencia estimado para la persona 1


GRÁFICO 5.
Nivel de Competencia para la persona 2


GRÁFICO 6.
Nivel de Competencia para la persona3

En el Gráfico Nº 7 se presentan las variaciones de los niveles de competencia de las tres personas en estudio, claramente se observa la superioridad en la competencia en estudio de la persona 3 respecto de las otras dos.


GRÁFICO 7. Nivel de Competencia de Cada Persona

VI. Análisis a posteriori y evaluación

Es posible visualizar en las tablas de las simulaciones (Tablas 1, 2 y 3), que los tiempos de respuesta son menores en la persona número 3; que gráficamente, en el proceso de estimación del nivel de competencia, reflejan su efecto en la forma de la distribución, hacia una asimetría de tipo negativa, es decir, el máximo de la función de verosimilitud tiende a presentarse en torno a valores altos en comparación con sus pares; dicho efecto se potencia ante la utilización del parámetro temporal.
Si utilizamos el modelo en evaluación de procesos en el tiempo, nos permitirá capturar pequeños incrementos y cambios en tiempos distintos y evaluar procesos de intervención pedagógica

VII. Conclusiones

Vivimos en el siglo de las tecnologías, y no nos deberemos de extrañar cuando comience la masificación de pruebas rendidas por medio de computadores. Bajo esa perspectiva, deberemos rescatar de ello toda la información posible, de tal manera de precisar y diferenciar el nivel de competencia da cada uno de nuestros alumnos.
Con miras a esa situación, y preocupados por la educación de nuestros estudiantes y por la calidad y la precisión en los proceso de medición de los saberes matemáticos, el equipo Lab[e]saM propone esta metodología de trabajo y la variación del Modelo Logístico, en este caso considerando solamente el tiempo de respuesta como un factor diferenciador entre las puntuaciones de los alumnos. Hemos considerado el tiempo de respuesta en el proceso de diferenciación, pues se está transformando en un factor importante a la hora de tomar decisiones respecto de la resolución de problemas, además de ser un reflejo de la calidad de la construcción de un saber para reaccionar ante un determinado estímulo.

Notas

1.  La Teoría de Respuesta al Item (IRT) se atribuye al trabajo del matemático danés Georg Rasch, 1960, aunque se encuentran también importantes semejanzas en el trabajo de Louis Leon Thurstone, 1912 y Alfred Binet, 1905.
2. En este trabajo, el sustantivo dimensión alude a cada una de las características esenciales del saber.
3. En este caso utilizamos la palabra seudodimensión para hacer alusión a la dimensión de saber que posee el alumno, y que no coincide con las dimensiones del saber enseñado que recibió.

Referencias bibliográficas

1.  BROUSSEAU, G. Théorie des Situations Didactiques (Didactiques des Mathématiques 1970-1990). (2º ed.). Grenoble: La Pensée Sauvage éditions; 2004.         [ Links ]

2. CHEVALLARD, Y. La transposition didactique. Du savoir savant au savoir enseigné. (2º ed.). Grenoble: La Pensée Sauvage éditions; 1991.         [ Links ]

3. CORTADA DE KOHAN, N. Posibilidad de integración de las teorías cognitivas y la psicometría moderna. Revista Argentina de Neuropsicología. 2003; 2: 08-23.         [ Links ]

4.  LÓPEZ CUADRADO, J; PÉREZ TOMAS A, ARMENDÁRIZ AJ. Evaluación mediante test: ¿Por qué no usar el ordenador? Departamento de Lenguajes y Sistemas Informáticos. Universidad del País Vasco; 2006.         [ Links ]

5.  MUÑIZ, J. Teoría Clásica de los Test. Madrid: Pirámide; 1997.         [ Links ]

6.   HAMBLETON, R K, SWAMINATHAN, H; ROGERS, HJ. Fundamentals of Item Response Theory. (Vol.2). Newbury Park, CA: Sage; 1991.         [ Links ]

7. DUSSAILLANT, F. Técnicas de medición en pruebas de admisión a las universidades. Santiago de Chile: C.E.P; 2003.         [ Links ]

Creative Commons License Todo el contenido de esta revista, excepto dónde está identificado, está bajo una Licencia Creative Commons