SciELO - Scientific Electronic Library Online

 
vol.11 número32El valor de las tecnologías entrañablesLas universidades en función de las necesidades del desarrollo económico y social índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

  • No hay articulos citadosCitado por SciELO

Links relacionados

  • No hay articulos similaresSimilares en SciELO

Compartir


Revista iberoamericana de ciencia tecnología y sociedad

versión On-line ISSN 1850-0013

Rev. iberoam. cienc. tecnol. soc. vol.11 no.32 Ciudad Autónoma de Buenos Aires mayo 2016

 

ARTÍCULOS

¿Que veinte años no es nada? Cambios y continuidades en los criterios de evaluación del Programa de Incentivos a Docentes-Investigadores en la universidad argentina (1994-2014)  

Vinte anos não são nada? Mudanças e continuidades nos critérios de avaliação do Programa de Incentivos a Docentes-Pesquisadores na universidade argentina (1994-2014)

Twenty Years Is Nothing? Changes And Continuities In The Evaluation Criteria Of The Researchers-Teachers Incentive Program Of Argentine Universities (1994-2014)

Nerina Sarthou *

* Doctora en ciencia política, becaria posdoctoral del Consejo de Investigaciones Científicas y Técnicas (CONICET) y docente-investigadora del Centro de Estudios Interdisciplinarios en Problemáticas Internacionales y Locales (CEIPIL), Universidad Nacional del Centro de la Provincia de Buenos Aires, Argentina. Comisión de Investigaciones Científicas de la Provincia de Buenos Aires. Correo electrónico: nfsarthou@yahoo.com.ar.


Desde que el Estado comenzó a incidir en el desarrollo de la ciencia y la tecnología por medio de políticas públicas específicas para el sector, adoptó procedimientos, dispositivos y criterios de evaluación para distribuir recursos y afectar actividades, organismos o disciplinas específicas. A partir de la década de 1980, los países de América Latina comenzaron a implementar sistemas o programas para alterar la labor de los científicos y lograr un incremento en la producción de conocimientos, distribuyendo recursos materiales y simbólicos. En Argentina, en 1994 empezó a implementarse un programa destinado a promover la investigación, particularmente, en todas las universidades de gestión pública del país. Transcurridos veinte años desde la creación de este programa, el presente trabajo busca caracterizar su sistema de evaluación y analizar concretamente las transformaciones de sus criterios, con el propósito de brindar una visión sintetizada sobre los momentos y el sentido que adoptaron los cambios.

Palabras clave: Criterios; Sistema de evaluación; Programa de incentivos; Universidad.

Desde que o Estado começou a incidir no desenvolvimento da ciência e da tecnologia mediante políticas públicas específicas para o setor, tem adotado procedimentos, dispositivos e critérios de avaliação para distribuir recursos e afetar atividades, organizações ou disciplinas específicas. A partir da década de 1980, os países da América Latina iniciaram a implantação de sistemas ou programas para modificar o fazer dos científicos e atingir um aumento na produção de conhecimentos, distribuindo recursos materiais e simbólicos. Na Argentina, em 1994, começou a implantação de um programa destinado a promover a pesquisa, particularmente, em todas as universidades públicas do país. Passados vinte anos da criação desse programa, este trabalho procura caracterizar o seu sistema de avaliação e analisar concretamente as transformações dos seus critérios, visando oferecer uma visão sintetizada sobre os momentos e o sentido adotado pelas mudanças.

Palavras-chave: Critérios; Sistema de avaliação; Programa de incentivos; Universidade.

Ever since the State started to influence the development of science and technology by means of public policies specific to the sector, it adopted procedures, devices, and evaluation criteria to distribute resources and affect activities, organisms, and specific disciplines. As from 1980, Latin American countries started implementing systems or programs to have some bearing on the work of scientists and achieve an increase in the production of knowledge through the distribution of material and symbolic resources. In 1994, Argentina started implementing a program aimed at promoting research work, particularly in all of its State universities. After twenty years of the creation of this program, this paper seeks to describe its evaluation system and to specifically analyze the transformations of its criteria, with the purpose of providing a summarized vision of the different moments and the direction of those changes.

Key words: Criteria; Evaluation system; Incentive program; University.


Introducción

Desde que el Estado comenzó a incidir explícitamente en la dirección de la producción de conocimientos científicos y tecnológicos mediante la creación de instrumentos concretos de financiamiento, desarrolló normas, mecanismos y procedimientos de evaluación para la adjudicación de los recursos (Sanz Menéndez, 2014). A su vez, el desarrollo, la expansión y la consolidación de los sistemas científico-tecnológicos ha conllevado al surgimiento de nuevas necesidades que emergen de la sociedad, de los investigadores y de las propias políticas científicas, que convierten a la evaluación en una herramienta clave para diversos propósitos.

A partir de mediados de los años 80, distintos gobiernos de la región latinoamericana comenzaron a aplicar políticas para promover la investigación científica y tecnológica a nivel nacional. Específicamente, crearon sistemas o programas que tuvieron -al menos en sus inicios- el rasgo principal de consistir en el pago de incentivos monetarios individuales a científicos y profesores universitarios por la realización de un conjunto de actividades y la adquisición de ciertas credenciales. Esta política implicó a su vez el diseño de procesos de evaluación de la investigación y de los investigadores. De allí que, a tres décadas de adoptadas estas medidas, puedan encontrarse sistemas de evaluación que buscan dirigir y definir la calidad del trabajo (Glässer y Laudel, 2007) y sistemas que buscan profundizar en la organización, determinar la asignación de recursos y valorar la relación entre los inputs y los objetivos que se pretenden alcanzar (Langel, 2007). Del mismo modo, también existen sistemas de evaluación de los propios investigadores (Jiménez Contreras et al, 2003; Castro y Sanz Menéndez, 2007), es decir, sistemas de evaluación del trabajo y de la carrera profesional de los investigadores con el propósito de fomentar la realización de ciertas actividades, la adquisición de determinadas aptitudes o la distribución de distintos recursos.

En América Latina, el sistema mexicano fue el primero en crearse, en 1984. Una de las características centrales que distingue al Sistema Nacional de Investigadores (SNI) es que el estímulo económico se ha convertido en una parte significativa del ingreso del investigador, hasta llegar a ser equivalente al salario de base (Reyes y Suriñach, 2012). En la actualidad, en México se encuentran en vigencia cuatro programas que afectan directamente a los académicos (Galaz Fontes y Gil Antón, 2013): el SNI, el Programa para el Mejoramiento del Profesorado, la iniciativa Cuerpos Académicos y los Programas Institucionales de Incentivos. En Venezuela se diseñó, en 1990, un sistema que adoptó el modelo mexicano: el Programa de Promoción del Investigador (PPI). En 2009, el PPI fue suspendido y reemplazado en 2011 por el Programa de Estímulo a la Innovación y a la Investigación (PEII). Lo novedoso de este programa son dos elementos: la definición de áreas estratégicas y la incorporación de un perfil de tecnólogo (Sarthou, 2013). De un lado, se establecieron áreas fundamentales, que son las que tendrán preferencia a la hora de recibir financiamiento; de otro lado, el PEII admite no sólo a personal académico de las universidades o centros de investigación, sino también a innovadores, tecnólogos o profesionales asociados a actividades de investigación o innovación. En Colombia se constituyó un sistema de incentivos para las universidades públicas estructurado y regido por dos decretos: el decreto No 1444, correspondiente al antiguo régimen dictado en 1992, y el decreto No 1279, correspondiente al nuevo régimen implantado a partir del año 2002. El sistema consiste en otorgar un adicional en el salario de acuerdo a los puntos que se le computen a cada docente universitario según una serie de criterios como títulos académicos alcanzados, categoría dentro del escalafón docente, experiencia calificada y productividad académica (Benavides y Navarro, 2012). Más recientemente, en 2007, Uruguay creó el Sistema Nacional de Investigadores asociado al otorgamiento de incentivos económicos y a un "nivel" de investigador. Por su parte, Paraguay, luego de ser asesorado por funcionarios uruguayos, implementa desde 2011 el Programa Nacional de Incentivo a los Investigadores. En Argentina, la escasa presencia relativa de las actividades de investigación en las universidades de gestión pública fue motivo de que a fines de 1993 se creara un programa específico para impulsar a los docentes universitarios a realizar investigación. Mediante un decreto del presidente Carlos Menem se diseñó el Programa de Incentivos a Docentes-Investigadores de Universidades Nacionales, que comenzó a implementarse a inicios de 1994 y aún hoy permanece vigente.

A pesar de que puede demostrarse que varios países han tenido los mismos objetivos de política hacia los académicos, los sistemas adoptados han diferido de manera amplia de un país a otro (Sarthou, 2013). Estas diferencias en la evaluación tienen diversas fuentes: el desarrollo de la sociedad en general, las demandas que se canalizan a través de la evaluación, la configuración histórica del sistema de investigación público y las experiencias de evaluaciones en otras áreas y países.

En la última década han ocurrido diversas transformaciones en los sistemas de evaluación de la investigación, una de ellas se refiere específicamente a los criterios empleados (Sanz Menéndez, 2014). Por un lado, si bien en un primer momento los criterios utilizados para la evaluación de la investigación siguieron asociados principalmente al mérito o a la calidad científica de la propuesta, a medida que el rol de la ciencia en la sociedad fue mutando también lo hicieron los procedimientos de evaluación (Velho, 2011), incorporándose nuevos criterios. Algunas de estas nuevas pautas promovieron aspectos específicos de la actividad científica, como por ejemplo el desarrollo de investigación según objetivos, la investigación estratégica o la investigación priorizada (Sanz Menéndez, 2014).

Por otro lado, se ha producido una mayor transparencia de los criterios que se utilizan. Con el objeto de evitar conflictos de intereses y de seguir normas reconocidas, se ha dado publicidad a la conformación de comisiones evaluadoras y a las reglas de funcionamiento que deben cumplirse. Todo ello no sólo ha transformado el ejercicio de la evaluación de la investigación, provocando diversos efectos a nivel del individuo, de las instituciones y del conjunto del sistema de investigación (Musselin, 2013), sino también la práctica del estudio de los sistemas de evaluación.

Si bien el programa de incentivos argentino ha sido objeto de análisis de diversos trabajos (Fernández Berdaguer y Vaccareza, 1996; Tiramonti et al, 1999; Araujo, 2003; Prati 2003; García de Fanelli, 2005), las transformaciones que ha sufrido justifican nuevos acercamientos. En este sentido, en trabajos anteriores se demostró que al analizar el programa como un instrumento de política pública, las modificaciones en las herramientas condujeron a una transformación de la naturaleza del propio instrumento y, con ello, de la política (Sarthou, 2014). Asimismo, se ha analizado la evolución del programa en relación a dos etapas de la política científico- tecnológica y universitaria argentina: una primera etapa, en donde el programa se crea, se consolida y entra en una crisis que se extiende desde 1993 hasta 2001, y una segunda etapa, que va desde 2002 hasta la actualidad, en donde el programa es puesto nuevamente en marcha y es apuntalado de manera definitiva (Sarthou y Araya, 2015). En este trabajo se explora el programa de incentivos con el objetivo de caracterizar su sistema de evaluación y analizar, concretamente, las transformaciones de sus criterios a lo largo de dos décadas, para brindar una visión sintetizada sobre los momentos y el sentido que adoptaron los cambios.

1. Sistemas de evaluación de la investigación: función, métodos y criterios

En la literatura específica se denomina sistema de evaluación de la investigación a los conjuntos organizados de procedimientos para la evaluación de la calidad de la investigación llevada a cabo por organismos financiados con fondos públicos, que se aplican de manera regular, en general por los organismos del Estado (Whitley, 2007). Otros autores también incorporan dentro de este concepto la evaluación del desempeño de individuos, instituciones u organizaciones científicas financiadas con fondos públicos (Molas-Gallart, 2012). Uno de los sistemas más estudiados a nivel mundial ha sido el británico Research Assessment Exercise (RAE), aunque también pueden encontrarse trabajos sobre los sistemas de evaluación en países como Japón (Kneller, 2007), Australia (Glässer y Laudel, 2007), Alemania (Langel, 2007), Estados Unidos (Cozzens, 2007), España (Jiménez Contreras et al, 2003; Castro y Sanz Menéndez, 2007), Gran Bretaña (Henkel, 1999; Molas-Gallart, 2012) y a nivel comparativo de doce países (Geuna y Martin, 2003).

Históricamente, la calidad o el valor científico de una investigación fue establecida por la comunidad de pares, es decir: eran los propios científicos quienes intervenían en la evaluación de un paper, proyecto, organismo o investigador científico. La calidad era definida como la suma de un conjunto de criterios establecidos y conocidos por la comunidad científica y la evaluación tenía la función de legitimar el conocimiento producido. El momento fundacional de esta práctica se situó con la creación de la primera revista científica en 1665, cuando la Royal Society instauró un sistema por el cual la presentación de trabajos para su publicación en Philosophical Transactions debía realizarse con el informe favorable de un miembro de dicha sociedad. De esta manera, la revisión por pares se convirtió en una práctica institucionalizada vinculada a la comunicación pública de la ciencia. Con el transcurso del tiempo, el mecanismo de revisión por pares comenzó a vincularse también con la evaluación de los méritos curriculares para la ocupación de determinado puesto en una organización científica e incluso para el otorgamiento de premios o distinciones de academias o asociaciones de ciencia. De modo que el sistema de revisión por pares nació y se desarrolló como un mecanismo para "servir" a la ciencia, permitiendo a partir de la participación en él de los propios científicos, y sólo de ellos, definir y resguardar la "calidad científica".

Luego de la Segunda Guerra Mundial, la revisión por pares también se trasladó a la esfera de las políticas científicas diseñadas. Fueron los propios políticos quienes introdujeron este método; los burócratas del gobierno (a veces ex-científicos) advirtieron la necesidad de contar con asesoramiento legítimo para guiar el desembolso de fondos, de allí la decisión de incorporar a la comunidad científica, y con ella, sus valores (Rip, 1994). Con el tiempo, los científicos capturaron los consejos de investigación, no sólo a partir del sistema de revisión por pares de las propuestas, sino también a través de la ocupación de posiciones en los comités consultivos y en las juntas de gobierno de las distintas instituciones. De este modo, la definición de calidad se asoció a "calidad científica", alejando su asociación a los objetivos de la política. Esto conduce a suponer que la investigación que se produce posee como principal demandante a la comunidad científica, ya que es ella la que decide sobre la dirección del conocimiento y la distribución de los recursos. El problema es cuando otros actores comienzan a demandar conocimiento. Este tema ha sido ilustrado recientemente por Sutz (2014), quien agrega a la noción de calidad el concepto de relevancia/pertinencia.

Es a través del sistema de evaluación que pueden incorporarse los objetivos definidos por la política al desarrollo de la investigación. Los criterios son elementos clave de cualquier sistema de evaluación ya que constituyen la traducción del propósito de la evaluación. Por medio de la definición de los criterios a ser utilizados se envía un mensaje sobre aquello que se busca alcanzar. De este modo, cambiar los criterios de evaluación requiere de la incorporación y apropiación de nuevos principios y valores que deben ser previamente internalizados y explicitados por las instituciones que contienen y financian a las comunidades académicas (Lattuada, 2014).

Se ha demostrado que si bien hay tendencias similares, existen diferencias sustanciales entre países, entre organismos y a lo largo del tiempo, respecto al sistema de evaluación de la investigación (Whitley y Gläser, 2007). Tal situación posee diversas explicaciones, pero una de ellas resulta central: la práctica de la evaluación en la esfera de la política científica y tecnológica se caracteriza por emplearse para dos propósitos fundamentales: dirigir o distribuir. De modo que en el marco de un sistema público de investigación, la evaluación tiene dos funciones principales. Cruz-Castro y Sanz-Menéndez (2007) señalan que la evaluación es, por un lado, una "herramienta de dirección o gestión", es decir: un medio para la organización y la gestión de actividades de investigación. Como tal, la evaluación puede estar destinada a organizaciones relacionadas con la investigación (universidades, centros de investigación e instituciones de gestión) con el fin de mejorar su funcionamiento o a la formulación de políticas, a través de la evaluación de los programas de ciencia y tecnología, y a la mejora de políticas de investigación.  Por otra parte, la evaluación se puede utilizar como una "herramienta de distribución", es decir: con el objetivo de asignar diferentes tipos de recompensas y recursos entre los distintos tipos de actores -individuos, grupos u organizaciones- para mejorar sus resultados de investigación. Estos incentivos pueden ser económicos (subvenciones, bonificaciones salariales), simbólicos (reputación y prestigio) o ambos al mismo tiempo. La evaluación de la investigación como un instrumento distributivo puede, entonces, afectar la financiación de las organizaciones de investigación, los proyectos de investigación o la asignación de recompensas a los investigadores individuales. En algunos países, encontramos la combinación e integración de ambas funciones en los instrumentos de financiación individuales, mientras que en otros se separan (Cruz- Castro y Sanz-Menéndez, 2007).

Asimismo, los sistemas de evaluación se diferencian en la forma en que se organizan y rigen. Considerando su estructura de gobierno podemos diferenciar los sistemas de evaluación respecto a tres rasgos (Whitley, 2007): su frecuencia, su formalización y su estandarización/transparencia. La frecuencia se relaciona con la posibilidad de realizarse sistemáticamente y de sostenerse en el transcurso del tiempo. La formalización se refiere a la utilización de criterios y procedimientos comunes en la evaluación para todas las disciplinas y a lo largo del tiempo. La estandarización y transparencia o grado de publicidad tiene que ver con el conocimiento de las reglas, procedimientos y evaluadores y con la forma de dar a conocer los resultados de la evaluación. En sistemas de gran transparencia, las evaluaciones se llevan a cabo por comités que han sido designados de acuerdo con los procedimientos formales, publicados y basados en criterios y formas de trabajo especificados públicamente. En otros sistemas, los juicios se realizan por pequeños grupos de colegas designados de manera informal, que deciden sus propios procedimientos de trabajo e informan sus resultados a las universidades o agencias estatales, de manera privada, es decir: en secreto.

Ahora bien, ¿por qué se transforman los sistemas de evaluación? ¿A qué factores responden? A pesar de que la producción de conocimiento es una actividad internacional, las prácticas de evaluación de la investigación están integradas en el funcionamiento de los sistemas científico-tecnológicos y universitarios, por lo que existe una significativa variedad de configuraciones institucionales y organizativas en el marco de las cuales se desarrollan estas actividades en los diversos países, así como de los objetos que se evalúan, de los criterios que se utilizan y de las consecuencias que tienen. De modo que la evaluación debe ser entendida como un proceso social que tiene un aspecto administrativo organizacional -existen normas, procedimientos y dictámenes- y un aspecto expresado en el mismo acto de la evaluación que se encuentra atravesado por la historia de las instituciones y de quienes participan en el proceso (Lattuada, 2014). Repasemos cómo se han reformado los criterios utilizados en el sistema de evaluación del programa de incentivos argentino e intentemos advertir la fuente de explicación de estas transformaciones.

2. El sistema de evaluación del programa de incentivos argentino

La creación del programa de incentivos se produjo en el marco de un conjunto de transformaciones del Estado argentino, bajo la primera presidencia de Carlos Saúl Menem (1989-1994). Si bien el objetivo declarado fue aumentar la investigación y fomentar el desarrollo de una carrera académica integrada -enseñanza junto a investigación- (Decreto 2427/93), las características del programa mostraron que el verdadero sentido fue transformar las relaciones entre el Estado y las universidades a través de una injerencia directa en las actividades que debía realizar un profesor universitario (Sarthou, 2014).

El programa declaró como objetivo "promover el desarrollo integrado de la carrera académica en las Universidades Nacionales", entendiendo por ello la realización conjunta de actividades de "docencia, investigación, extensión y gestión", como respuesta a una serie de circunstancias enumeradas en los considerandos del decreto:

  • la baja proporción de docentes universitarios que participan en actividades de investigación científica y tecnológica (15% del total de docentes);
  • la importancia del desarrollo científico y tecnológico para el crecimiento económico y la justicia social, en el marco de un nuevo paradigma científico- tecnológico dominante a escala mundial que ubica a las universidades como destacados protagonistas en la investigación científica y en el desarrollo de nuevas tecnologías de productos y procesos;
  • la necesidad de aumentar las tareas de investigación y desarrollo a nivel nacional y de fomentar la reconversión de la planta docente, motivando una mayor dedicación a la actividad universitaria y a la creación de grupos de investigación;
  • la simultánea contribución del programa al mejoramiento de los ingresos de los docentes universitarios durante el período en que participen en proyectos de investigación, en el marco de la asignación de recursos a las universidades en función de programas específicos basados en criterios objetivos que favorezcan el rendimiento del trabajo académico.

Para alcanzar estos objetivos, de los distintos modelos de que disponía, la Secretaría de Políticas Universitarias (SPU) en Argentina optó por establecer un sistema de evaluación centrado en dos objetos. Por un lado, estableció normas para la evaluación de proyectos de investigación, ya que uno de los objetivos del programa fue promover el trabajo colectivo de los docentes investigadores; de allí que se estableciera como requisito para participar formar parte de un proyecto de investigación acreditado. Su evaluación se realiza ex ante para acreditarlos y ex post para otorgar una valoración sobre las actividades declaradas en los informes parciales y finales. Por otro lado, se constituyó un sistema de evaluación de la trayectoria personal de los docentes universitarios que realizaran también investigación científica. En este último caso, el foco de la evaluación se dirigió a los productos de las actividades académicas, convirtiéndose los criterios para su valoración en los elementos claves del sistema.

Respecto a la estructura de funcionamiento, el programa de incentivos posee un alto nivel de estandarización y transparencia, una vigencia ininterrumpida desde su creación y una sólida formalización de sus normas. Si bien al momento de su creación fue una política de fomento de la investigación científica en el país exclusivamente destinada a las universidades de gestión pública, recientemente se aprobó la incorporación de todos los docentes del sistema universitario argentino.1

Aproximadamente, cada cuatro años se abre la convocatoria para ingresar, renovar o subir de categoría de manera voluntaria.

El Manual de Procedimientos del Programa de Incentivos explicita la forma deevaluación de los proyectos de investigación y de los docentes investigadores. En él se estipulan responsabilidades diferentes y complementarias entre la SPU, las universidades y los pares evaluadores. La SPU constituye la autoridad de aplicación junto con la Secretaria de Articulación Científico Tecnológica del Ministerio de Ciencia, Tecnología e Innovación Productiva (MINCYT), aunque es la SPU -junto con las universidades- quien posee un mayor involucramiento en la gestión del programa. Específicamente, la SPU se responsabiliza por la liquidación de los beneficios, a partir de la información que remite cada universidad, del seguimiento y del control de gestión. Las universidades son responsables de la categorización de sus docentes investigadores, de la acreditación de los proyectos y de la organización de la evaluación de los informes.

El proceso de evaluación individual se denomina categorización y -a diferencia de la evaluación de proyectos- constituye la columna vertebral del programa. Un conjunto de tres instancias colegiadas se conforman para cada categorización según la normativa del Manual. Como instancia superior se encuentra la Comisión Nacional de Categorización (CNC), bajo dependencia del Ministerio de Educación e integrada por los presidentes de cada una de las Comisiones Regionales de Categorización (CRC), más dos representantes de la SPU y dos de la Secretaria de Articulación Científico- Tecnológica. Las funciones de la CNC son: a) definir criterios homogéneos para la aplicación de las pautas de categorización; b) asesorar y supervisar en la aplicación de dichas pautas; c) auditar la aplicación de las pautas de categorización; y d) dictaminar en los recursos de apelación que se planteen contra las resoluciones de las CRC.

Una segunda instancia es aquella representada por las siete CRC.2 Están integradas por tres representantes de la región, uno de los cuales la preside e integra la CNC como su representante, dos representantes de la CNC y dos de la SPU que no pertenezcan a la misma región ni integren la CNC. Las funciones de las CRC son: a) coordinar los procesos de categorización de los docentes investigadores; b) conformar los comités de evaluadores; y c) asignar las categorías propuestas por los comités de evaluadores.

El mecanismo de evaluación es la revisión por pares. El programa cuenta con un banco de evaluadores organizado por áreas del conocimiento y 19 disciplinas, constituido por todos los docentes investigadores categoría I y II. Las CRC son las encargadas de conformar cada comité evaluador para funcionar en los procesos de categorización; la particularidad de estos comités es su composición multidisciplinar, ya que se estipula una mayoría disciplinar y una minoría extra disciplinar. También se especifica un mínimo de tres miembros donde más de la mitad de ellos deben ser externos a la región. Si bien los pares evaluadores "recomiendan" la categoría equivalente de investigación, son actores fundamentales del proceso al ser quienes, en los hechos, evalúan cada carpeta presentada.

A nivel individual, existen dos tipos de participación: categorizado o incentivado. Los postulantes son categorizados, es decir: se les asigna una Categoría Equivalente de Investigación (CEI) si así lo consideran los evaluadores a la hora de evaluar el curriculum, pero además si cumplen con dos requisitos: ser docente universitario y participar en un proyecto acreditado por una entidad habilitada. Por su parte, los beneficiarios del programa, además de ser categorizados, pueden ser incentivados, es decir: cobrar un monto económico, si cumplen con el requerimiento de dictar un número mínimo de cursos de grado o de posgrado en la universidad en la que perciben el incentivo. Estos dos requisitos básicos han permanecido sin variantes, salvo por una mínima modificación de la cantidad de cursos en 1997.3

La categoría que otorga el programa de incentivos, aun cuando en sus orígenes representaba un cuantioso monto económico, en la actualidad significa prestigio y "poder" en materia académica para decidir sobre los pares (Sarthou, 2013). La postulación es opcional y la categoría se otorga luego de una evaluación, con lo cual constituye una suerte de "premio", aunque también está pensada para incentivar al participante a que realice un conjunto de actividades académicas, entre las que son necesarias la docencia y la investigación.

En cuanto a la función de la evaluación en la versión original del programa, éste se creó como una "herramienta de distribución", esto es: con el objeto de asignar distintos tipos de recursos entre los docentes investigadores. Estos recursos fueron de carácter económico (plus salarial) y simbólico (prestigio y poder académico). De este modo, la evaluación sirvió como un instrumento distributivo ya que afectó la asignación de recompensas a nivel individual e institucional.

2.1. Los criterios de evaluación en la primera versión del programa

Los primeros criterios de evaluación fueron establecidos de manera implícita mediante la confección de una "ficha" que el postulante debía completar. A diferencia de las normas de procedimiento a seguir en el proceso de evaluación que fueron expresamente establecidas, no se elaboró ni una ponderación de actividades, ni una definición o valoración del contenido de cada actividad. Debido a que cada universidad realizaba la categorización de sus propios docentes, la interpretación de los criterios quedó a cargo de cada comisión de evaluación confeccionada por las respectivas instituciones.

La ficha impresa que el postulante debía completar contenía las siguientes secciones: cargo docente, títulos obtenidos, proyecto de investigación actual, trayectoria en investigación, instituciones que evaluaron o financiaron los proyectos, actividades de planificación, coordinación y conducción en la universidad, número de becarios dirigidos, número de tesistas de posgrado dirigidos, participación en funciones de evaluación de proyectos, jurado de concursos docentes y de tesis, participación en actividades de innovación tecnológica, desarrollo de patentes, aportación a la innovación pedagógica o desarrollos curriculares o de extensión, número total de publicaciones científicas, y otros antecedentes considerados pertinentes. Se destaca dentro de estos criterios la incorporación de un número diverso de actividades académicas y la explícita mención de las actividades conocidas como de "transferencia" que, si bien hacia 1993 estaban escasamente desarrolladas en la universidad, remiten al reconocimiento de un perfil de docente investigador que realiza ciencia aplicada o que transfiere al medio sus conocimientos, concepción que no se había incorporado en otros sistemas de evaluación del investigador, tal como aquel que sustentó la carrera del investigador científico del Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET) durante varias décadas y fue desde temprano criticado por Oscar Varsavsky.4

Si bien los criterios significaron la enumeración de una lista de actividades que en general ya realizaban los académicos, representaron la incorporación de la práctica de la evaluación de la trayectoria en investigación en el ámbito universitario. En este sentido, tempranamente el programa fue definido como un "factor unificador de elementos (criterios y normas) y catalizador de interacciones (disciplinas, investigadores y docentes, investigadores y administradores, facultades) en un ámbito tradicionalmente caracterizado por el aislamiento relativo e independencia o indiferencia entre los distintos componentes de su actividad" (Fernández Berdaguer y Vaccareza, 1996: 259).

Los primeros problemas y desacuerdos surgieron a poco tiempo de implementado el programa y estuvieron relacionados con la falta de precisión y la estandarización de criterios a nivel del sistema universitario. Principalmente, hubo disconformidades respecto a los criterios que cada universidad empleaba para la categorización de los docentes de las categorías más altas. Como consecuencia de ello, entre fines de 1994 y durante 1995, se produjeron reuniones entre los secretarios de ciencia y técnica de las universidades, y fue tema de debate en el seno del Consejo Interuniversitario Nacional (CIN).5 Finalmente, se produjo la revisión de las categorías más altas del programa, primero por la SPU y luego por una comisión mixta (SPU- CIN). La labor de la comisión fue duramente criticada por diversos actores del ámbito universitario, razón por la cual se suspendió su actuación y se dejó sin efecto los resultados de su funcionamiento (Prati, 2003).6 Finalmente, durante 1997 una comisión de académicos que habían sido pares evaluadores del programa, designados por la SPU, discutieron y redefinieron el sistema de evaluación, cuestión que provocó la transformación del proceso de implementación (Sarthou, 2014), y con ello la modificación de algunos criterios.

Producto del proceso de revisión llevado adelante por la comisión mixta, de los problemas detectados respecto al diseño del programa pero sobre todo de las demandas de los propios categorizados canalizadas a través de las autoridades universitarias, la SPU recogió las recomendaciones de diversos actores (CIN, universidades, pares evaluadores) y puso en marcha la revisión del funcionamiento, dando lugar a la sanción de un manual de procedimientos en 1997 (Resolución Ministerial No 2307/97). De este modo, una nueva normativa reemplazó a la existente en los anexos del decreto de creación del programa. Una transformación llevada a cabo debido a fallas detectadas en la estructura del Programa fue el cambio desde letras hacia números: las categorías A, B, C, D fueron reemplazas por I, II, III, IV y V, es decir: se agregó una nueva categoría en el estrato inferior. Una de las repercusiones de esta transformación fue que las categorías en condiciones de dirigir proyectos de investigación pasaron a ser tres (I, II y III). Según Mundet (1998), estas modificaciones buscaron favorecer la conformación de grupos de investigación que garantizaran un desarrollo adecuado de los proyectos. El autor explica que al habilitar a los investigadores con categoría III a dirigir proyectos, se descomprimió la situación de las categorías I y II y a la vez se les exigió no dirigir más de dos proyectos, con el objeto de garantizar su efectiva participación en ellos.

2.2. La transformación de las "condiciones cualitativas"

En el manual de procedimientos de 1997 se organizaron los criterios de evaluación en "condiciones cualitativas" y "condiciones cuantitativas" (puntaje y grilla de evaluación). Según la categoría, los postulantes debían reunir una serie de requisitos cualitativos que fueron modificados en cada una de las sucesivas convocatorias a categorización, tal como se presenta a continuación en la Tabla 1.

Tabla 1. Condiciones cualitativas del Programa de Incentivos según CEI

Respecto a las condiciones cualitativas establecidas en 1997 (Tabla 1), en primer lugar se observa la restricción en el acceso al programa -en relación a los años anteriores- a partir del límite de edad para la categoría más baja (V) y de la limitante del tipo de cargo para la categoría IV. Se advierte además que el acceso a las categorías más altas (I, II y III) se reservó sólo a los profesores concursados. Estas modificaciones, si bien apuntaron a considerar los objetivos iniciales del programa (incentivar en primer lugar a los que ya hacían investigación) y a lograr un mejor funcionamiento, incorporaron exigencias que no en todos los casos eran de los potenciales beneficiarios. Históricamente, en algunas universidades del país ha sido difícil acceder a cargos de profesor, con lo cual varios docentes con antecedentes y cierta trayectoria no podían alcanzar categorías altas en el programa debido a la falta de cargos en las universidades. En segundo lugar, se percibe la importancia atribuida a la formación de recursos humanos para acceder a las categorías I y II. Este tema estuvo presente desde los inicios del programa y cobrará mayor importancia en las sucesivas modificaciones; asimismo, se desprende del peso otorgado a esta actividad una visión a largo plazo de la investigación en la universidad y la manifestación de la necesidad de que las carreras de posgrado se sostengan y mejoren su calidad.

Los criterios de evaluación establecidos en 1997 mostraron la intención de darle al proceso un mayor nivel de estandarización y objetividad. Se transformó la práctica de la evaluación mediante la definición de un "ideal" de docente-investigador por medio de las condiciones cualitativas según categoría; se precisó el "mensaje" de lo que el programa de incentivos buscaba como política.

A una década de implementado por primera vez el programa de incentivos, se presentó un nuevo manual de procedimientos (Resolución No 811/2003) para ser empleado en la categorización de 2004, con nuevos criterios de evaluación. Respecto a las condiciones cualitativas (Tabla 1), se destacan las modificaciones para las categorías I, II y III: ya no se estipula la condición de ser profesor universitario concursado, requisito que, como se dijo anteriormente, en muchas circunstancias escapaba a la capacidad en docencia o en investigación del docente. Lo mismo sucede en relación a la categoría IV, al agregarse que como docente también se podrá poseer el cargo de Ayudante de Primera. Asimismo, para la categoría V, se elimina la restricción etaria y se añade la condición de haber participado al menos un año en un proyecto de investigación acreditado. A través de estas modificaciones se advierte una apertura a nuevos ingresantes al programa, reconociéndose -de alguna manera- que el acceso a los cargos de profesor en las universidades tiene que ver con la situación y la política de la propia institución y no únicamente con la trayectoria académica del postulante. Las transformaciones mencionadas ya no responden únicamente a mejorar el funcionamiento del programa (como en 1997), sino que apuntan fundamentalmente a resolver problemas de validez y legitimidad. Luego de la crisis atravesada por el programa entre 2001 y 2002, las autoridades de aplicación advirtieron la necesidad de dotarlo nuevamente de vigor y de aceptación en el ambiente académico.9 Por medio de la supresión de algunos requisitos cualitativos se amplió el número de posibles postulantes y, a través de aumentar el puntaje de las publicaciones y de la formación de recursos humanos -como se verá más adelante-, se buscó captar la atención de investigadores con un perfil más orientado a laproducción de conocimientos que por alguna razón hubieran quedado por fuera del programa de incentivos.

Nuevamente, en noviembre de 2008, desde el Ministerio de Educación de la Nación se dictó la Resolución No 1879, por la cual se aprobó el nuevo manual de procedimientos para ser empleado en la categorización de 2009. En él se advierten diversas modificaciones respecto a las condiciones cualitativas (Tabla 1). Para la CEI I y la CEI II se precisó numéricamente el significado de la relevancia de la formación de recursos humanos. Este cambio pudo estar relacionado con la necesidad de establecer un requisito de "entrada" a la categoría I o a la II, conociéndose que hacia su interior los categorizados podían presentar diversas trayectorias, es decir: podía ocurrir que hubiera un docente investigador que en su dictamen alcanzara el total de 750 puntos, otro postulante a quien le fuera otorgado el total de 1050 puntos, y que - de acuerdo a la grilla- ambos obtuvieran la categoría II. Para la categoría III se realizó un ajuste y se permitió acceder sin haber dirigido o coordinado proyectos de investigación pero cumpliendo con el requisito de haber realizado una actividad continuada de más de ocho años en proyectos de investigación acreditados en la forma prevista en el manual. Esta modificación más bien parece haber apuntado a la no generación de nuevos proyectos con el único propósito de adquirir el antecedente necesario para poder aspirar a una CEI III. Respecto de la categoría IV, se agregó como requisito que aquellos que no alcanzaran los tres años como mínimo bajo la guía o supervisión de un docente-investigador I, II, o III o equivalente, pudieran acceder a la categoría IV si contaban con su tesis doctoral aprobada. La categoría V presentó un cambio similar: se permitió reemplazar el requisito de haber participado al menos un año en un proyecto de investigación acreditado o haber contado con una beca de entidad reconocida vinculada a un proyecto por poseer una tesis de maestría o doctorado aprobada. En el mismo sentido que las modificaciones señaladas previamente, se entiende que con el nuevo manual se buscó una apertura al programa a jóvenes investigadores que por diversas razones poseían una trayectoria de calidad en investigación pero no reunían algunos requisitos formales.

La precisión en los criterios de evaluación demuestra, asimismo, que se advirtió la necesidad de definir explícitamente ciertas cuestiones y no dejarlas libradas al juicio de los pares evaluadores. En este sentido también se entiende la elaboración por la CNC, en consulta con los secretarios de ciencia y tecnología de las universidades nacionales, de un documento conocido como grilla de mínimos y máximos. Dicho documento fue remitido a las CRC y fue recomendado su empleo durante los procesos de categorización a fin de homogeneizar criterios en todas las regiones. Al no ser una disposición ni reglamentación obligatoria, cada CRC decidió su uso parcial o total. En los hechos, las CRC que utilizaron esta grilla provocaron una reducción de la subjetividad de los evaluadores, ciñendo el juicio del evaluador a la ponderación definida por el documento, y agilizaron el proceso al estandarizar la valoración de cada producto.

En septiembre de 2014, mediante la Resolución No 1543 del Ministerio de Educación se aprueba un nuevo manual de procedimientos a ser empleado en la convocatoria a categorización de 2014-2015. Se abre un nuevo proceso al cual pueden presentarse sólo aquellos que no poseen una CEI o que poseen una CEI con cuatro o más años de vigencia. Dos de los principales cambios fueron los puntajes requeridos para acceder a la categoría I y para ingresar al programa y la incorporación de un nuevo tipo de proyectos. Las nuevas condiciones cualitativas significaron una flexibilización para las categorías más altas (Tabla 1): para la categoría I anteriormente se requería haber dirigido -como mínimo- dos tesis de posgrado, mientras que en el nuevo manual se exige como mínimo haber dirigido una y dirigido o co-dirigido otra; asimismo, se permite reemplazar este requisito por una labor continuada de 12 años de formación de recursos humanos acreditada mediante un informe. Una transformación similar se observa para la categoría II: mientras que anteriormente era un requisito haber dirigido una tesis de posgrado, la nueva norma estipula haber dirigido o co-dirigido una tesis o acreditar una labor continuada de formación de recursos humanos durante ocho años. Una de las principales novedades del nuevo manual fue la incorporación de un nuevo tipo de proyectos: los Proyectos de Desarrollo Tecnológico y/o Social (PDTS). Este tipo de proyectos surgió del acuerdo firmado en octubre de 2012, encabezado por el Secretario de Articulación Científico Tecnológica del MINCYT, sobre nuevas pautas y criterios para la evaluación del personal científico dedicado a actividades de desarrollo tecnológico y social. El documento fue firmado por el CONICET, el CIN, la Comisión Nacional de Evaluación y Acreditación Universitaria, el Consejo de Rectores de Universidades Privadas y numerosas instituciones del sistema científico nacional (entre ellas el programa de incentivos).

Los nuevos criterios, elaborados mediante el trabajo conjunto de todas estas instituciones durante más de un año -las universidades realizaron un taller específico en Vaquerías, Córdoba-, buscan enriquecer el sistema de evaluación a partir de considerar a los investigadores no sólo en su trayectoria individual, sino también en su inserción y desempeño en equipos y proyectos estratégicos y, mediante la equiparación de la investigación aplicada con la básica a la hora de evaluar al personal científico, incentivando así a que las investigaciones se conviertan en desarrollos concretos, prototipos o productos.10 La modificación mencionada constituye una adecuación concreta al contexto científico y tecnológico nacional marcado por la discusión de los criterios para evaluar al personal del área. Asimismo, demuestra que el programa de incentivos es reconocido como sistema de evaluación de la investigación en la universidad y, por ello, participa en la redefinición de criterios y adopta las transformaciones que se producen a nivel del conjunto del sistema de ciencia y tecnología argentino. No obstante, esta novedad también significa un nuevo desafío para el proceso de evaluación del programa. Los resultados de la categorización 2014-2015 mostrarán las consecuencias de adoptar esta iniciativa.

Cabe resaltar la incorporación en el proceso de categorización 2014-2015 de un nuevo sistema de carga de datos, demanda que data de largo tiempo por parte de los docentes investigadores y que también da cuenta de un intento de ajustar el programa a los demás sistemas de información del sector científico-tecnológico. A partir de 2015, quienes se presentan a categorizar primero deben cargar sus datos en el CVar, un aplicativo que permite cargar los datos curriculares y que es empleado por numerosas y diversas instituciones científicas y tecnológicas argentinas.

2.3. La modificación de los puntajes para acceder a cada categoría

A partir de 1997 se produjo una innovación de suma relevancia para el proceso de evaluación: se establecieron los puntajes para la asignación de cada una de las categorías. La incorporación de puntajes y la consiguiente atribución de puntos para cada actividad -desarrollada en el siguiente apartado- mostraron la necesidad de incorporar "métricas" para acelerar el proceso de evaluación, pero sobre todo de jerarquizar y comparar actividades académicas a nivel geográfico, institucional y disciplinar. Los mismos criterios rigen para todo el sistema universitario argentino.

La primera modificación de puntajes se produjo en 2008 (Cuadro 1). Éstos revelan una mayor exigencia en el paso de la categoría III a la II, y la diferenciación en el caso de la categoría V de dos situaciones: aquel docente que pretendía ingresar debía reunir 100 puntos, pero aquel que ya poseía una CEI V debía alcanzar 150 puntos. La primera reforma da cuenta de una limitación en el ascenso a una categoría que integra el banco de evaluadores, con lo cual el programa en este aspecto se torna más riguroso en otorgar una de las categorías con "poder" académico. También se observa esta rigurosidad para aquellos que ya participan del programa en la categoría más baja y pretenden permanecer.

Cuadro 1. Puntajes para la asignación de cada CEI

El segundo ajuste tuvo lugar en 2014 (Cuadro 1). Éste estipuló una suba del puntaje para ser categoría I desde 1100 a 1200 puntos y se incorporaron dos situaciones para la categoría V: en caso de que el postulante desee mantener la categoría V deberá alcanzar 150 puntos; en caso de que ingrese por primera vez sólo deberá cumplir con los criterios cualitativos, es decir: no será sometido a evaluación. La primera modificación se corresponde con la necesidad de mantener una cúspide limitada de categorías altas, que son las que obtienen más recursos económicos e integran –junto a la categoría II- el banco de evaluadores. Asimismo, para aquellos docentes investigadores categoría I se incorporó una nueva norma: quienes obtengan o hayan obtenido la categoría I en dos categorizaciones consecutivas, mantendrán la categoría obtenida hasta su desvinculación del programa de incentivos. Dicha modificación se debe a la necesidad de evitar la evaluación de docentes investigadores con sobrados antecedentes y de aligerar los procesos de categorización.

2.4. Los ajustes en la grilla de evaluación

El artículo 17 del nuevo manual elaborado en 1997 facultó al CIN a confeccionar una grilla de evaluación con criterios de evaluación cuantitativos (puntaje asignado a cada uno de los aspectos del curriculum vitae) para ser empleada durante el desarrollo de las evaluaciones en las comisiones. Como se observa en elCuadro 2, mediante una grilla se especificó el puntaje máximo que el evaluador podía asignar a cada aspecto, de acuerdo a los datos completados por el docente-investigador, así como el valor de cada sub-aspecto.11 Ambos elementos -puntajes y grilla- pueden ser entendidos como la implementación de un dispositivo que busca reducir el componente de subjetividad de los pares evaluadores, como también un intento de lograr una mayor homogeneidad de criterios entre tan diversas disciplinas e instituciones universitarias.

Cuadro 2. Puntajes para cada aspecto del curriculum. Grilla de evaluación

A partir del manual de procedimientos elaborado en 1997, la lista de actividades o aspectos del curriculum que se evaluaban siguió siendo la misma (en términos generales) que en la versión original, aunque se observa la permanencia de la actividad de transferencia como aspecto específico y la ausencia de una mención explícita a la extensión, actividad señalada en el decreto de creación del programa cuando se expresa que el objetivo es promover el desarrollo integrado de la carrera académica en las universidades nacionales, entendiendo por ello la realización conjunta de actividades de "docencia, investigación, extensión y gestión". A continuación se especifican los aspectos del curriculum contemplados con sus respectivos puntajes entre 1997 y 2014.

La elaboración de una grilla se entiende como una iniciativa que buscó, en principio, y ponderar y jerarquizar las actividades académicas. Asimismo, por un lado se buscó premiar e incentivar la realización de algunas actividades más que otras, pero por el otro, al colocarse un puntaje máximo en cada aspecto, se reforzó la necesidad de acreditar antecedentes en cada una de las actividades y no centrarse en una sola o en unas pocas.

En 1997, un punto fuertemente discutido fue el puntaje alto otorgado a las tareas de gestión; como se desprende de la grilla, el puntaje que se puede obtener en gestión es igual a aquel que surge de la formación académica, de la docencia o de la investigación. La disparidad de opinión respecto a la inclusión de este aspecto estará presente a lo largo de toda la aplicación del programa.

Como se observa, en 2003 se reajustaron los puntajes (Cuadro 2). Por un lado, el cambio en "Producción científica" y "Formación de recursos humanos" convirtió a ambas actividades en las dos que más puntaje otorgaban. Se observa entonces la intención del nuevo manual de premiar/promover, en particular, estas dos actividades, es decir: a aquellos que publican y que dirigen y forman tesistas, becarios e investigadores.

El manual de 2008 nuevamente cambia la valoración de cada aspecto (Cuadro 2). Se observa la suba de los puntajes máximos de tres actividades: "Investigación", "Producción en Transferencia" y "Formación de Recursos Humanos". Las dos últimas se transformaron en las dos que más puntaje permiten acumular. Más aún, de acuerdo a la grilla, la formación de tesistas de posgrado, becarios e investigadores es la actividad que más se "premia" entre las actividades del docente investigador. Lo anterior ha conducido a una persistente crítica al programa por desfavorecer así la formación de recursos en el grado. Otra lectura al respecto ha sido que la formación de recursos en el grado es un objetivo inherente a la actividad docente, con lo cual ya estaría evaluada dicha actividad en el aspecto relativo a la docencia.

Hasta aquí, las modificaciones producidas en 2008 han sido las más profundas, ya que se cambiaron los puntajes, las condiciones cualitativas, las condiciones cuantitativas y se introdujo una nueva grilla (de mínimos y máximos). Estas distintas transformaciones responden centralmente a dos factores: mejorar el proceso de evaluación y adecuar los objetivos del programa al contexto científico-tecnológico nacional. Por un lado, mediante la precisión de las condiciones cualitativas y la elaboración de una grilla de mínimos y máximos se buscó agilizar la instancia de la evaluación. Por el otro, la suba de los puntajes para acceder a cada categoría, el reemplazo de algunas condiciones cualitativas por otras y las modificaciones de los puntos de cada actividad se relacionan con un contexto nacional caracterizado por un progreso significativo en el área científica. La sostenida política de formación de recursos humanos (manifiesta, por ejemplo, en la ampliación de los ingresos a CONICET, tanto de becarios como de investigadores), el aumento del financiamiento en ciencia y tecnología y la mayor disponibilidad de instrumentos de financiamiento de proyectos de investigación científica y tecnológica son algunas de las iniciativas que condujeron a modificar criterios de evaluación del programa.

Finalmente, resta mencionar los cambios introducidos en el manual de procedimientos de 2014. Si bien no hubo modificaciones en los grandes aspectos (Cuadro 2), se ajustaron por primera vez los puntajes al interior de cada uno de ellos. Entre los más destacados se encuentran los siguientes:

  • En producción en docencia, la dirección de tesis de grado pasó de 50 a 80 puntos.
  • En transferencia se incrementó el puntaje de todos los productos: patentes pasó de 150 a 200 puntos, transferencia de investigación de 100 a 180 puntos, divulgación de 50 a 100 puntos, servicios especiales de 60 a 100 puntos y extensionistas de 20 a 30 puntos.
  • En formación de recursos humanos, la dirección de becarios o tesistas de posgrado en curso pasó de 50 a 80 puntos.

 

Se sostiene que la primera modificación fue una respuesta a la crítica persistente - mencionada más arriba- sobre la baja puntuación a la dirección de tesis de grado. La segunda da cuenta directamente de la adecuación de los criterios a un docente investigador con un perfil orientado a la ciencia aplicada, mientras que la tercera guarda relación con el aumento de financiamiento para becas de posgrado a nivel nacional.

Conclusiones

La conclusión de este análisis es que veinte años de implementación significaron para el programa de incentivos profundas transformaciones. En lo que respecta a los criterios de evaluación, los cambios respondieron a la demanda de quienes intervinieron en el proceso de implementación: autoridades gubernamentales y universitarias y pares evaluadores, aunque también fueron una adecuación al nuevo contexto científico y tecnológico nacional marcado por una nueva política para el sector.

En primer lugar, cabe destacar que el sistema de evaluación del programa de incentivos adquirió con el tiempo un alto nivel de estandarización, transparencia y sistematicidad. Los procedimientos, los criterios y los resultados son públicos. Existe un manual de procedimientos y una grilla de evaluación de fácil acceso que contiene los criterios cualitativos y cuantitativos, así como los puntajes que se otorga por cada aspecto y sub-aspecto que se evalúa.

En segundo lugar, la función de la evaluación en el programa es fundamentalmente distribuir recursos: un plus salarial, una categoría que otorga cierto status y poder académico para los que llegan a la cima, ya que están en condiciones de evaluar la trayectoria de sus pares al pasar a formar parte de un banco de evaluadores. El programa no constituye una herramienta para dirigir el desarrollo de la investigación, no define disciplinas o temas estratégicos ni zonas geográficas o instituciones particulares, sino que contempla por igual a todas ellas. La explicación de ello reside en que el objetivo original fue fomentar la realización de la investigación en las universidades de gestión pública mediante la distribución de recursos, y ello ha permanecido inalterable a lo largo del tiempo.

En tercer lugar, si bien el programa fomenta la realización de actividades académicas específicas mediante la jerarquización y la modificación de puntajes en orden de alentar ciertos productos o tareas, funciona como premio antes que como incentivo, ya que las transformaciones de criterios y puntajes ocurren y se dan a conocer meses antes de cada categorización, con lo cual el docente investigador no tiene la posibilidad de adecuar sus actividades según aquellas a las cuales se otorga mayor valoración. Antes que un incentivo, el programa distribuye un premio, es decir: una recompensa que llega luego de realizada cierta labor. Las modificaciones de los criterios responden a un conjunto de tareas que los docentes investigadores vienen realizando.

En cuarto lugar, el sistema de evaluación del programa de incentivos ha reordenado las relaciones entre el gobierno, la universidad, las unidades académicas y los investigadores. Los gestores universitarios se han convertido en un actor clave dentro del proceso de implementación debido a que para ellos la evaluación del programa constituye una herramienta de gestión central al interior de la institución. El impacto principal ha sido que las nuevas prácticas de evaluación han insertado nociones estandarizadas de calidad y de desempeño en investigación y han objetivado el status en todas las disciplinas e instituciones a nivel nacional.

Por último, las modificaciones en los criterios de evaluación han sido producto de la demanda de las autoridades de aplicación del programa y de los propios  beneficiarios, es decir: de las universidades y de los docentes investigadores, y de un nuevo contexto para el desarrollo del trabajo académico en el país. Por un lado, los criterios de evaluación se han modificado para lograr una mejor implementación del sistema de evaluación. En 1997 se creó un manual de procedimientos para optimizar el proceso a través de la definición explícita de criterios y de la incorporación de dispositivos como una grilla de evaluación y una tabla de puntajes y, para ajustar el nivel de participación, restringiendo el ingreso al programa por medio de la incorporación de condiciones cualitativas para cada categoría, que redujeron la cantidad de posibles postulantes. Cabe decir que su diseño, en una primera etapa que va desde 1994 hasta 2003, fue consecuencia de la adecuación de la estructura de los beneficiarios a los objetivos del programa. Desde la SPU se examinó que el volumen y los rasgos de los categorizados (CEI, dedicación, cargo docente) coincidieran con lo establecido por la política. Por otro lado, a partir de 2003 los criterios se modificaron con el objeto de optimizar el proceso: se buscó que el programa fuera más abierto y más extenso en lo que respecta al número de participantes, esperando que ello aumentara la influencia, aunque sabiendo que afectaría la efectividad de la evaluación. De modo que los criterios se modificaron también porque cambió profundamente el contexto científico y tecnológico nacional. Legitimidad y participación fueron dos elementos importantes en el período de recuperación del programa. Las transformaciones ya no respondieron únicamente a mejorar el funcionamiento del programa, sino que apuntaron fundamentalmente a otorgarle validez y aceptación por medio de convocar a una mayor cantidad de docentes investigadores e instituciones a participar.

Los cambios en los criterios en 2008 y en 2014 acentuaron esta tendencia. El ajuste sistemático de las condiciones cualitativas, la incorporación de una grilla de mínimos y máximos, los nuevos puntajes para cada categoría y la transformación de los puntos para algunas actividades pusieron de manifiesto una adecuación permanente de los criterios de evaluación a las condiciones contextuales de realización del trabajo académico en el país, marcadas por una política sostenida de aumento del financiamiento en ciencia y tecnología, fomento a la formación de recursos humanos y discusión de criterios de evaluación del personal científico-tecnológico a nivel nacional.

En resumen, la implantación del programa ha supuesto un punto de inflexión en la dinámica del sistema de investigación universitario argentino. La realización de una convocatoria sistemática, transparente y con criterios de evaluación que se ajustan periódicamente, juzgada por comités regionales multidisciplinarios, generó expectativas anteriormente inexistentes en el ambiente académico generalizado a nivel país. Asimismo, la estructura del proceso de evaluación, el nivel de autoridades que involucra y la diversidad entre comunidad de académicos y autoridades gubernamentales fueron claramente importantes para una implementación efectiva del programa.

Notas

1. El 17 de Junio de 2015 se aprobó, por el decreto No 1153 del Ministerio de Educación, la extensión del Programa de Incentivos "a todo el sistema universitario, de manera que también las universidades de gestión privada y los institutos universitarios dependientes de las Fuerzas Armadas y de Seguridad, puedan integrar a sus docentes a un sistema que categorice a sus investigadores con parámetros y criterios homogéneos". De esta manera, en la convocatoria a Categorización 2014/2015 se presentaron por primera vez docentes provenientes del conjunto de instituciones universitarias argentinas.

2. Las regiones son siete: Noreste, Noroeste, Centro Este, Centro Oeste, Metropolitana, Bonaerense y Sur. Fueron delimitadas por resolución del Ministerio de Educación en 1995, a través de la cual se crearon los Consejos de Planificación Regional de la Educación Superior (CPRES). Éstos fueron constituidos por el artículo 10 de la LES y constituyen una institución peculiar, dado que reúnen a todos los actores de la educación superior argentina: universidades nacionales y privadas, gobierno nacional y gobiernos provinciales.

3. Mientras que en 1993 fue establecido el requisito de dos cursos durante el año para las dedicaciones exclusiva y semi-exclusiva, con un mínimo a su vez de cursos de grado del 50% y un curso o más durante el año para las dedicaciones simples, en 1997 esto fue modificado. El objetivo fue que percibieran el monto quienes efectivamente cumplían con la exigencia de demostrar que una parte sustantiva de su dedicación se volcaba a tareas de docencia.

4. Para más detalles véase: VARSAVSKY, O. (2010 [1969]): Ciencia, política y cientificismo, Buenos Aires, Capital Intelectual.

5. Creado por decreto del presidente Raúl Alfonsín en diciembre de 1985, el CIN nuclea a las universidades nacionales y provinciales y los institutos universitarios. Es el órgano de consulta obligada en la toma de decisiones de trascendencia para el sistema universitario argentino. Junto con el Consejo de Rectores de Universidades Privadas y representantes de los CPRES, integra el Consejo de Universidades, que preside el Ministro de Educación de la Nación.

6. Un análisis del funcionamiento de la comisión mixta puede verse en Prati (2003).

7. En 2003 y en 2008 no se consideró la exigencia relativa al cargo mínimo para las CEI I, II y III.

8. Desde 2003 se agregó que, en casos de cargos interinos, se debe poseer tres años de antigüedad mínima.

9. En 2001, debido a la profunda crisis de la vida política, social y económica de la Argentina, el programa de incentivos mantuvo su vigencia pero atravesó un período de incertidumbre. Durante 2001, los docentes investigadores no percibieron el incentivo; recién a comienzos de 2002, los incentivados cobraron la primera cuota correspondiente al año anterior. Legalizando esta situación, una resolución de abril de 2002 dispuso cambiar la forma y periodicidad de este pago, determinando que desde ese momento el incentivo sería percibido por año de ejercicio vencido.

10. Para más detalles ver: Documento I y Documento II de la Comisión Asesora del MCTIP sobre Evaluación del Personal Científico y Tecnológico: hacia una redefinición de los criterios de evaluación del personal científico y tecnológico. Ambos documentos están disponibles en: http://www.mincyt.gob.ar/accion/pdts-banco-de-proyectos-de-desarrollo-tecnologico-y-social-9173.

11. La grilla completa con el valor de cada sub-aspecto se encuentra disponible en el sitio oficial de la SPU: http://portales.educacion.gov.ar/spu/incentivos-a-docentes-investigadores/categorizacion/.

Bibliografía

1 ARAUJO, S. (2003): Universidad, investigación e incentivos. La cara oscura, Buenos Aires, Ediciones Al Margen.         [ Links ]

2 CRUZ-CASTRO, L. y SANZ-MENÉNDEZ, L. (2008): "Research Evaluation in Transition: Individual versus Organizational Assessment in Spain", en R. Whitley y J. Gläser: The Changing Governance of the Sciences, Series: Sociology of the Sciences Yearbook, vol. 26, Dordrecht, Springer, pp. 205-223.         [ Links ]

3 FERNÁNDEZ BERDAGUER, L. y VACCAREZZA, L. (1996): "Estructura social y conflicto en la comunidad científica universitaria: la aplicación del programa de incentivos para docentes investigadores en las universidades argentinas", en M. Albornoz, P. Kreimer y E. Glavich (eds.): Ciencia y sociedad en América Latina, Bernal, Editorial de la Universidad Nacional de Quilmes, pp. 250-264.         [ Links ]

4 FLORES VALDÉS, J. (2012): "Los orígenes del Sistema Nacional de Investigadores", en S. Vega y León (coord.): Sistema nacional de investigadores retos y perspectivas de la ciencia en México, Universidad Autónoma Metropolitana y Universidad de Xochimilco, México.         [ Links ]

5 GALAZ-FONTES, J. y GIL-ANTÓN, M. (2013): "The impact of merit-pay systems on the work and attitudes of Mexican academics", Higher Education, vol. 66, no 3, pp. 357-374.

6 GARCÍA DE FANELLI, A. (2005): Universidad, organización e incentivos: desafíos de la política de financiamientos frente a la complejidad institucional, Buenos Aires, Miño- y-Dávila.         [ Links ]

7 GEUNA, A. y MARTIN, B. (2003): "University research evaluation and funding: an international comparison", Minerva, n° 41, vol. 4, pp. 277-304.         [ Links ]

8 GLÄSER, J. y GRIT, L. (2007): "Evaluation without Evaluators: The Impact of Funding Formulae on Australian University Research", en R. Whitley y J. Gläser: The Changing Governance of the Sciences: Series: Sociology of the Sciences Yearbook, vol. 26, Dordrecht, Springer, pp. 127-151.         [ Links ]

9 HENKEL, M. (1999): "The modernization of research evaluation: The case of the UK", Higher Education, no 38, pp. 105–122.

10 KNELLER, R. (2010): "The changing governance of Japanese public policy science", en R. Whitley, J. Gläser y T. Engvall: Reconfiguring knowledge production: changing authority relations in the science and their consequences for intellectual innovation, Oxford University Press, pp. 110-145.         [ Links ]

11 LANGEL, S. (2007): "The basic state of research in Germany: conditions of knowledge production pre-evaluation", en R. Whitley y J. Gläser: The Changing Governance of the Sciences: Series: Sociology of the Sciences Yearbook, vol. 26, Dordrecht, Springer, pp. 153-170.         [ Links ]

12 LATTUADA, M. (2014): "La evaluación de la investigación en las universidades argentinas. Contextos, culturas y limitaciones", Revista Iberoamericana de Ciencia, Tecnología y Sociedad -CTS, no 27, vol. 9, pp. 157-164.         [ Links ]

13 MOLAS-GALLART, J., (2012): "Research Governance and the Role of Evaluation A Comparative Study", American Journal of Evaluation, no 33, vol. 4, pp. 583-598.         [ Links ] 

14 MUNDET, E. (1998): "La nueva reglamentación del programa de incentivos a los docentes investigadores de las universidades nacionales", La universidad, Boletín Informativo de la Secretaría de Políticas Universitarias, año 5, n° 12, pp. 5-8.         [ Links ]

15 MUSSELIN, C. (2013): "How peer review empowers the academic profession and university managers: Changes in relationships between the state, universities and the professoriate", Research Policy, vol. 42, no 5, pp. 1165–1173.

16 PALACIOS, C., CURTI, C. y ALONSO, A. (1996): "El programa de incentivos a tres años de su creación". La Universidad, Boletín Informativo de la Secretaría de Políticas Universitarias, año 3, n° 7, Ministerio de Cultura y Educación, pp. 3-8.         [ Links ]

17 PRATI, M. (2003): "El programa de incentivos a los docentes investigadores: formulación, implementación e impacto", tesis de maestría, FLACSO, Buenos Aires.         [ Links ]

18 REYES, R. y SURIÑACH, J. (2012): "Las evaluaciones internas del SNI: coherencias o coincidencias", Secuencia, no 83, pp. 179-217.         [ Links ]

19 RIP, A. (1994): "The Republic of Science in the 1990s", Higher Education, vol. 28, N° 1, pp. 3-23.         [ Links ]

20 SANZ MENÉNDEZ, L. (2014): "La evaluación de la ciencia y la investigación", RES. Revista Española de Sociología, no 21, pp. 137-148.         [ Links ]

21 SARTHOU, N. (2013): "Los sistemas de evaluación de la investigación y la universidad en América Latina: ¿distintos sistemas para un mismo fin?", Revista Gestión Universitaria, vol. 6, no 1, s/pp.         [ Links ]

22 SARTHOU, N. (2014): "Entendiendo la política pública a través de sus instrumentos: el Programa de Incentivos a Docentes Investigadores de Universidades Nacionales", Documentos y Aportes en Administración Pública y Gestión Estatal, vol. 22, no 14, pp. 71-102.         [ Links ]

23 SARTHOU, N. y ARAYA, J. M. (2015): "El Programa de Incentivos a Docentes Investigadores en Argentina: a dos décadas de su implementación", Ciencia, Docencia y Tecnología, en prensa.         [ Links ]

24 SECRETARÍA DE POLÍTICAS UNIVERSITARIAS (2011): Anuario de Estadísticas Universitarias 2011, Ministerio de Educación, Argentina.         [ Links ]

25 SOLANO BENAVIDES, E. y NAVARRO, G. (2012): "Remuneración salarial eficiente en la educación superior en Colombia", Economía, no 33, pp. 43-63.         [ Links ]

26 SUTZ, J. (2014): "Calidad y relevancia en la investigación universitaria: apuntes para avanzar hacia su convergencia", Revista Iberoamericana de Ciencia, Tecnología y Sociedad-CTS, no 27, vol. 9, pp. 63-83.         [ Links ]

27 TIRAMONTI, G. (1999): "Los cambios en la universidad: una modernización diferenciadora", en G. Tiramonti, C. Suasnábar y V. Seoane: Políticas de modernización universitaria y cambio institucional, Serie: Estudios e Investigaciones, vol. 38, La Plata, Universidad Nacional de La Plata, pp. 9-46.         [ Links ]

28 VELHO, L. (2011): "Conceitos de Ciência e a Política Científica, Tecnológica e de Inovação", Sociologias, año 13, no 26, pp. 128-153.         [ Links ]

29 VESSURI, H. (1996): "La calidad de la investigación en Venezuela: elementos para el debate en torno al programa de promoción del investigador", Interciencia, no 21, vol. 2, pp. 98-102.         [ Links ]

30 WHITLEY, R. (2007): "Changing Governance of the Public Sciences: The Consequences of Establishing Research Evaluation Systems for Knowledge Production in Different Countries and Scientific Fields", en R. Whitley y J. Gläser (eds.): The Changing Governance of the Sciences, Series: Sociology of the Sciences Yearbook, vol. 26, Dordrecht, Springer, pp. 3-27.         [ Links ]

31 WHITLEY, R. y GLÄSER, J. (2007): The Changing Governance of the Sciences The Advent of Research Evaluation Systems, Series: Sociology of the Sciences Yearbook, vol. 26, Dordrecht, Springer, pp. 3-27.         [ Links ]

Normativas consultadas

Poder Ejecutivo Nacional, Decreto 2427/93, Buenos Aires, 19/11/93. Creación del Programa de Incentivos a Docentes-Investigadores de Universidades Nacionales.

Ministerio de Cultura y Educación, Resolución Ministerial No 2307/97. Apruébase el Manual de Procedimientos para la implementación del incentivo previsto por el Decreto 2427/93.

Ministerio de Educación, Ciencia y Tecnología, Resolución No 811/2003.

Universidades Nacionales - Manual de Procedimientos. Apruébase un nuevo Manual de Procedimientos 2004.

Secretaría de Políticas Universitarias y Secretaría de Ciencia y Tecnología e Innovación Productiva. Universidades Nacionales. Resolución Conjunta 114/2004 y 451/2004. Convócase a la categorización de los docentes-investigadores, en los términos del Manual de Procedimientos aprobado por la Res. N° 811/2003-MECT, para la implementación del Programa de Incentivos a los Docentes Investigadores. Pautas de evaluación.

Ministerio de Educación. Universidades Nacionales. Resolución No 1879/2008. Apruébase un nuevo Manual de Procedimientos 2009.

Ministerio de Educación, Universidades Nacionales. Resolución No 1543. Apruébase un nuevo Manual de Procedimientos 2014.

 

Creative Commons License Todo el contenido de esta revista, excepto dónde está identificado, está bajo una Licencia Creative Commons