Ya he explicado en otros artículos y en el libro Los amos
del mundo. Las armas del terrorismo financiero que escribí con Vicenç Navarro,
que los recortes de gasto que llevan consigo las políticas de austeridad son un
auténtico engaño. Se justifican diciendo que solo con ellos se puede recortar
la deuda para que a continuación vuelva a generarse crecimiento y empleo, pero
lo que demuestran los estudios empíricos es lo contrario. Al recortar el gasto
en etapas de recesión (ya de por sí de gasto insuficiente) lo que sucede es que
disminuye la actividad, el empleo y los ingresos y que, por tanto, finalmente
aumenta aún más la deuda.
Además, cuando estas
políticas de recortes se presentan como de ‘austeridad’ tienen también otro
efecto no menos importante a la hora de garantizar el sometimiento de la
población. Cuando lo que se reclama es la austeridad -algo con lo que nadie
puede estar en desacuerdo- se está sugiriendo que es imprescindible una terapia
frente a un despilfarro anterior. O, como suele decirse, para pagar el pecado
de haber vivido “por encima de nuestras posibilidades”. Su imposición genera en
la gente un sentimiento de culpa que atemoriza, confunde y paraliza.
Pero, con independencia de
ello, los recortes de gasto público social también llevan consigo otras
consecuencias muy peligrosas de los que se habla aún menos. Por ejemplo, un
mayor control político del conocimiento.
Con la excusa de que hay que
recortar gastos se ha reducido la financiación a la universidad pública y se
están aprovechando los recortes para concederle un papel mucho más determinante
aún en toda la actividad universitaria a la evaluación de la actividad
investigadora del personal universitario, que en España se realiza desde hace
años mediante los llamados sexenios (unos complementos salariales que nacieron
para retribuir la productividad investigadora y que se han convertido en medida
de su “calidad”) y los procedimientos de acreditación que llevan a cabo las
agencias de evaluación nacional o autonómicas.
Yo soy totalmente partidario
de que se evalúe la actividad docente e investigadora de los universitarios. Y
de hecho, cuando fui vicerrector de ordenación académica y profesorado de la
universidad de Málaga entre 1987 y 1990, puse en marcha uno de los primeros
procedimientos de evaluación que se realizaron en España, tanto en los dos
primeros ciclos como en el doctorado.
Pero lo que ahora se está
produciendo es un verdadero control político del conocimiento cuando se
empiezan a establecer las nuevas obligaciones docentes (horas de clase) o
cuando se hace depender la participación en comisiones de selección, la
dirección de tesis doctorales o la promoción a las diferentes categorías
contractuales o del funcionariado, entre otras cosas, en función de los
sexenios o de la acreditación conseguidos en procesos de evaluación que, sobre
todo en algunas áreas del conocimiento, son claramente arbitrarios y muy sesgados
ideológicamente.
En España, como en otros
países, estos procesos se basan originalmente en criterios puramente
cuantitativos que simplifican al extremo la valoración de la producción
científica, reduciendo o eliminando por completo cualquier atisbo de debate o
controversia sobre su calidad efectiva, mediante la aplicación de índices que
solo pueden tener en cuenta (en el mejor de los casos) el número de
publicaciones más o menos ponderado por rangos no menos discutibles referentes
a las revistas donde aparecen, y el número de citas.
Los efectos de este tipo de
evaluaciones son claros. Los investigadores, en lugar de tener como objetivo de
su actividad científica el descubrir nuevos conocimientos, han de orientarla
necesariamente a obtener el mayor número de publicaciones consideradas como
valiosas por dichos indicadores. Así ha de ser, pues de ello va a depender su
financiación, su promoción profesional, su capacidad de decisión y su
incardinación en la academia o incluso las horas de clase que van a tener que
impartir.
Ese incentivo perverso tiene
multitud de efectos negativos. Así, se promueve la firma colectiva como
práctica oportunista para lograr más y más rápidas aportaciones susceptibles de
ser valoradas positivamente aunque en la mayoría de las ocasiones eso no
responda ni a la realidad de la actividad realizada por cada investigador, ni a
necesidades de división del trabajo científico que se realiza.
Además, la exigencia de
multiplicar al máximo la publicaciones lleva a que resulte más rentable a los
investigadores el dedicarse a ‘versionar’ sin descanso un trabajo,
descubrimiento o planteamiento o modelo original a base de introducir muy
pequeñas variaciones posteriores que se dirigen a diferentes revistas, sin que
ninguna de ellas suponga alguna novedad importante o un incremento efectivo del
conocimiento.
Un estudio realizado en
Francia al respecto ha mostrado claramente que aunque el número de
publicaciones en el área de economía se ha triplicado desde la mitad de los
años 90 del siglo pasado no puede decirse que haya mejorado sustancialmente su
calidad (Bosquet, C., Combes, P-Ph., y Linnemer, L., “La publicationd’articles
de recherche en économie en France en 2008. Disparitésactuelles et
évolutionsdepuis 1998″. Rapportpour la Directiongénérale
de la recherche et de l’innovation, DGRI, 2010).
Cualquier investigador que se
comporte con un mínimo de racionalidad en este régimen de evaluación debe
consagrar mucho más tiempo y esfuerzo a multiplicar las publicaciones
preparando diversas versiones y a estar presente allí donde se puede conseguir
influencia o redes que faciliten la publicación, que a investigar. Y así
resulta que estos métodos de evaluación, aparentemente encaminados a medir la
productividad y la calidad académica, incentivan comportamientos que limitan
ésta última y que se basan en un sentido claramente distorsionado de la
primera. No reflejan la productividad como una mayor capacidad de aportar
conocimiento efectivo sino como la de colocar menores dosis de él en mayor
número de publicaciones. Se promueve la productividad “publicacional”, si vale
el barbarismo, que no tiene mucho que ver en estas condiciones con la
productividad científica.
La evaluación cuantitativa de
los resultados del conocimiento tiene otro efecto no menos negativo. Para poder
llevarla a cabo es por lo que se ha ido limitando a tomar en consideración los
artículos publicados en revistas, que pueden ser jerarquizados y catalogados en
función de dónde se publiquen, en detrimento del conocimiento publicado en libros
o cualquier otro tipo de monografías, que hoy día no tienen prácticamente valor
alguno, o muy escaso, a la hora de acreditarse o de ser evaluado para recibir
sexenios.
Las consecuencias de esto
último son variadas. Una es que los investigadores que quieran ser evaluados
positivamente solo deben abordar temas que se puedan exponer en el espacio
reducido y en la forma convencional que se suele establecer en las revistas. Tienen
que renunciar así a exponer pasos intermedios, derivaciones de sus análisis,
matices y, sobre todo, las dudas y preguntas y las cuestiones transversales y
sintéticas que cada vez son más necesarias para poder conocer la realidad, pero
que es casi imposible trasladar a los espacios muy especializados y por
definición más cerrados, en todos los sentidos del término, de las revistas.
La generalización de la
publicación en revistas ha estandarizado la expresión del conocimiento y el
conocimiento mismo al establecer no solo el encuadre formal de los textos sino
los contenidos, los enfoques, e incluso los postulados e hipótesis de partida
“convenientes” en cada una de ellas, de modo que salirse de ese saber
establecido conduce de modo prácticamente inevitable al ostracismo y a la
imposibilidad de ser evaluado positivamente, pues es seguro que no se podrá
publicar en las revistas que sirven de referencia como de mayor calidad e
impacto.
Es por eso que el poder de
evaluación efectivo recae en última instancia en los equipos que mantienen y
evalúan las publicaciones en las revistas que encabezan los ranking de las más
destacadas: las que están formadas por miembros de los departamentos y grupos
de investigación más destacados, que son aquellos cuyos miembros publican en
las revistas más destacadas. Así se crea un círculo vicioso de conformismo y de
redes de autentico clientelismo en donde es muy difícil que penetre la luz de
enfoques novedosos, alternativos o contrarios a lo que habitualmente se publica
en esas revistas por los autores solo de aquello que sus evaluadores consideran
que es publicable, y que lógicamente nunca podrá ser diferente de lo que
sostienen o defienden. ¿Cómo tratar de publicar en una revista si el autor o
autores no se ajustan a los criterios de publicación o enfoques normalizados
que mantiene?
En definitiva, el predominio
de este tipo de evaluación ahoga la disidencia, la duda, la innovación, la
ruptura con el saber establecido…, es decir, justo los factores que sabemos
perfectamente que han sido siempre los que han promovido realmente el
conocimiento y los que han hecho que de verdad avance la ciencia.
Lógicamente, no puede ser muy
ajeno a todo ello el hecho de que la gestión de los trabajos que se incluyen en
el ‘Journal Citation Reports’ (JCR en la jerga de los investigadores) que sirve
como base de referencia sacrosanta de la evaluación cuantitativa esté
controlado por una sola y poderosa multinacional, Thompson Reuters, o que estos
métodos de evaluación se hayan comenzado a aplicar con especial disciplina en
ciencias sociales, y muy especialmente en economía, justo en los años en que se
vienen imponiendo las políticas neoliberales. No es casualidad que éstas se
justifiquen con el paradigma neoclásico que predomina en las publicaciones de
las revistas mejor consideradas y lo cierto es que pueden aplicarse más cómodamente
en la medida en que eludan más ampliamente la crítica social. Lo que puede
conseguirse cuando el pensamiento económico y social en general se
hiperespecializa y pierde el contacto con la realidad al desarrollar un tipo de
conocimiento encerrado en sí mismo, abstracto y completamente ajeno a la
complejidad e interconectividad que tienen los fenómenos económicos y sociales.
Ahora bien, si en casi todo
el mundo viene ocurriendo todo esto, en España la situación es mucho más grave
porque los procesos de evaluación son opacos y ni siquiera los criterios
cuantitativos se aplican objetivamente sino a nuestra carpetovetónica manera
clientelar y corrupta.
Aquí predomina una
arbitrariedad constante que da lugar a decisiones contradictorias, a
resoluciones caprichosas y sin fundamento alguno, que muchas veces no pueden
disimular que se toman ad hoc o incluso ex post de haber decidido el resultado.
En el caso particular de la economía, que mejor conozco, se han hecho fuertes
grupos de poder de clara significación ideológica o al menos, por decirlo más
sutilmente, de evidente connivencia paradigmática, que aplicando este tipo de
criterios van consolidando una forma de investigar conservadora y uniformada
que poco a poco va dejando fuera del juego académico a quienes optan por
generar cualquier otro tipo de conocimiento o por difundirlo a través de otras
publicaciones, cuyo impacto, por cierto, suele mucho mayor, la mayoría de las
veces, que el de las revistas convencionales.
Al igual que pasa fuera de
España, la producción bibliográfica mejor valorada en economía presenta, eso
sí, una gran variedad de temáticas, pero una extraordinaria homogeneidad que se
traduce en un gran irrealismo y abstracción, en una gran coincidencia en las
perspectivas de análisis y en la asunción de conclusiones que terminan
justificando un mismo tipo de políticas.
Es por eso que puede
afirmarse que la imposición de este tipo sesgado de evaluación, en todos los
campos del saber científico pero sobre todo en los que tienen más que ver con
juicios de valor y con las diferentes preferencias sociales, como la economía,
es un claro intento de control (político) del conocimiento que se acelera en
estos momentos gracias a la oportunidad que proporcionan los recortes asociados
a las políticas de austeridad.
Los resultados de son tan
paradójicos y significativos como el que mencionaba recientemente el profesor
de Sociología de la
Universidad de Oviedo, Holm-DetlevKöhler: la investigadora
Saskia Sassen que acaba de recibir el Premio Príncipe de Asturias de Ciencias
Sociales, “una de las científicas más importantes de nuestra época, no ha
conseguido ningún sexenio, ninguna acreditación, frente a los criterios de
nuestras agencias de evaluación, que anteponen siempre el mismo criterio: tres
publicaciones JCR (Journal Citation Reports) en los últimos cinco años. Sassen
no tiene ni una, sino que ha publicado libros e informes, fruto de proyectos de
investigación de verdad y referencias fundamentales para académicos
comprometidos, ha publicado numerosos artículos en medios de gran difusión,
etc., pero se ha resistido a la práctica de inflar su currículum con artículos
estandarizados sin interés ni lectores, más allá de círculos de amigos de
citación mutua”.
Juan Torres López
Ganas de Escribir
http://juantorreslopez.com/impertinencias/austeridad-y-control-del-conocimiento/
Juan Torres López
Ganas de Escribir
http://juantorreslopez.com/impertinencias/austeridad-y-control-del-conocimiento/
Ya he explicado en otros artículos y en el libro Los amos del mundo. Las armas del terrorismo financiero
que escribí con Vicenç Navarro, que los recortes de gasto que llevan
consigo las políticas de austeridad son un auténtico engaño. Se
justifican diciendo que solo con ellos se puede recortar la deuda para
que a continuación vuelva a generarse crecimiento y empleo, pero lo que
demuestran los estudios empíricos es lo contrario. Al recortar el gasto
en etapas de recesión (ya de por sí de gasto insuficiente) lo que sucede
es que disminuye la actividad, el empleo y los ingresos y que, por
tanto, finalmente aumenta aún más la deuda.
Además, cuando estas políticas de recortes se presentan como de ‘austeridad’ tienen también otro efecto no menos importante a la hora de garantizar el sometimiento de la población. Cuando lo que se reclama es la austeridad -algo con lo que nadie puede estar en desacuerdo- se está sugiriendo que es imprescindible una terapia frente a un despilfarro anterior. O, como suele decirse, para pagar el pecado de haber vivido “por encima de nuestras posibilidades”. Su imposición genera en la gente un sentimiento de culpa que atemoriza, confunde y paraliza.
Pero, con independencia de ello, los recortes de gasto público social también llevan consigo otras consecuencias muy peligrosas de los que se habla aún menos. Por ejemplo, un mayor control político del conocimiento.
Con la excusa de que hay que recortar gastos se ha reducido la financiación a la universidad pública y se están aprovechando los recortes para concederle un papel mucho más determinante aún en toda la actividad universitaria a la evaluación de la actividad investigadora del personal universitario, que en España se realiza desde hace años mediante los llamados sexenios (unos complementos salariales que nacieron para retribuir la productividad investigadora y que se han convertido en medida de su “calidad”) y los procedimientos de acreditación que llevan a cabo las agencias de evaluación nacional o autonómicas.
Yo soy totalmente partidario de que se evalúe la actividad docente e investigadora de los universitarios. Y de hecho, cuando fui vicerrector de ordenación académica y profesorado de la universidad de Málaga entre 1987 y 1990, puse en marcha uno de los primeros procedimientos de evaluación que se realizaron en España, tanto en los dos primeros ciclos como en el doctorado.
Pero lo que ahora se está produciendo es un verdadero control político del conocimiento cuando se empiezan a establecer las nuevas obligaciones docentes (horas de clase) o cuando se hace depender la participación en comisiones de selección, la dirección de tesis doctorales o la promoción a las diferentes categorías contractuales o del funcionariado, entre otras cosas, en función de los sexenios o de la acreditación conseguidos en procesos de evaluación que, sobre todo en algunas áreas del conocimiento, son claramente arbitrarios y muy sesgados ideológicamente.
En España, como en otros países, estos procesos se basan originalmente en criterios puramente cuantitativos que simplifican al extremo la valoración de la producción científica, reduciendo o eliminando por completo cualquier atisbo de debate o controversia sobre su calidad efectiva, mediante la aplicación de índices que solo pueden tener en cuenta (en el mejor de los casos) el número de publicaciones más o menos ponderado por rangos no menos discutibles referentes a las revistas donde aparecen, y el número de citas.
Los efectos de este tipo de evaluaciones son claros. Los investigadores, en lugar de tener como objetivo de su actividad científica el descubrir nuevos conocimientos, han de orientarla necesariamente a obtener el mayor número de publicaciones consideradas como valiosas por dichos indicadores. Así ha de ser, pues de ello va a depender su financiación, su promoción profesional, su capacidad de decisión y su incardinación en la academia o incluso las horas de clase que van a tener que impartir.
Ese incentivo perverso tiene multitud de efectos negativos. Así, se promueve la firma colectiva como práctica oportunista para lograr más y más rápidas aportaciones susceptibles de ser valoradas positivamente aunque en la mayoría de las ocasiones eso no responda ni a la realidad de la actividad realizada por cada investigador, ni a necesidades de división del trabajo científico que se realiza.
Además, la exigencia de multiplicar al máximo la publicaciones lleva a que resulte más rentable a los investigadores el dedicarse a ‘versionar’ sin descanso un trabajo, descubrimiento o planteamiento o modelo original a base de introducir muy pequeñas variaciones posteriores que se dirigen a diferentes revistas, sin que ninguna de ellas suponga alguna novedad importante o un incremento efectivo del conocimiento.
Un estudio realizado en Francia al respecto ha mostrado claramente que aunque el número de publicaciones en el área de economía se ha triplicado desde la mitad de los años 90 del siglo pasado no puede decirse que haya mejorado sustancialmente su calidad (Bosquet, C., Combes, P-Ph., y Linnemer, L., “La publicationd’articles de recherche en économie en France en 2008. Disparitésactuelles et évolutionsdepuis 1998″. Rapportpour la Directiongénérale de la recherche et de l’innovation, DGRI, 2010).
Cualquier investigador que se comporte con un mínimo de racionalidad en este régimen de evaluación debe consagrar mucho más tiempo y esfuerzo a multiplicar las publicaciones preparando diversas versiones y a estar presente allí donde se puede conseguir influencia o redes que faciliten la publicación, que a investigar. Y así resulta que estos métodos de evaluación, aparentemente encaminados a medir la productividad y la calidad académica, incentivan comportamientos que limitan ésta última y que se basan en un sentido claramente distorsionado de la primera. No reflejan la productividad como una mayor capacidad de aportar conocimiento efectivo sino como la de colocar menores dosis de él en mayor número de publicaciones. Se promueve la productividad “publicacional”, si vale el barbarismo, que no tiene mucho que ver en estas condiciones con la productividad científica.
La evaluación cuantitativa de los resultados del conocimiento tiene otro efecto no menos negativo. Para poder llevarla a cabo es por lo que se ha ido limitando a tomar en consideración los artículos publicados en revistas, que pueden ser jerarquizados y catalogados en función de dónde se publiquen, en detrimento del conocimiento publicado en libros o cualquier otro tipo de monografías, que hoy día no tienen prácticamente valor alguno, o muy escaso, a la hora de acreditarse o de ser evaluado para recibir sexenios.
Las consecuencias de esto último son variadas. Una es que los investigadores que quieran ser evaluados positivamente solo deben abordar temas que se puedan exponer en el espacio reducido y en la forma convencional que se suele establecer en las revistas. Tienen que renunciar así a exponer pasos intermedios, derivaciones de sus análisis, matices y, sobre todo, las dudas y preguntas y las cuestiones transversales y sintéticas que cada vez son más necesarias para poder conocer la realidad, pero que es casi imposible trasladar a los espacios muy especializados y por definición más cerrados, en todos los sentidos del término, de las revistas.
La generalización de la publicación en revistas ha estandarizado la expresión del conocimiento y el conocimiento mismo al establecer no solo el encuadre formal de los textos sino los contenidos, los enfoques, e incluso los postulados e hipótesis de partida “convenientes” en cada una de ellas, de modo que salirse de ese saber establecido conduce de modo prácticamente inevitable al ostracismo y a la imposibilidad de ser evaluado positivamente, pues es seguro que no se podrá publicar en las revistas que sirven de referencia como de mayor calidad e impacto.
Es por eso que el poder de evaluación efectivo recae en última instancia en los equipos que mantienen y evalúan las publicaciones en las revistas que encabezan los ranking de las más destacadas: las que están formadas por miembros de los departamentos y grupos de investigación más destacados, que son aquellos cuyos miembros publican en las revistas más destacadas. Así se crea un círculo vicioso de conformismo y de redes de autentico clientelismo en donde es muy difícil que penetre la luz de enfoques novedosos, alternativos o contrarios a lo que habitualmente se publica en esas revistas por los autores solo de aquello que sus evaluadores consideran que es publicable, y que lógicamente nunca podrá ser diferente de lo que sostienen o defienden. ¿Cómo tratar de publicar en una revista si el autor o autores no se ajustan a los criterios de publicación o enfoques normalizados que mantiene?
En definitiva, el predominio de este tipo de evaluación ahoga la disidencia, la duda, la innovación, la ruptura con el saber establecido…, es decir, justo los factores que sabemos perfectamente que han sido siempre los que han promovido realmente el conocimiento y los que han hecho que de verdad avance la ciencia.
Lógicamente, no puede ser muy ajeno a todo ello el hecho de que la gestión de los trabajos que se incluyen en el ‘Journal Citation Reports’ (JCR en la jerga de los investigadores) que sirve como base de referencia sacrosanta de la evaluación cuantitativa esté controlado por una sola y poderosa multinacional, Thompson Reuters, o que estos métodos de evaluación se hayan comenzado a aplicar con especial disciplina en ciencias sociales, y muy especialmente en economía, justo en los años en que se vienen imponiendo las políticas neoliberales. No es casualidad que éstas se justifiquen con el paradigma neoclásico que predomina en las publicaciones de las revistas mejor consideradas y lo cierto es que pueden aplicarse más cómodamente en la medida en que eludan más ampliamente la crítica social. Lo que puede conseguirse cuando el pensamiento económico y social en general se hiperespecializa y pierde el contacto con la realidad al desarrollar un tipo de conocimiento encerrado en sí mismo, abstracto y completamente ajeno a la complejidad e interconectividad que tienen los fenómenos económicos y sociales.
Ahora bien, si en casi todo el mundo viene ocurriendo todo esto, en España la situación es mucho más grave porque los procesos de evaluación son opacos y ni siquiera los criterios cuantitativos se aplican objetivamente sino a nuestra carpetovetónica manera clientelar y corrupta.
Aquí predomina una arbitrariedad constante que da lugar a decisiones contradictorias, a resoluciones caprichosas y sin fundamento alguno, que muchas veces no pueden disimular que se toman ad hoc o incluso ex post de haber decidido el resultado. En el caso particular de la economía, que mejor conozco, se han hecho fuertes grupos de poder de clara significación ideológica o al menos, por decirlo más sutilmente, de evidente connivencia paradigmática, que aplicando este tipo de criterios van consolidando una forma de investigar conservadora y uniformada que poco a poco va dejando fuera del juego académico a quienes optan por generar cualquier otro tipo de conocimiento o por difundirlo a través de otras publicaciones, cuyo impacto, por cierto, suele mucho mayor, la mayoría de las veces, que el de las revistas convencionales.
Al igual que pasa fuera de España, la producción bibliográfica mejor valorada en economía presenta, eso sí, una gran variedad de temáticas, pero una extraordinaria homogeneidad que se traduce en un gran irrealismo y abstracción, en una gran coincidencia en las perspectivas de análisis y en la asunción de conclusiones que terminan justificando un mismo tipo de políticas.
Es por eso que puede afirmarse que la imposición de este tipo sesgado de evaluación, en todos los campos del saber científico pero sobre todo en los que tienen más que ver con juicios de valor y con las diferentes preferencias sociales, como la economía, es un claro intento de control (político) del conocimiento que se acelera en estos momentos gracias a la oportunidad que proporcionan los recortes asociados a las políticas de austeridad.
Los resultados de son tan paradójicos y significativos como el que mencionaba recientemente el profesor de Sociología de la Universidad de Oviedo, Holm-DetlevKöhler: la investigadora Saskia Sassen que acaba de recibir el Premio Príncipe de Asturias de Ciencias Sociales, “una de las científicas más importantes de nuestra época, no ha conseguido ningún sexenio, ninguna acreditación, frente a los criterios de nuestras agencias de evaluación, que anteponen siempre el mismo criterio: tres publicaciones JCR (Journal Citation Reports) en los últimos cinco años. Sassen no tiene ni una, sino que ha publicado libros e informes, fruto de proyectos de investigación de verdad y referencias fundamentales para académicos comprometidos, ha publicado numerosos artículos en medios de gran difusión, etc., pero se ha resistido a la práctica de inflar su currículum con artículos estandarizados sin interés ni lectores, más allá de círculos de amigos de citación mutua”.
- See more at: http://juantorreslopez.com/impertinencias/austeridad-y-control-del-conocimiento/#sthash.ofcpqX0b.dpuf
Además, cuando estas políticas de recortes se presentan como de ‘austeridad’ tienen también otro efecto no menos importante a la hora de garantizar el sometimiento de la población. Cuando lo que se reclama es la austeridad -algo con lo que nadie puede estar en desacuerdo- se está sugiriendo que es imprescindible una terapia frente a un despilfarro anterior. O, como suele decirse, para pagar el pecado de haber vivido “por encima de nuestras posibilidades”. Su imposición genera en la gente un sentimiento de culpa que atemoriza, confunde y paraliza.
Pero, con independencia de ello, los recortes de gasto público social también llevan consigo otras consecuencias muy peligrosas de los que se habla aún menos. Por ejemplo, un mayor control político del conocimiento.
Con la excusa de que hay que recortar gastos se ha reducido la financiación a la universidad pública y se están aprovechando los recortes para concederle un papel mucho más determinante aún en toda la actividad universitaria a la evaluación de la actividad investigadora del personal universitario, que en España se realiza desde hace años mediante los llamados sexenios (unos complementos salariales que nacieron para retribuir la productividad investigadora y que se han convertido en medida de su “calidad”) y los procedimientos de acreditación que llevan a cabo las agencias de evaluación nacional o autonómicas.
Yo soy totalmente partidario de que se evalúe la actividad docente e investigadora de los universitarios. Y de hecho, cuando fui vicerrector de ordenación académica y profesorado de la universidad de Málaga entre 1987 y 1990, puse en marcha uno de los primeros procedimientos de evaluación que se realizaron en España, tanto en los dos primeros ciclos como en el doctorado.
Pero lo que ahora se está produciendo es un verdadero control político del conocimiento cuando se empiezan a establecer las nuevas obligaciones docentes (horas de clase) o cuando se hace depender la participación en comisiones de selección, la dirección de tesis doctorales o la promoción a las diferentes categorías contractuales o del funcionariado, entre otras cosas, en función de los sexenios o de la acreditación conseguidos en procesos de evaluación que, sobre todo en algunas áreas del conocimiento, son claramente arbitrarios y muy sesgados ideológicamente.
En España, como en otros países, estos procesos se basan originalmente en criterios puramente cuantitativos que simplifican al extremo la valoración de la producción científica, reduciendo o eliminando por completo cualquier atisbo de debate o controversia sobre su calidad efectiva, mediante la aplicación de índices que solo pueden tener en cuenta (en el mejor de los casos) el número de publicaciones más o menos ponderado por rangos no menos discutibles referentes a las revistas donde aparecen, y el número de citas.
Los efectos de este tipo de evaluaciones son claros. Los investigadores, en lugar de tener como objetivo de su actividad científica el descubrir nuevos conocimientos, han de orientarla necesariamente a obtener el mayor número de publicaciones consideradas como valiosas por dichos indicadores. Así ha de ser, pues de ello va a depender su financiación, su promoción profesional, su capacidad de decisión y su incardinación en la academia o incluso las horas de clase que van a tener que impartir.
Ese incentivo perverso tiene multitud de efectos negativos. Así, se promueve la firma colectiva como práctica oportunista para lograr más y más rápidas aportaciones susceptibles de ser valoradas positivamente aunque en la mayoría de las ocasiones eso no responda ni a la realidad de la actividad realizada por cada investigador, ni a necesidades de división del trabajo científico que se realiza.
Además, la exigencia de multiplicar al máximo la publicaciones lleva a que resulte más rentable a los investigadores el dedicarse a ‘versionar’ sin descanso un trabajo, descubrimiento o planteamiento o modelo original a base de introducir muy pequeñas variaciones posteriores que se dirigen a diferentes revistas, sin que ninguna de ellas suponga alguna novedad importante o un incremento efectivo del conocimiento.
Un estudio realizado en Francia al respecto ha mostrado claramente que aunque el número de publicaciones en el área de economía se ha triplicado desde la mitad de los años 90 del siglo pasado no puede decirse que haya mejorado sustancialmente su calidad (Bosquet, C., Combes, P-Ph., y Linnemer, L., “La publicationd’articles de recherche en économie en France en 2008. Disparitésactuelles et évolutionsdepuis 1998″. Rapportpour la Directiongénérale de la recherche et de l’innovation, DGRI, 2010).
Cualquier investigador que se comporte con un mínimo de racionalidad en este régimen de evaluación debe consagrar mucho más tiempo y esfuerzo a multiplicar las publicaciones preparando diversas versiones y a estar presente allí donde se puede conseguir influencia o redes que faciliten la publicación, que a investigar. Y así resulta que estos métodos de evaluación, aparentemente encaminados a medir la productividad y la calidad académica, incentivan comportamientos que limitan ésta última y que se basan en un sentido claramente distorsionado de la primera. No reflejan la productividad como una mayor capacidad de aportar conocimiento efectivo sino como la de colocar menores dosis de él en mayor número de publicaciones. Se promueve la productividad “publicacional”, si vale el barbarismo, que no tiene mucho que ver en estas condiciones con la productividad científica.
La evaluación cuantitativa de los resultados del conocimiento tiene otro efecto no menos negativo. Para poder llevarla a cabo es por lo que se ha ido limitando a tomar en consideración los artículos publicados en revistas, que pueden ser jerarquizados y catalogados en función de dónde se publiquen, en detrimento del conocimiento publicado en libros o cualquier otro tipo de monografías, que hoy día no tienen prácticamente valor alguno, o muy escaso, a la hora de acreditarse o de ser evaluado para recibir sexenios.
Las consecuencias de esto último son variadas. Una es que los investigadores que quieran ser evaluados positivamente solo deben abordar temas que se puedan exponer en el espacio reducido y en la forma convencional que se suele establecer en las revistas. Tienen que renunciar así a exponer pasos intermedios, derivaciones de sus análisis, matices y, sobre todo, las dudas y preguntas y las cuestiones transversales y sintéticas que cada vez son más necesarias para poder conocer la realidad, pero que es casi imposible trasladar a los espacios muy especializados y por definición más cerrados, en todos los sentidos del término, de las revistas.
La generalización de la publicación en revistas ha estandarizado la expresión del conocimiento y el conocimiento mismo al establecer no solo el encuadre formal de los textos sino los contenidos, los enfoques, e incluso los postulados e hipótesis de partida “convenientes” en cada una de ellas, de modo que salirse de ese saber establecido conduce de modo prácticamente inevitable al ostracismo y a la imposibilidad de ser evaluado positivamente, pues es seguro que no se podrá publicar en las revistas que sirven de referencia como de mayor calidad e impacto.
Es por eso que el poder de evaluación efectivo recae en última instancia en los equipos que mantienen y evalúan las publicaciones en las revistas que encabezan los ranking de las más destacadas: las que están formadas por miembros de los departamentos y grupos de investigación más destacados, que son aquellos cuyos miembros publican en las revistas más destacadas. Así se crea un círculo vicioso de conformismo y de redes de autentico clientelismo en donde es muy difícil que penetre la luz de enfoques novedosos, alternativos o contrarios a lo que habitualmente se publica en esas revistas por los autores solo de aquello que sus evaluadores consideran que es publicable, y que lógicamente nunca podrá ser diferente de lo que sostienen o defienden. ¿Cómo tratar de publicar en una revista si el autor o autores no se ajustan a los criterios de publicación o enfoques normalizados que mantiene?
En definitiva, el predominio de este tipo de evaluación ahoga la disidencia, la duda, la innovación, la ruptura con el saber establecido…, es decir, justo los factores que sabemos perfectamente que han sido siempre los que han promovido realmente el conocimiento y los que han hecho que de verdad avance la ciencia.
Lógicamente, no puede ser muy ajeno a todo ello el hecho de que la gestión de los trabajos que se incluyen en el ‘Journal Citation Reports’ (JCR en la jerga de los investigadores) que sirve como base de referencia sacrosanta de la evaluación cuantitativa esté controlado por una sola y poderosa multinacional, Thompson Reuters, o que estos métodos de evaluación se hayan comenzado a aplicar con especial disciplina en ciencias sociales, y muy especialmente en economía, justo en los años en que se vienen imponiendo las políticas neoliberales. No es casualidad que éstas se justifiquen con el paradigma neoclásico que predomina en las publicaciones de las revistas mejor consideradas y lo cierto es que pueden aplicarse más cómodamente en la medida en que eludan más ampliamente la crítica social. Lo que puede conseguirse cuando el pensamiento económico y social en general se hiperespecializa y pierde el contacto con la realidad al desarrollar un tipo de conocimiento encerrado en sí mismo, abstracto y completamente ajeno a la complejidad e interconectividad que tienen los fenómenos económicos y sociales.
Ahora bien, si en casi todo el mundo viene ocurriendo todo esto, en España la situación es mucho más grave porque los procesos de evaluación son opacos y ni siquiera los criterios cuantitativos se aplican objetivamente sino a nuestra carpetovetónica manera clientelar y corrupta.
Aquí predomina una arbitrariedad constante que da lugar a decisiones contradictorias, a resoluciones caprichosas y sin fundamento alguno, que muchas veces no pueden disimular que se toman ad hoc o incluso ex post de haber decidido el resultado. En el caso particular de la economía, que mejor conozco, se han hecho fuertes grupos de poder de clara significación ideológica o al menos, por decirlo más sutilmente, de evidente connivencia paradigmática, que aplicando este tipo de criterios van consolidando una forma de investigar conservadora y uniformada que poco a poco va dejando fuera del juego académico a quienes optan por generar cualquier otro tipo de conocimiento o por difundirlo a través de otras publicaciones, cuyo impacto, por cierto, suele mucho mayor, la mayoría de las veces, que el de las revistas convencionales.
Al igual que pasa fuera de España, la producción bibliográfica mejor valorada en economía presenta, eso sí, una gran variedad de temáticas, pero una extraordinaria homogeneidad que se traduce en un gran irrealismo y abstracción, en una gran coincidencia en las perspectivas de análisis y en la asunción de conclusiones que terminan justificando un mismo tipo de políticas.
Es por eso que puede afirmarse que la imposición de este tipo sesgado de evaluación, en todos los campos del saber científico pero sobre todo en los que tienen más que ver con juicios de valor y con las diferentes preferencias sociales, como la economía, es un claro intento de control (político) del conocimiento que se acelera en estos momentos gracias a la oportunidad que proporcionan los recortes asociados a las políticas de austeridad.
Los resultados de son tan paradójicos y significativos como el que mencionaba recientemente el profesor de Sociología de la Universidad de Oviedo, Holm-DetlevKöhler: la investigadora Saskia Sassen que acaba de recibir el Premio Príncipe de Asturias de Ciencias Sociales, “una de las científicas más importantes de nuestra época, no ha conseguido ningún sexenio, ninguna acreditación, frente a los criterios de nuestras agencias de evaluación, que anteponen siempre el mismo criterio: tres publicaciones JCR (Journal Citation Reports) en los últimos cinco años. Sassen no tiene ni una, sino que ha publicado libros e informes, fruto de proyectos de investigación de verdad y referencias fundamentales para académicos comprometidos, ha publicado numerosos artículos en medios de gran difusión, etc., pero se ha resistido a la práctica de inflar su currículum con artículos estandarizados sin interés ni lectores, más allá de círculos de amigos de citación mutua”.
- See more at: http://juantorreslopez.com/impertinencias/austeridad-y-control-del-conocimiento/#sthash.ofcpqX0b.dpuf