lunes, 24 de junio de 2013

Austeridad y control del conocimiento


Ya he explicado en otros artículos y en el libro Los amos del mundo. Las armas del terrorismo financiero que escribí con Vicenç Navarro, que los recortes de gasto que llevan consigo las políticas de austeridad son un auténtico engaño. Se justifican diciendo que solo con ellos se puede recortar la deuda para que a continuación vuelva a generarse crecimiento y empleo, pero lo que demuestran los estudios empíricos es lo contrario. Al recortar el gasto en etapas de recesión (ya de por sí de gasto insuficiente) lo que sucede es que disminuye la actividad, el empleo y los ingresos y que, por tanto, finalmente aumenta aún más la deuda.

Además, cuando estas políticas de recortes se presentan como de ‘austeridad’ tienen también otro efecto no menos importante a la hora de garantizar el sometimiento de la población. Cuando lo que se reclama es la austeridad -algo con lo que nadie puede estar en desacuerdo- se está sugiriendo que es imprescindible una terapia frente a un despilfarro anterior. O, como suele decirse, para pagar el pecado de haber vivido “por encima de nuestras posibilidades”. Su imposición genera en la gente un sentimiento de culpa que atemoriza, confunde y paraliza.

Pero, con independencia de ello, los recortes de gasto público social también llevan consigo otras consecuencias muy peligrosas de los que se habla aún menos. Por ejemplo, un mayor control político del conocimiento.

Con la excusa de que hay que recortar gastos se ha reducido la financiación a la universidad pública y se están aprovechando los recortes para concederle un papel mucho más determinante aún en toda la actividad universitaria a la evaluación de la actividad investigadora del personal universitario, que en España se realiza desde hace años mediante los llamados sexenios (unos complementos salariales que nacieron para retribuir la productividad investigadora y que se han convertido en medida de su “calidad”) y los procedimientos de acreditación que llevan a cabo las agencias de evaluación nacional o autonómicas.

Yo soy totalmente partidario de que se evalúe la actividad docente e investigadora de los universitarios. Y de hecho, cuando fui vicerrector de ordenación académica y profesorado de la universidad de Málaga entre 1987 y 1990, puse en marcha uno de los primeros procedimientos de evaluación que se realizaron en España, tanto en los dos primeros ciclos como en el doctorado.

Pero lo que ahora se está produciendo es un verdadero control político del conocimiento cuando se empiezan a establecer las nuevas obligaciones docentes (horas de clase) o cuando se hace depender la participación en comisiones de selección, la dirección de tesis doctorales o la promoción a las diferentes categorías contractuales o del funcionariado, entre otras cosas, en función de los sexenios o de la acreditación conseguidos en procesos de evaluación que, sobre todo en algunas áreas del conocimiento, son claramente arbitrarios y muy sesgados ideológicamente.

En España, como en otros países, estos procesos se basan originalmente en criterios puramente cuantitativos que simplifican al extremo la valoración de la producción científica, reduciendo o eliminando por completo cualquier atisbo de debate o controversia sobre su calidad efectiva, mediante la aplicación de índices que solo pueden tener en cuenta (en el mejor de los casos) el número de publicaciones más o menos ponderado por rangos no menos discutibles referentes a las revistas donde aparecen, y el número de citas.

Los efectos de este tipo de evaluaciones son claros. Los investigadores, en lugar de tener como objetivo de su actividad científica el descubrir nuevos conocimientos, han de orientarla necesariamente a obtener el mayor número de publicaciones consideradas como valiosas por dichos indicadores. Así ha de ser, pues de ello va a depender su financiación, su promoción profesional, su capacidad de decisión y su incardinación en la academia o incluso las horas de clase que van a tener que impartir.

Ese incentivo perverso tiene multitud de efectos negativos. Así, se promueve la firma colectiva como práctica oportunista para lograr más y más rápidas aportaciones susceptibles de ser valoradas positivamente aunque en la mayoría de las ocasiones eso no responda ni a la realidad de la actividad realizada por cada investigador, ni a necesidades de división del trabajo científico que se realiza.

Además, la exigencia de multiplicar al máximo la publicaciones lleva a que resulte más rentable a los investigadores el dedicarse a ‘versionar’ sin descanso un trabajo, descubrimiento o planteamiento o modelo original a base de introducir muy pequeñas variaciones posteriores que se dirigen a diferentes revistas, sin que ninguna de ellas suponga alguna novedad importante o un incremento efectivo del conocimiento.

Un estudio realizado en Francia al respecto ha mostrado claramente que aunque el número de publicaciones en el área de economía se ha triplicado desde la mitad de los años 90 del siglo pasado no puede decirse que haya mejorado sustancialmente su calidad (Bosquet, C., Combes, P-Ph., y Linnemer, L., “La publicationd’articles de recherche en économie en France en 2008. Disparitésactuelles et évolutionsdepuis 1998″. Rapportpour la Directiongénérale de la recherche et de l’innovation, DGRI, 2010).

Cualquier investigador que se comporte con un mínimo de racionalidad en este régimen de evaluación debe consagrar mucho más tiempo y esfuerzo a multiplicar las publicaciones preparando diversas versiones y a estar presente allí donde se puede conseguir influencia o redes que faciliten la publicación, que a investigar. Y así resulta que estos métodos de evaluación, aparentemente encaminados a medir la productividad y la calidad académica, incentivan comportamientos que limitan ésta última y que se basan en un sentido claramente distorsionado de la primera. No reflejan la productividad como una mayor capacidad de aportar conocimiento efectivo sino como la de colocar menores dosis de él en mayor número de publicaciones. Se promueve la productividad “publicacional”, si vale el barbarismo, que no tiene mucho que ver en estas condiciones con la productividad científica.

La evaluación cuantitativa de los resultados del conocimiento tiene otro efecto no menos negativo. Para poder llevarla a cabo es por lo que se ha ido limitando a tomar en consideración los artículos publicados en revistas, que pueden ser jerarquizados y catalogados en función de dónde se publiquen, en detrimento del conocimiento publicado en libros o cualquier otro tipo de monografías, que hoy día no tienen prácticamente valor alguno, o muy escaso, a la hora de acreditarse o de ser evaluado para recibir sexenios.

Las consecuencias de esto último son variadas. Una es que los investigadores que quieran ser evaluados positivamente solo deben abordar temas que se puedan exponer en el espacio reducido y en la forma convencional que se suele establecer en las revistas. Tienen que renunciar así a exponer pasos intermedios, derivaciones de sus análisis, matices y, sobre todo, las dudas y preguntas y las cuestiones transversales y sintéticas que cada vez son más necesarias para poder conocer la realidad, pero que es casi imposible trasladar a los espacios muy especializados y por definición más cerrados, en todos los sentidos del término, de las revistas.

La generalización de la publicación en revistas ha estandarizado la expresión del conocimiento y el conocimiento mismo al establecer no solo el encuadre formal de los textos sino los contenidos, los enfoques, e incluso los postulados e hipótesis de partida “convenientes” en cada una de ellas, de modo que salirse de ese saber establecido conduce de modo prácticamente inevitable al ostracismo y a la imposibilidad de ser evaluado positivamente, pues es seguro que no se podrá publicar en las revistas que sirven de referencia como de mayor calidad e impacto.

Es por eso que el poder de evaluación efectivo recae en última instancia en los equipos que mantienen y evalúan las publicaciones en las revistas que encabezan los ranking de las más destacadas: las que están formadas por miembros de los departamentos y grupos de investigación más destacados, que son aquellos cuyos miembros publican en las revistas más destacadas. Así se crea un círculo vicioso de conformismo y de redes de autentico clientelismo en donde es muy difícil que penetre la luz de enfoques novedosos, alternativos o contrarios a lo que habitualmente se publica en esas revistas por los autores solo de aquello que sus evaluadores consideran que es publicable, y que lógicamente nunca podrá ser diferente de lo que sostienen o defienden. ¿Cómo tratar de publicar en una revista si el autor o autores no se ajustan a los criterios de publicación o enfoques normalizados que mantiene?

En definitiva, el predominio de este tipo de evaluación ahoga la disidencia, la duda, la innovación, la ruptura con el saber establecido…, es decir, justo los factores que sabemos perfectamente que han sido siempre los que han promovido realmente el conocimiento y los que han hecho que de verdad avance la ciencia.

Lógicamente, no puede ser muy ajeno a todo ello el hecho de que la gestión de los trabajos que se incluyen en el ‘Journal Citation Reports’ (JCR en la jerga de los investigadores) que sirve como base de referencia sacrosanta de la evaluación cuantitativa esté controlado por una sola y poderosa multinacional, Thompson Reuters, o que estos métodos de evaluación se hayan comenzado a aplicar con especial disciplina en ciencias sociales, y muy especialmente en economía, justo en los años en que se vienen imponiendo las políticas neoliberales. No es casualidad que éstas se justifiquen con el paradigma neoclásico que predomina en las publicaciones de las revistas mejor consideradas y lo cierto es que pueden aplicarse más cómodamente en la medida en que eludan más ampliamente la crítica social. Lo que puede conseguirse cuando el pensamiento económico y social en general se hiperespecializa y pierde el contacto con la realidad al desarrollar un tipo de conocimiento encerrado en sí mismo, abstracto y completamente ajeno a la complejidad e interconectividad que tienen los fenómenos económicos y sociales.

Ahora bien, si en casi todo el mundo viene ocurriendo todo esto, en España la situación es mucho más grave porque los procesos de evaluación son opacos y ni siquiera los criterios cuantitativos se aplican objetivamente sino a nuestra carpetovetónica manera clientelar y corrupta.

Aquí predomina una arbitrariedad constante que da lugar a decisiones contradictorias, a resoluciones caprichosas y sin fundamento alguno, que muchas veces no pueden disimular que se toman ad hoc o incluso ex post de haber decidido el resultado. En el caso particular de la economía, que mejor conozco, se han hecho fuertes grupos de poder de clara significación ideológica o al menos, por decirlo más sutilmente, de evidente connivencia paradigmática, que aplicando este tipo de criterios van consolidando una forma de investigar conservadora y uniformada que poco a poco va dejando fuera del juego académico a quienes optan por generar cualquier otro tipo de conocimiento o por difundirlo a través de otras publicaciones, cuyo impacto, por cierto, suele mucho mayor, la mayoría de las veces, que el de las revistas convencionales.

Al igual que pasa fuera de España, la producción bibliográfica mejor valorada en economía presenta, eso sí, una gran variedad de temáticas, pero una extraordinaria homogeneidad que se traduce en un gran irrealismo y abstracción, en una gran coincidencia en las perspectivas de análisis y en la asunción de conclusiones que terminan justificando un mismo tipo de políticas.

Es por eso que puede afirmarse que la imposición de este tipo sesgado de evaluación, en todos los campos del saber científico pero sobre todo en los que tienen más que ver con juicios de valor y con las diferentes preferencias sociales, como la economía, es un claro intento de control (político) del conocimiento que se acelera en estos momentos gracias a la oportunidad que proporcionan los recortes asociados a las políticas de austeridad.

Los resultados de son tan paradójicos y significativos como el que mencionaba recientemente el profesor de Sociología de la Universidad de Oviedo, Holm-DetlevKöhler: la investigadora Saskia Sassen que acaba de recibir el Premio Príncipe de Asturias de Ciencias Sociales, “una de las científicas más importantes de nuestra época, no ha conseguido ningún sexenio, ninguna acreditación, frente a los criterios de nuestras agencias de evaluación, que anteponen siempre el mismo criterio: tres publicaciones JCR (Journal Citation Reports) en los últimos cinco años. Sassen no tiene ni una, sino que ha publicado libros e informes, fruto de proyectos de investigación de verdad y referencias fundamentales para académicos comprometidos, ha publicado numerosos artículos en medios de gran difusión, etc., pero se ha resistido a la práctica de inflar su currículum con artículos estandarizados sin interés ni lectores, más allá de círculos de amigos de citación mutua”.

Juan Torres López
Ganas de Escribir
http://juantorreslopez.com/impertinencias/austeridad-y-control-del-conocimiento/

Ya he explicado en otros artículos y en el libro Los amos del mundo. Las armas del terrorismo financiero que escribí con Vicenç Navarro, que los recortes de gasto que llevan consigo las políticas de austeridad son un auténtico engaño. Se justifican diciendo que solo con ellos se puede recortar la deuda para que a continuación vuelva a generarse crecimiento y empleo, pero lo que demuestran los estudios empíricos es lo contrario. Al recortar el gasto en etapas de recesión (ya de por sí de gasto insuficiente) lo que sucede es que disminuye la actividad, el empleo y los ingresos y que, por tanto, finalmente aumenta aún más la deuda.
Además, cuando estas políticas de recortes se presentan como de ‘austeridad’ tienen también otro efecto no menos importante a la hora de garantizar el sometimiento de la población. Cuando lo que se reclama es la austeridad -algo con lo que nadie puede estar en desacuerdo- se está sugiriendo que es imprescindible una terapia frente a un despilfarro anterior. O, como suele decirse, para pagar el pecado de haber vivido “por encima de nuestras posibilidades”. Su imposición genera en la gente un sentimiento de culpa que atemoriza, confunde y paraliza.
Pero, con independencia de ello, los recortes de gasto público social también llevan consigo otras consecuencias muy peligrosas de los que se habla aún menos. Por ejemplo, un mayor control político del conocimiento.
Con la excusa de que hay que recortar gastos se ha reducido la financiación a la universidad pública y se están aprovechando los recortes para concederle un papel mucho más determinante aún en toda la actividad universitaria a la evaluación de la actividad investigadora del personal universitario, que en España se realiza desde hace años mediante los llamados sexenios (unos complementos salariales que nacieron para retribuir la productividad investigadora y que se han convertido en medida de su “calidad”) y los procedimientos de acreditación que llevan a cabo las agencias de evaluación nacional o autonómicas.
Yo soy totalmente partidario de que se evalúe la actividad docente e investigadora de los universitarios. Y de hecho, cuando fui vicerrector de ordenación académica y profesorado de la universidad de Málaga entre 1987 y 1990, puse en marcha uno de los primeros procedimientos de evaluación que se realizaron en España, tanto en los dos primeros ciclos como en el doctorado.
Pero lo que ahora se está produciendo es un verdadero control político del conocimiento cuando se empiezan a establecer las nuevas obligaciones docentes (horas de clase) o cuando se hace depender la participación en comisiones de selección, la dirección de tesis doctorales o la promoción a las diferentes categorías contractuales o del funcionariado, entre otras cosas, en función de los sexenios o de la acreditación conseguidos en procesos de evaluación que, sobre todo en algunas áreas del conocimiento, son claramente arbitrarios y muy sesgados ideológicamente.
En España, como en otros países, estos procesos se basan originalmente en criterios puramente cuantitativos que simplifican al extremo la valoración de la producción científica, reduciendo o eliminando por completo cualquier atisbo de debate o controversia sobre su calidad efectiva, mediante la aplicación de índices que solo pueden tener en cuenta (en el mejor de los casos) el número de publicaciones más o menos ponderado por rangos no menos discutibles referentes a las revistas donde aparecen, y el número de citas.
Los efectos de este tipo de evaluaciones son claros. Los investigadores, en lugar de tener como objetivo de su actividad científica el descubrir nuevos conocimientos, han de orientarla necesariamente a obtener el mayor número de publicaciones consideradas como valiosas por dichos indicadores. Así ha de ser, pues de ello va a depender su financiación, su promoción profesional, su capacidad de decisión y su incardinación en la academia o incluso las horas de clase que van a tener que impartir.
Ese incentivo perverso tiene multitud de efectos negativos. Así, se promueve la firma colectiva como práctica oportunista para lograr más y más rápidas aportaciones susceptibles de ser valoradas positivamente aunque en la mayoría de las ocasiones eso no responda ni a la realidad de la actividad realizada por cada investigador, ni a necesidades de división del trabajo científico que se realiza.
Además, la exigencia de multiplicar al máximo la publicaciones lleva a que resulte más rentable a los investigadores el dedicarse a ‘versionar’ sin descanso un trabajo, descubrimiento o planteamiento o modelo original a base de introducir muy pequeñas variaciones posteriores que se dirigen a diferentes revistas, sin que ninguna de ellas suponga alguna novedad importante o un incremento efectivo del conocimiento.
Un estudio realizado en Francia al respecto ha mostrado claramente que aunque el número de publicaciones en el área de economía se ha triplicado desde la mitad de los años 90 del siglo pasado no puede decirse que haya mejorado sustancialmente su calidad (Bosquet, C., Combes, P-Ph., y Linnemer, L., “La publicationd’articles de recherche en économie en France en 2008. Disparitésactuelles et évolutionsdepuis 1998″. Rapportpour la Directiongénérale de la recherche et de l’innovation, DGRI, 2010).
Cualquier investigador que se comporte con un mínimo de racionalidad en este régimen de evaluación debe consagrar mucho más tiempo y esfuerzo a multiplicar las publicaciones preparando diversas versiones y a estar presente allí donde se puede conseguir influencia o redes que faciliten la publicación, que a investigar. Y así resulta que estos métodos de evaluación, aparentemente encaminados a medir la productividad y la calidad académica, incentivan comportamientos que limitan ésta última y que se basan en un sentido claramente distorsionado de la primera. No reflejan la productividad como una mayor capacidad de aportar conocimiento efectivo sino como la de colocar menores dosis de él en mayor número de publicaciones. Se promueve la productividad “publicacional”, si vale el barbarismo, que no tiene mucho que ver en estas condiciones con la productividad científica.
La evaluación cuantitativa de los resultados del conocimiento tiene otro efecto no menos negativo. Para poder llevarla a cabo es por lo que se ha ido limitando a tomar en consideración los artículos publicados en revistas, que pueden ser jerarquizados y catalogados en función de dónde se publiquen, en detrimento del conocimiento publicado en libros o cualquier otro tipo de monografías, que hoy día no tienen prácticamente valor alguno, o muy escaso, a la hora de acreditarse o de ser evaluado para recibir sexenios.
Las consecuencias de esto último son variadas. Una es que los investigadores que quieran ser evaluados positivamente solo deben abordar temas que se puedan exponer en el espacio reducido y en la forma convencional que se suele establecer en las revistas. Tienen que renunciar así a exponer pasos intermedios, derivaciones de sus análisis, matices y, sobre todo, las dudas y preguntas y las cuestiones transversales y sintéticas que cada vez son más necesarias para poder conocer la realidad, pero que es casi imposible trasladar a los espacios muy especializados y por definición más cerrados, en todos los sentidos del término, de las revistas.
La generalización de la publicación en revistas ha estandarizado la expresión del conocimiento y el conocimiento mismo al establecer no solo el encuadre formal de los textos sino los contenidos, los enfoques, e incluso los postulados e hipótesis de partida “convenientes” en cada una de ellas, de modo que salirse de ese saber establecido conduce de modo prácticamente inevitable al ostracismo y a la imposibilidad de ser evaluado positivamente, pues es seguro que no se podrá publicar en las revistas que sirven de referencia como de mayor calidad e impacto.
Es por eso que el poder de evaluación efectivo recae en última instancia en los equipos que mantienen y evalúan las publicaciones en las revistas que encabezan los ranking de las más destacadas: las que están formadas por miembros de los departamentos y grupos de investigación más destacados, que son aquellos cuyos miembros publican en las revistas más destacadas. Así se crea un círculo vicioso de conformismo y de redes de autentico clientelismo en donde es muy difícil que penetre la luz de enfoques novedosos, alternativos o contrarios a lo que habitualmente se publica en esas revistas por los autores solo de aquello que sus evaluadores consideran que es publicable, y que lógicamente nunca podrá ser diferente de lo que sostienen o defienden. ¿Cómo tratar de publicar en una revista si el autor o autores no se ajustan a los criterios de publicación o enfoques normalizados que mantiene?
En definitiva, el predominio de este tipo de evaluación ahoga la disidencia, la duda, la innovación, la ruptura con el saber establecido…, es decir, justo los factores que sabemos perfectamente que han sido siempre los que han promovido realmente el conocimiento y los que han hecho que de verdad avance la ciencia.
Lógicamente, no puede ser muy ajeno a todo ello el hecho de que la gestión de los trabajos que se incluyen en el ‘Journal Citation Reports’ (JCR en la jerga de los investigadores) que sirve como base de referencia sacrosanta de la evaluación cuantitativa esté controlado por una sola y poderosa multinacional, Thompson Reuters, o que estos métodos de evaluación se hayan comenzado a aplicar con especial disciplina en ciencias sociales, y muy especialmente en economía, justo en los años en que se vienen imponiendo las políticas neoliberales. No es casualidad que éstas se justifiquen con el paradigma neoclásico que predomina en las publicaciones de las revistas mejor consideradas y lo cierto es que pueden aplicarse más cómodamente en la medida en que eludan más ampliamente la crítica social. Lo que puede conseguirse cuando el pensamiento económico y social en general se hiperespecializa y pierde el contacto con la realidad al desarrollar un tipo de conocimiento encerrado en sí mismo, abstracto y completamente ajeno a la complejidad e interconectividad que tienen los fenómenos económicos y sociales.
Ahora bien, si en casi todo el mundo viene ocurriendo todo esto, en España la situación es mucho más grave porque los procesos de evaluación son opacos y ni siquiera los criterios cuantitativos se aplican objetivamente sino a nuestra carpetovetónica manera clientelar y corrupta.
Aquí predomina una arbitrariedad constante que da lugar a decisiones contradictorias, a resoluciones caprichosas y sin fundamento alguno, que muchas veces no pueden disimular que se toman ad hoc o incluso ex post de haber decidido el resultado. En el caso particular de la economía, que mejor conozco, se han hecho fuertes grupos de poder de clara significación ideológica o al menos, por decirlo más sutilmente, de evidente connivencia paradigmática, que aplicando este tipo de criterios van consolidando una forma de investigar conservadora y uniformada que poco a poco va dejando fuera del juego académico a quienes optan por generar cualquier otro tipo de conocimiento o por difundirlo a través de otras publicaciones, cuyo impacto, por cierto, suele mucho mayor, la mayoría de las veces, que el de las revistas convencionales.
Al igual que pasa fuera de España, la producción bibliográfica mejor valorada en economía presenta, eso sí, una gran variedad de temáticas, pero una extraordinaria homogeneidad que se traduce en un gran irrealismo y abstracción, en una gran coincidencia en las perspectivas de análisis y en la asunción de conclusiones que terminan justificando un mismo tipo de políticas.
Es por eso que puede afirmarse que la imposición de este tipo sesgado de evaluación, en todos los campos del saber científico pero sobre todo en los que tienen más que ver con juicios de valor y con las diferentes preferencias sociales, como la economía, es un claro intento de control (político) del conocimiento que se acelera en estos momentos gracias a la oportunidad que proporcionan los recortes asociados a las políticas de austeridad.
Los resultados de son tan paradójicos y significativos como el que mencionaba recientemente el profesor de Sociología de la Universidad de Oviedo, Holm-DetlevKöhler: la investigadora Saskia Sassen que acaba de recibir el Premio Príncipe de Asturias de Ciencias Sociales, “una de las científicas más importantes de nuestra época, no ha conseguido ningún sexenio, ninguna acreditación, frente a los criterios de nuestras agencias de evaluación, que anteponen siempre el mismo criterio: tres publicaciones JCR (Journal Citation Reports) en los últimos cinco años. Sassen no tiene ni una, sino que ha publicado libros e informes, fruto de proyectos de investigación de verdad y referencias fundamentales para académicos comprometidos, ha publicado numerosos artículos en medios de gran difusión, etc., pero se ha resistido a la práctica de inflar su currículum con artículos estandarizados sin interés ni lectores, más allá de círculos de amigos de citación mutua”.
- See more at: http://juantorreslopez.com/impertinencias/austeridad-y-control-del-conocimiento/#sthash.ofcpqX0b.dpuf

No hay comentarios: