ciencia 2.0

Los investigadores ya no son lo que eran…

Posted on Actualizado enn

Todavía está en el recuerdo de muchos, la idea de un investigador: un ser que, encerrado en su laboratorio, hacía “cosas raras” e incomprensibles para los mundanos… Un ser desconocido del que muy poco sabíamos y que solo veíamos muy de vez en cuando y, en general, no sabíamos qué hacía a menos que realizara el descubrimiento del siglo o ganara un premio Nobel. Bueno, quizás exagero un poco, pero vamos…no tanto…

arquetipo_del_cientifico_loco

Por suerte, los tiempos han cambiado y una nueva (o no tan nueva) hornada de investigadores, nos están deleitando con la ciencia. Estamos descubriendo auténticos divulgadores de la ciencia que, incluso, nos hacen reír con ella. Sí, si, reír, ¡es fascinante!.

No hay más que ver algunos ejemplos que a mi me llaman bastante la atención, como son: Joaquín SevillaJ.M. López Nicolas,  y J. M. Mulet, por poner algunos ejemplos.

Por supuesto, todos ellos tienen su blog, su cuenta en twitter, etc…siendo muy visibles en las redes sociales, premisa indiscutible de esta nueva forma de divulgar ciencia.

A Joaquín Sevilla lo conozco personalmente y qué decir tiene que, a parte de ser un gran profesional y persona, sabe divulgar la ciencia de una forma muy amena y entretenida.

Ya que hablo de Joaquín, empezaré con él y con su iniciativa de ciencia en el Bar, de la que ya he hablado otras veces, pero es que me parece una genial iniciativa a la par que original y divertida.

En ella, intenta desubicar la divulgación de la ciencia de sus lugares más habituales: el aula, el laboratorio o el escenario de un congreso, y realiza divulgación en un Bar, sí, en un Bar. Aquí tenéis un ejemplo:

¿interesante, no?

Otro caso claro es la última edición de Naukas.

Naukas (antes Amazings.es) es el proyecto de Miguel Artime (Maikelnai’s), Antonio Martínez(Fogonazos), José Cuesta (Inercia Creativa) y Javier Peláez (La Aldea Irreductible) quienes han unido sus fuerzas para realizar la mayor plataforma online de divulgación científica en español. Cada año, organizan una conferencia llena de ponencias cortas llenas de escepticismo, ciencia y humor ofrecido por divulgadores relacionado con la plataforma Naukas, según ellos mismos lo definen.

La pasada edición que ha tenido lugar el 16 y 17 de septiembre en Bilbao, es un claro ejemplo de esta nueva marea de investigadores que, ¡por fin, nos hacen entender esto de la Ciencia!

A destacar dos de las presentaciones, entre las muchas que hubo que son, precisamente, las de Joaquín Sevilla, que explicó cómo vuelan los aviones. No se le ocurrió nada más, que solo salir, empezar a lanzar aviones de papel a ver cual volaba más alto. ¡Obviamente, captó de inmediato la atención de todos los asistentes!

Por otro lado, J.M. López Nicolás, deleitó a los asistentes con algo tan llamativo como explicar la física a través del Fútbol, si, si, del Fútbol. Muy interesante:

Podéis ver la presentación aquí

Por último, hablar del “inclasificable” (desde el cariño), J. M. Mulet, donde nos acerca la ciencia desde una visión mucho más crítica y, a veces, transgresora, pero desde un peculiar sentido del humor que realmente llama la atención y encuentro también muy interesante.

Mulet, ha escrito varios libros sobre alimentos transgénicos, sobre las verdades relacionadas con los productos “milagrosos” (que muchas veces no lo son), que nos intentan vender, etc.. la verdad que muy interesante. ¡Yo ya le he comprado más de un libro!.

Y esto solo son algunos ejemplos de como ha cambiado el mundo de la Ciencia y cómo nuestros investigadores, hacen grandes esfuerzos para que su trabajo llegue a todo el mundo, a mi personalmente me parece genial y felicito a todos estos “nuevos divulgadores” por el excelente trabajo que están haciendo, a la vez que aplaudo iniciativas como Naukas.!!

 

 

Anuncios

Hablando de ciencia abierta

Posted on Actualizado enn

Ciencia abierta… 

Está claro que la era digital nos define un escenario nuevo para la investigación y la ciencia en general. Realmente a quienes conocemos (humildemente) un poco el ámbito de la investigación, nos surgen muchas dudas, así que entiendo que, tanto a investigadores como otros agentes de la investigación, les surjan también.

Por ejemplo, hoy en día, la mayoría de los proyectos de investigación, o un gran número de ellos, se realizan de forma pluridisciplinar, es decir, es realizado por investigadores de diferentes ámbitos y países, que colaboran a través de redes de investigación, ¿cómo se realiza la revisión por pares (peer review) de los resultados de sus investigaciones? ¿De cuál de los ámbitos son los investigadores que lo validan? ¿pueden dos o más investigadores validar papers que pertenecen también a investigadores de otros ámbitos?

Estas y otras cuestiones están surgiendo cada vez más, lo que lleva, por ejemplo a la posibilidad de definir plataformas digitales abiertas que permitan a investigadores, de diferentes ámbitos, validar papers de este tipo. 

Este es solo un ejemplo, pero hay muchos más, al ritmo que se producen los avances científicos y tecnológicos, ¿no es contraproducente tener que esperar un mínimo de 6 meses a 1 año para que un paper sea publicado en una revista de prestigio? ¿no sería necesario reducir estos tiempos, para no caer en la posibilidad que cuando el resultado de esa investigación sea publicado pueda empezar a ser obsoleto? Y por otro lado, ¿realmente no adquieren relevancia en este mundo digital todas estas nuevas métricas relacionadas con social media y con las tareas de divulgación y de reputación de los investigadores “digitales”, esos que utilizan las herramientas tecnológicas como herramientas muy importantes para el desarrollo de su trabajo? Es decir, ¿no se quedan ya “cortas” las métricas de siempre? 

La verdad es que leyendo sobre el tema y viviendo de cerca experiencias que tienen que “sufrir” los propios investigadores, en general, y conociendo el escenario actual, me surgen estas preguntas y algunas más. Más bien no es que sean preguntas, de alguna forma creo que a parte de mí, en general, se está cuestionando el sistema tradicional de investigación, “forzado” por los importantes cambios que se están produciendo a nivel social, en las empresas, en el sistema educativo, etc…

Todo ello, lleva, según mi opinión (y considero que la de muchos) inexorablemente a lo que llamamos la “apertura de la ciencia”, ciencia abierta, Open Science o también llamada Ciencia 2.0.

Este concepto, es la extensión natural de las políticas de Acceso abierto (Open Access) y de Datos abiertos (Open Data) que muchos países ya están implantando en sus sistemas.
De esta forma, se promueve la compartición y el acceso de todos los inputs, productos y procedimientos del proceso científico: software, resultados intermedios, notas de laboratorio, métodos, etc…

Hay 5 motivos claros detrás del movimiento de ciencia abierta de los cuales habla el libro, OpeningScience: The Evolving Guide on How the Internet is Changing Research,Collaboration and Scholarly Publishing, editado por Sönke Bartling y Sascha Friesike, que son:

  1.        Conocimiento accesible para todos. Como ejemplos, tenemos el OpenAccess y el OpenData.
  2.        Hacer accesible la ciencia a los ciudadanos. Por ejemplo, proyectos de crowd-sourcing.
  3.        Creación de plataformas, herramientas y servicios abiertos para investigadores. Como por ejemplo el OpenScience Commons.
  4.    Apertura del proceso de creación de conocimiento. Fomento del trabajo colaborativo.
  5. .   Desarrollo de un sistema de métricas alternativo para el impacto científico. Altmetrics.

Entre julio y septiembre de 2014, la comisión europea (EC), sponsor clave para la Ciencia abierta, realizó una encuesta acerca del movimiento de Ciencia abierta, a veces también llamado Ciencia 2.0, cuyos resultados se pueden consultar en el link.

Además, la comisión europea está totalmente involucrada tanto el movimiento OpenAccess como OpenData:

  • Open Access. Todos los resultados de sus programas marcos, se publican en abierto a través del proyecto OpenAire.
  • Open Data. Normalmente, los datos de las investigaciones quedan en manos de los propios investigadores en USBs o repositorios propios. El Open Data pretende animar a los investigadores para que hagan estos datos accesibles. La comisión europea lo realiza a través del H2020 a través de la infraestructura EUDAT2020.

Así pues, estamos inmersos en cambios profundos que afectan a todos los niveles del proceso de la investigación.

De todas formas, igual que a los investigadores les pueden surgir dudas sobre el sistema actual, también pueden tener reticencias sobre “lo que viene”. Y ese es un tema importante que habrá que superar para que la ciencia abierta acabe de implantarse.

Se puede acceder a más información sobre ciencia abierta, en este interesante artículo publicado en la web de JISC. JISC promueve el uso de las tecnologías digitales para la ciencia y la investigación en Inglaterra y es una web con interesantes contenidos.

Social Media en Investigación

Posted on Actualizado enn

El otro día me invitaron a realizar una entrevista para el Portal Social Media en Investigación a través de su impulsora Lydia Gil. Personalmente, ya me parecía un Portal muy interesante al que seguía a través de twitter (lugar desde el que Lydia contactó conmigo). En el Portal, se habla sobretodo de cómo los científicos utilizan las redes sociales, y tiene contenidos muy interesantes. Se centra en las principales redes sociales para investigadores que, poco a poco, van adquiriendo relevancia, ya no solo para la comunidad científica, sino que ya son conocidos por el público en general, que son:
Academia.edu, ResearchGate y Mendeley.
En el Portal se habla sobre estas tres redes sociales, dando una explicación sencilla y clara de cada una de ellas: Academia, ResearchGate y sobre Mendeley.

Se hace mucho hincapié en la necesidad cada vez mayor que tienen los investigadores en este nuevo escenario que llamamos ciencia 2.0 o ciencia abierta, de compartir información y colaborar para facilitar su tarea investigadora, y cómo deben usarse las herramientas tecnológicas que tienen a su alcance para que esto sea posible. Así, se afirma, y yo lo comparto totalmente, que el social media proporciona más visibilidad, más difusión, más colaboración y más impacto a la comunidad de investigadores.

Referente a la entrevista que me realizaron y que publicaron en el Portal, me preguntaron sobretodo por mi experiencia sobre la investigación y la innovación en las universidades que es la que conozco de cerca y desde hace ya bastantes años, y sobre este blog que mantengo (aunque con menos frecuencia de la quisiera) desde hace también algún tiempo. Aquí podéis leer la entrevista. Una vez más, tengo que agradecer esta oportunidad que me ofreció Lydia,

Por último, destacar que el Portal hace poco que ha ganado el concurso de posicionamiento de la UPF  una buena recompensa para un trabajo bien hecho.

Ciencia 2.0: Entrevista a Joaquín Sevilla

Posted on Actualizado enn

Hoy me he decidido a hacerle una entrevista a una persona que hace tiempo que conozco y sigo por la redes sociales…
Joaquín Sevilla es Doctor en física por la Universidad Autónoma de Madrid y profesor de Tecnología electrónica en la Universidad Pública de Navarra.

Aparte de dar clases en la Universidad, en su perfil de investigador, mantiene dos líneas de investigación con numerosas publicaciones:
Es una persona muy activa en las redes sociales, lo que me ha llevado a la curiosidad de realizarle unas preguntas.
¡Hola Joaquín! Primero de todo, ¡muchas gracias por dedicarme tu tiempo!
1    ¿Cómo se lleva esto de ser profesor, investigador y tener tiempo de ser activo en las redes sociales?
Hola, gracias a ti por acordarte de mí. Lo llevo bien, la vida en internet la tengo incorporada totalmente al día a día, es parte de lo que sea que haga.

2   Centrándonos más en tu tarea de investigación ¿cómo ves el panorama actual de la investigación? ¿se plantea realmente un cambio profundo en la forma de ‘hacer’ investigación? ¿Vamos hacia una ciencia 2.0? ¿y las universidades cómo responden a todo ello?
Lo principal que veo en el panorama actual de la ciencia es la escasez de recursos, la falta de una planificación de largo plazo y un escrutinio excesivo y malicioso del gasto. Ya sé que me preguntabas más por la forma de hacer, pero no puedo evitar dejar constancia de esta situación tan preocupante.

La forma de hacer ciencia sí que se va tendiendo al 2.0, pero más lentamente que otras áreas de la vida. El sistema de publicaciones (textos muy compactos, revisión por pares, índices de impacto, etc.) se mantiene aún con pocas modificaciones. Los medios actuales permitirían textos algo extensos, sistemas de valoración que involucren a más personas y todo un conjunto de mejoras que no terminan de implantarse. Entiendo que no es sencillo poro que se ha de conservar lo que funciona bien del sistema, entre otras cosas su reconocimiento prácticamente universal.

3    ¿Crees que la ciencia abierta (publicaciones y datos compartidos) aportarán beneficios a la investigación respecto a los métodos tradicionales? veo que, entre otras cosas, tienes muy actualizado tu perfil en Google Scholar, por lo que entiendo sigues todas estas nuevas tendencias…

La ciencia abierta: la publicación de datos originales, protocolos completos, códigos de programación, etc. es absolutamente fundamental. La evitación del fraude científico, le mejora de la reproducibilidad de los resultados y el problema de la no publicación de resultados negativos tienen buena parte de su solución en la ciencia abierta. Por cierto, el perfil de Google Scholar se actualiza sólo 😉  Alguna vez he sabido antes por Google que por la revista que nos habían publicado un artículo.

4    Tienes un blog muy interesante y activo  ¿qué es lo que te aporta? ¿te aporta más en docencia o en investigación?
Gracias! El blog me aporta muchísimo. Me ayuda a escribir mejor, no hay más que comparar el estilo de las primeras entradas con las últimas. Me sirve de escaparate ante potenciales estudiantes, compañeros, colaboradores, medios de comunicación para temas de divulgación científica, etc. Al dejar constancia de las actividades en que participo me obliga a sacarles más partido… Me alargaría mucho, así que por resumir diré que comparto plenamente las 10 razones que da mi colega José Ramón Alonso en su blog

5   Creo que también utilizas estas nuevas tecnologías en tu docencia, creas blogs colaborativos con tus alumnos ¿qué experiencias y resultados te aportan?
Sí, creo que para los estudiantes un blog también proporciona un montón de ventajas. Además sirve muy bien como soporte de un trabajo continuado (hace de “portfolio”) que se supone debe formar parte de la nuevas formas docentes adaptadas al espacio europeo de enseñanza superior. Bien es verdad que una metodología docente basada en un blog por cada estudiante sólo es sostenible con grupos bastante reducidos. Ese es el caso en varias asignaturas de máster que imparto.

6   Tienes una iniciativa muy interesante ‘Ciencia en el bar’ donde explicas y realizas con un compañero, pequeños experimentos científicos en un escenario tan inusual para hacer ciencia como un bar, ¿cómo surgió la idea? ¿qué crees que aporta?
La iniciativa Ciencia en el Bar comenzó como una serie de charlas de ciencia en un bar que organizamos una vez al mes. Van ya dos años y medio con estas charlas- La idea es acercar la ciencia a la gente de la calle en un ambiente distendido, dónde preguntar resulte natural. Y la verdad es que se consigue bastante bien. Tiempo después, como spin off de la iniciativa, comenzamos con canal de vídeos grabados en el mismo bar, en los que pretendemos explicar conceptos científicos en el mismo tono cercano. Estos vídeos han contado con apoyo institucional de la UPNA y financiación de la FECYT.

Los vídeos están aquí  y reseña de las charlas de las dos últimas temporadas aquí
7   ¿Qué aconsejarías a los nuevos investigadores (o no tan nuevos) respecto al uso de las nuevas tecnologías para la ciencia y qué les recomendarías?
Hoy día cuando conoces a alguien en un congreso o algo así, vas a buscar detalles sobre su actividad a Google. Nuestro curriculum es lo que dice Google de nosotros, así que mejor ocuparse de que ponga lo que nosotros queramos. Vamos, que recomendaría tener una presencia en internet significativa. Y para ello, la primera medida es tener algún tipo de blog en el que ir dejando constancia de las cosas que se van haciendo, luego se pueden ir enlazando en redes sociales poco a poco.

8    Y para terminar, una pregunta más a mi beneficio. ¿qué echas de menos en los sistemas de información que dan soporte a la investigación? ¿realmente los tecnólogos os estamos ayudando? Es decir ¿crees que las herramientas informáticas os dan soporte en vuestro día a día como investigadores?
Me ha resultado verdaderamente estupendo poder tener el curriculum normalizado (CVN) a un golpe de tecla, y no lo digo por hacer la pelota. Es una pena que no sea tan normalizado como debería (ahora piden otro formato, resumido, en las convocatorias del ministerio, CVa), pero eso supongo que no es cosa tecnológica. En una gestión del propio curriculum, tanto en mantenerlo al día como en explotar los datos, aunque funciona, se podría mejorar en usabilidad, comodidad de manejo, versiones más variadas de formatos de salida, etc.

¡Muchas gracias por todo, Joaquín!, como siempre un placer charlar contigo.


Igualmente, muchas gracias


Acerca del Manifiesto de Leiden

Posted on Actualizado enn

La verdad es que la publicación del Manifiesto de Leiden ha provocado bastante revuelo en la comunidad científica, y no tanto por que sea nada muy nuevo, sino porque resume muy bien o aglutina este nuevo escenario que se ha provocado con lo que algunos llaman ciencia 2.0.

Realmente se ha pasado de un escenario en que se realizaban rigurosísimos y a veces eternos controles antes que un artículo fuera publicado, a un escenario en que la inmediatez que proporcionan las nuevas tecnologías quizás estén propiciando que, en algunos casos, los controles hayan pasado a ser demasiado ligeros.
Aún así, está claro que el investigador debe tener su reputación, o estar bien posicionado en algún ranking o tener un buen índice-h.

Es por todo este nuevo escenario (que he descrito de forma muy o quizás demasiado esquemática), que unos investigadores, concretamente Diana HicksPaul WoutersLudo WaltmanSarah de Rijcke Ismael Rafols, escribieron el Manifiesto de Leiden que describe cómo adaptarse a este nuevo escenario.

A continuación se resume cada uno de estos principios. Creo que es muy interesante y que realmente plasma mejor la realizad actual.
DIEZ PRINCIPIOS

1. La evaluación cuantitativa tiene que apoyar la valoración cualitativa por expertos.

Los indicadores pueden corregir la tendencia a perspectivas sesgadas que se dan en revisión por pares y facilitar la deliberación. En este sentido, los indicadores pueden fortalecer la evaluación por pares puesto que tomar decisiones sobre colegas es difícil sin varias fuentes de información. Sin embargo, los evaluadores no deben ceder a la tentación de supeditar las decisiones a los números. Los indicadores no pueden sustituir a los razonamientos informados. Los decisores tienen plena responsabilidad sobre sus evaluaciones.

2. El desempeño debe ser medido de acuerdo con las misiones de investigación de la institución, grupo o investigador.

Los objetivos de un programa de investigación tiene que ser especificados al principio, y los indicadores usados para medir el desempeño tienen que estar claramente relacionados con estos objetivos. La elección y usos de los indicadores tiene que tener en cuenta los contextos socio-económicos y culturales. Los científicos tienen diversas misiones de investigación. La investigación para avanzar las fronteras del conocimiento académico es diferente de la investigación focalizada en proveer soluciones a problemas sociales. La evaluación puede estar basada en méritos relevantes para la industria, el desarrollo de políticas, o para los ciudadanos en general, en vez de méritos basados en nociones académicas de excelencia. No hay un modelo de evaluación que se pueda aplicar en todos los contextos.

3. La excelencia en investigación de relevancia local debe ser protegida.

En muchas partes del mundo, excelencia en investigación se asocia únicamente con publicaciones en inglés. La ley española, por ejemplo, explicita el deseo y la conveniencia que los académicos españoles publiquen en revistas de alto impacto. El factor de impacto se calcula para revistas indexadas por Web of Science, que es una base de datos basada en los Estados Unidos y que contiene una gran mayoría de revistas en inglés. Estos sesgos son especialmente problemáticos en las ciencias sociales y las humanidades, áreas en las que la investigación está más orientada a temas regionales y nacionales. Muchos otros campos científicos tienen una dimensión nacional o regional — por ejemplo, epidemiología del VIH en el África subshariana.
Este pluralismo y la relevancia social tienden a ser suprimidos cuando se crean artículos de interés a los guardianes del alto impacto: las revistas en inglés. Los sociólogos españoles muy citados en Web of Science han trabajado en modelos abstractos o estudiado datos de los Estados Unidos. En ese proceso se pierde la especificidad de los sociólogos con alto impacto en las revistas en castellano: temas como la ley laboral local, atención médica para ancianos o empleo de inmigrantes.4 Indicadores basados en literatura de alta calidad no inglesa servirían para identificar y recompensar la excelencia en investigación localmente relevante.

4. Los procesos de recopilación y análisis de datos deben ser abiertos, transparentes y simples.

La construcción de las bases de datos necesarias para evaluar debe seguir procesos establecidos antes de que la investigación sea completada. Ésta ha sido la práctica común entre los grupos académicos y comerciales que han desarrollado metodologías de evaluación durante varias décadas. Estos grupos publicaron los protocolos de referencia en la literatura revisada por pares. Esta transparencia permite el escrutinio y control de los métodos. Por ejemplo, en 2010, un debate público sobre las propiedades técnicas de un importante indicador utilizado por uno de nuestros grupos (el Centro de Estudios de Ciencia y Tecnología (CWTS) de la Universidad de Leiden, en los Países Bajos), se saldó con una revisión en el cálculo de este indicador.5Las nuevas empresas comerciales en el campo deben responder a los mismos estándards. Nadie tiene porque aceptar evaluaciones automáticas salidas de caja negras o procesos impenetrables. La simplicidad es una virtud en un indicador porque favorece la transparencia. Pero indicadores simplísticos pueden distorsionar la evaluación (veáse el principio 7). Los evaluadores debe esforzarse en encontrar un equilibrio: indicadores simples que sea respetuosos con la complejidad de los procesos de investigación descritos.

5. Los datos y análisis deben estar abiertos a verificación por los evaluados

Con el fin de asegurar la calidad de los datos, los investigadores incluídos en estudios bibliométricos tienen que poder comprobar que sus contribuciones han sido correctamente identificadas. Los responsables y gestores de los procesos de evaluación deben garantizar la exactitud de los datos usados mediante métodos de auto-verificación o auditoría por terceras partes. La universidades podrían implementar este principio en sus sistemas de información. Este debería ser un principio rector en la selección de proveedores de estos sistemas. La compilación y proceso de datos de alta calidad, precisos y rigurosos, lleva tiempo y cuesto dinero. Los responsables deben asignar presupuestos a la altura de estas necesidades de calidad.

6. Las diferencias en las prácticas de publicación y citación entre campos científicos deben tenerse en cuenta.

La mejor práctica en evaluación es proponer una batería de indicadores y dejar que los distintos campos científicos escojan los indicadores que mejor les representan. Hace unos años, un grupo de historiadores recibió una puntuación relativamente baja en una evaluación nacional de pares porque escribían libros en vez de artículos en revistas indexadas por Web of Science. Estos historiadores tuvieron la mala suerte de formar parte del departamento de psicología. La evaluación de historiadoes y científicos sociales requiere la inclusión de libros y literatura en la lengua local; la evaluación de investigadores en informática necesita considerar las contribuciones a conferencias.
La frecuencia de citación varía según los campos: las revistas más citadas en ránkings de matemáticas tienen un factor de impacto alrededor de 3; las revistas más citadas en ránkings de biología celular tienen factors de impactor alrededor de 30.
Por lo tanto, se necesitan indicadores normalizados por campo, y el método más robusto de normalización esta basado en percentiles: cada publicación es ponderada según el percentil al que pertenece en la distribución de citaciones de su campo (por ejemplo, el percentil 1%, 10%, 20% más alto). Una única publicación altamente citada mejora un poco la posición de una universidad en un ranking basado en percentiles, pero puede propulsar la universidad de un lugar medio a la primeras posiciones en un ranking basado en promedios de citas.6

7. La evaluación individual de investigadores debe basarse en la valoración cualitativa de su portafolio de investigación.

El índice-h aumenta con la edad del investigador, aunque éste ya no publique. El índice-varía por campos: los científicos en las ciencias de la vida pueden llegar a 200; los físicos a 100 y los científicos sociales a 20 o 30.7 Es un índice que depende de la base de datos: hay informáticos que tienen un índice-h de 10 en Web of Science, pero de 20 o 30 en Google Scholar.8 Leer y valorar el trabajo de un investigador es mucho más apropiado que confiar en un único número. Incluso cuando se comparan un gran número de científicos, es mejor adoptar un enfoque que considere información diversa sobre cada individuo, incluyendo sus conocimiento, experiencia, actividades e influencia.

8. Debe evitarse la concreción improcedente y la falsa precisión.

Los indicadores de ciencia y tecnología tienden a la ambigüedad conceptual y a la incertidumbre, y se fundamentan en hipótesis que no están universalmente aceptadas. Por esta razón, las buenas prácticas usan múltiple indicadores con el fin de construir un retrato robusto y plural. En la medida que sea posible cuantificarla, información sobre incertidumbre y error debería acompañar la valores de los indicadores publicados, por ejemplo usando barras de error. Si esto no fuera posible, los productores de indicadores deberían al menos evitar ofrecer un falso nivel de precisión. Por ejemplo, el factor de impacto de revistas se publica con tres decimales para evitar empates. Sin embargo, dada la ambigüedad conceptual y la variabilidad aleatoria de las citas, no tiene sentido distinguir entre revistas por pequeñas diferencias en el factor de impacto. Se debe evitar la falsa precisión: sólo un decimal está justicaficado.

9. Deben reconocerse los efectos sistémicos de la evaluación y los indicadores.

Los indicadores cambian el sistema científico a través de los incentivos que establecen. Estos efectos deberían ser anticipados. Esto significa que una batería de indicadores es siempre preferible puesto que un solo indicador es susceptible de generar comportamientos estratégicos y substitución de objetivos (según la cual la medida se convierte en un fin en sí misma). Por ejemplo, en los 1990s, Australia financió investigación en universidades de acuerdo con una fórmula basada sobretodo en el número de publicaciones de un instituto. Las universidades podían calcular el “valor” de una publicación en una revista arbitrada; en el año 2000, el valor se estimó en Aus$800 (US$480) destinados a recursos de investigación. Como era de esperar, el número de artículos publicados por autores australianos subió, pero en revistas menos citadas, lo que sugiere que la calidad de los artículos disminuyó.9

10. Los indicadores deben ser examinados y actualizados periódicamente.

Las funciones de la investigación y los objetivos de la evaluación cambian o se desplazan, y el sistema de investigación co-evoluciona con ellos. Medidas que fueron útiles en su día pasan a ser inadecuadas y nuevos indicadores aparecen. Por lo tanto, los sistemas de indicadores tienen que ser revisados y tal vez modificados. Al darse cuenta de los efectos de su fórmula simplista de evaluación, en 2010 Australia adoptó la iniciativa Excellence in Research for Australia, que es más compleja y pone énfasis en la calidad.

Ciencia 2.0: Servicios de la Web Social para la investigación

Posted on Actualizado enn


En 2010 el grupo REBIUN elaboró un interesante documento sobre Ciencia 2.0 y la aplicación de las tecnologías de la web social a la investigación.

En él, se analizan los diferentes servicios y herramientas que la web social ofrece a los investigadores para trabajo colaborativo, intercambio de recursos y difusión de los resultados entre otros.

Argumenta que los usuarios de las tecnologías 2.0 pueden relacionarse de forma sencilla y abierta con otras personas, compartir los recursos y comunicarse de forma inmediata y simultánea con lo que estoy totalmente de acuerdo y me consta que muchos investigadores ya incorporan algunas de ellas de forma habitual en sus tareas.

Clasifica el documento en tres grandes bloques en los que agrupa y analiza las principales herramientas y servicios de la web, algunos de ellos muy conocidos entre la comunidad científica:

Los bloques son:
– Compartir la investigación
– Compartir los recursos
– Compartir los resultados

Como resumen del documento, resalto las principales herramientas que allí se mencionan:

1. Compartir la investigación

a. Redes sociales y científicas
Academia http://www.academia.edu/
Lalisio http://www.lalisio.com/
Methodspace http://www.methodspace.com/
ResearchGate http://www.researchgate.net/
Otros: SciSpace, Facebook, Linkedin, Ning y Twitter.

b. Bases de datos científicas
Researcher ID http://www.researcherid.com/

c. Plataformas de investigación
HUBzero http://hubzero.org/
NanoHUB http://nanohub.org/

d. Servicios instrumentals participativos
Servicios para compartir archives (google Docs, Office Live Workspaces, Zho, SciVee, Prezzi, etc…)

2. Compartir los recursos

a. Referencias bibliográficas
Zotero http://www.zotero.org/
RefWorks http://www.refworks.com/
RefBase http://www.refbase.net/
Bibme http://www.bibme.org/

b. Favoritos socials
2collab http://www.2collab.com/
citeUlike http://www.citeulike.com/
connotea http://www.connotea.org/
Mendeley http://www.mendeley.com/
Labmeeting http://labmeeting.com/

c. Índices de citas
Google Academico http://scholar.google.es/
Citeseer http://citeseerx.ist.psu.edu/
GetCITED http://www.getcited.org/

3. Compartir los resultados

a. Blogs y Wikis
Science Blog http://scienceblogs.com/
PLOS Blog http://www.plos.org/cms/blog
Open Wet Ware http://openwetware.org/wiki

b. Servicios de notícias científicas
SciTopics http://www.scitopics.com/
Wikio http://www.wikio.es/
ScienceDialy http://www.sciencedaily.com/
ScienceNews http://www.sciencemgq.org/
Science2.0 http://www.science20.com/
Research information http://www.researchinformation.info/

c. Acceso abierto
Scientific commons http://www.scientificcommons.org/
PLOS http://www.plos.org/
Sciyo http://sciyo.com/
Recolecta http://www.recolecta.net/

Acceso al documento