Sin categoría

La investigación en tiempos de #coronavirus. #COVID19 #investigacion #research #openAccess

Posted on

coronavirus

Afrontando grandes retos

El mundo ya ha cambiado, esto es un hecho, creo que nada volverá a ser como antes, aunque también creo que volveremos a una cierta normalidad y todo ello, gracias a dos pilares fundamentales:

  • Un robusto sistema sanitario en el que trabajan, como se ha demostrado, personas increíbles con vocación y formación extraordinaria y que están dando lo mejor de sí mismos para salvar nuestras vidas.  Trabajando en turnos imposibles afrontando situaciones realmente críticas. Creo que es algo que jamás podremos llegar a compensárselo.
  • Por otro lado, tenemos a los investigadores trabajando sin descanso para conseguir la deseada vacuna contra el coronavirus. Pero no solo eso, también realizando grandes esfuerzos para conseguir avances en todos aquellas invenciones e innovaciones que van ayudar a salir de esta crisis. Estamos reinventando industrias, aplicaciones, negocios, etc.. para un mismo objetivo.

Considero que somos afortunados, dentro de la gravedad del tema, de tener todo esto.

El escenario de la investigación

Dicho esto y centrándome en el escenario de la investigación, de las muchas cosas que tienen que cambiar, la investigación es una de las más importantes.

El acceso abierto a contenidos se está fortaleciendo y acelerando. Podemos ver diferentes artículos que hablan como relevantes editoriales científicas, están abriendo contenidos por la crisis del COVID-19.

Así, muchas editoriales están tomando iniciativas solidarias para facilitar el acceso gratuito a sus libros y revistas electrónicos que ofrezcan información y datos sobre el COVID-19.

Por otro lado, otras editoriales, museos, etc… están facilitando acceso a sus contenidos digitales para el simple entretenimiento de esa población que estamos recluidos en casa. Lo cual se agradece muchísimo también.

Todo ello iniciativas que considero muy interesantes y/o necesarias en estos momentos.

También vemos constantemente noticias sobre cómo se están agilizando (o intentando agilizar) sistemas de validación y test, de patentes, de burocracias para convocatorias, para la financiación de la investigación, para permitir acelerar el proceso de investigación en general.

(ver algunas referencias a todo ello al final del post).

Conclusión

La cuestión es: “sí se puede” es decir, existen alternativas para acelerar el proceso de investigación y el acceso y la validación de la ciencia, y aunque ahora se deban aplicar por imperativo, se debería estudiar cómo se deben revisar estos procesos de cara al futuro.

Por lo tanto, creo que muchos de los cambios han llegado para quedarse o deberían quedarse, porque están demostrando alta efectividad en todo el proceso de investigación.

Referencias y ejemplos:

Listado de editoriales con acceso libre a recursos:

https://noticias-biblioteca.unav.edu/2020/03/25/covid-19-editoriales-acceso-libre-recursos/

Para recoger toda esa información abierta a la investigación EBSCO Health. ha creado la página Trusted open access research, en la que presenta más de 125 editoras con los enlaces a sus contenidos.

Podemos acceder, entre otros, a los recursos de:

  • Lancet,
  • UpToDate,
  • Fisterra,
  • Institut Pasteur,
  • Dynamed,
  • Cochrane Library.

Otros artículos relacionados:

Elsevier abre contenidos para acelerar la lucha contra el Coronavirus:

https://www.elsevier.com/es-es/connect/coronavirus/elsevier-da-acceso-completo-a-su-contenido-sobre-el-covid-19-para-acelerar-la-lucha-contra-el-coronavirus

Otras editoriales ofrecen acceso abierto a sus revistas ante la alerta sanitaria:

https://www.apmadrid.es/hearst-espana-ofrece-acceso-gratuito-a-todas-sus-revistas-ante-la-alerta-sanitaria-del-coronavirus/

Las bibliotecas públicas abren sus contenidos digitales:

https://elpais.com/espana/madrid/2020-03-21/las-bibliotecas-publicas-abren-de-forma-temporal-sus-contenidos-digitales-a-los-usuarios-sin-carnet.html

España propone a la Unión europea un banco europeo de patentes abiertas frente al Coronnavirus:

https://elglobal.es/politica/espana-propone-un-modelo-de-misiones-y-un-banco-europeo-de-patentes-abiertas-frente-al-covid-19/

The #euroCRIS membership meeting in #Muenster #Germany #research #CRIS @euroCRIS_org @SIGMA_AIE

Posted on Actualizado enn

eurocris

I attended the Autumn 2019 Strategic Membership Meeting that was held in #Münster #Germany from 18th to 20th November. This time, the key topic was: ” Exploring challenges to achieve a more effective system interoperability in research information management

It was a really interesting meeting, were a hundred of participants had the opportunity to share knowledge and opinions related to the researh information management, among others.

There were many interesting presentations. One of them, related to Research Information in the Selection Process of Germany`s Universities of Excellence. Inka Spang  from the German council of research explained an initiative of German Excellence strategy for funding. They don’t consider rankings, nor bibliometrics to select university of excelence, it’s all about the data and what researchers do (research information): What they do about funding, PHD lectures, awards, publications, and so on. They have an excellent commission that elaborates 19 evaluation reports and a table comparing the research data of the applicants. They demonstrate that multidimensional approach was effective. Combining peer review and sets of indicators, combining quality and quantitative information, combining open formats and standardized specifications, etc. The balance of this 7-year initiative is good.

There were some presentations related to new research identifiers: Josh Brown from Crossref, related to the creation of grant IDs, and Stephanie Hagemann-Wilholt – TIB – German National Library of Science and Technology, about identifiers for congresses (avoiding the ambiguity of conference titles and with equal acronyms or fake congresses). Also there were presentations about data classifications, explaining that the main objects of classification are: persons, institutes and projects. Which persons interact in a project? And so on…

The euroCRIS board explains in their summary, their 2019-2020 strategy that focuses on the advances of the interoperability through CERIF and the promotion of the external collaborations, such VIVO, among others.

Stefan Schelske presentation was about new professional roles in research, the interesting project BERTI – Research on CRIS Managers works is about : A new type of research manager “The CRIS manager” emerging? seems the answer is yes…

Following, Christian Hauschke, from TIB Hannover , presented the ROSI project. This project is about the implementation of Open Sciencometric indicators. Based on the need to change the evaluation and  their perception. So, they asses that it’s needed to open scientometric data, indicators and infrastructures; it’s needed to have the scientific community in control and to design a prototype based on user needs.

I presented a project that we are developing in SIGMA this year about the automatic integration of the CRIS with the institutional repository DSPACE (The CRIS/IR interoperability project), that will led to easy and  gives speed to the upload process of the publication to the repository, through the CRIS.

In short, it was a really interesting meeting, with very interesting initiatives, focusing the attention on new metrics systems for the research evaluation, new identifiers and new professional roles for research, confirming that the research scenario is evolving rapidly.

Here, you can access to my presentation. In the same directory can find the other presentations

La actividad investigadora de las universidades españolas 2008-2017 #investigación #SUE #ciencia #IUNE #A4U

Posted on Actualizado enn

imagen10

El documento Actividad investigadora de las universidades españolas editado por el observatorio IUNE de la Alianza 4 universidades, muestra unos datos muy interesantes sobre la evolución de la investigación en las universidades españolas. Esta es su sexta edición y analiza el periodo 2008-2017 del Sistema universitario español (SUE). Mayoritariamente obtiene sus datos, sobretodo relativas a producción científica, de Wos.

El documento analiza una serie de indicadores que son: el gasto, el número de profesores, la producción científica, la colaboración científica, el impacto, las citas, la visibilidad, las patentes, la competitividad, la atracción y formación en talento.

Básicamente constata cosas que ya sabemos, la crisis económica ha perjudicado o ralentizado el crecimiento en gasto y en profesorado en las universidades, no obstante algunos indicadores son buenos, como son el crecimiento en producción científica, la productividad, la colaboración internacional, la visibilidad, la actividad innovadora (patentes) y la competitividad (en proyectos europeos).

Entrando un poco en detalle, el gasto público en educación universitaria para el periodo tuvo su valor máximo en 2010, pero a partir de 2011 se han producido incrementos negativos, con leves repuntes en 2015 y 2017.

Respecto a la evolución del número de profesores en el SUE se ha mantenido estable, con un ligero incremento del 6,59% (acumulativo del 0,71%). La fuente de datos es el Instituto Nacional de Estadística (hasta 2011) / Ministerio de Educación, Cultura y Deporte- SIIU (desde 2012), IUNE.

imagen1

Si vemos el indicador de producción científica por universidades, la primera es Universitat de Barcelona (UB), 9,23%, Universitat Autònoma de Barcelona (UAB) 8,19% y Universidad Complutense de Madrid (UCM) 6,7%.

Pero cuando se calcula el número de publicaciones por profesor y año, el orden de las universidades cambia destacando la Universitat Pompeu Fabra (UPF) con un promedio de 3,45, seguida de la Universitat Autònoma de Barcelona (UAB) con 2,48 y, en tercera posición, la Universitat de Barcelona (UB) con un promedio de 1,77 publicaciones por profesor.

imagen22

Cataluña lidera la producción científica con 120.141 publicaciones, seguido de la comunidad de Madrid con 93.605. Destacar que Andalucía es la que más ha crecido en número de publicaciones, situándose en el tercer puesto.

imagen33

 

La mayor actividad se encuentra en las ciencias experimentales (EXP).

imagen44

Respecto a la colaboración científica, se analizan dos indicadores, la colaboración entre autores y entre países. La colaboración entre autores (la que denominamos co-autoría y que es el promedio de firmas por documento y la mediana), ha crecido de forma considerable y sobretodo en ciencias experimentales (EXP). Destaca la Universidad de Cantabria (UNICAN) con el mayor índice 211,86 autores/publicación.

imagen5

La colaboración internacional ha crecido un 116,54% y la colaboración nacional un 22,43%. También han aumentado los documentos sin colaboración un 26,07%.

Si miramos por áreas, la colaboración internacional más alta es en ciencias experimentales (EXP), aunque es la que menos crece si la comparamos con otras áreas, como por ejemplo Artes y Humanidades /ART) y Ciencias Sociales (SOC) con un 153,76% y un 170% respectivamente.

Se colabora mucho con Estados Unidos, seguido de Alemania e Italia.

Respecto al impacto de las publicaciones, destacar que las 471,435 publicaciones han recibido 6.750.218 citas, con un promedio de 14,32 citas por documento, superior al 13,91 del periodo anterior.

El área que más citas recibe es Ciencias Experimentales (EXP) seguido de Medicina (MED).

Respecto a las citas en las universidades, destaca la Universistat de Barcelona (UB) que recibe el 12,40%, seguido por la Universitat Autònoma de Barcelona (UAB) y Universidad de Valencia (UV). En cambio si miramos las citas por profesor, destaca la Universitat Pompeu Fabra (UPF) con un promedio de 71,53 citasxprofesor, seguido de la Universitat Autònoma de Barcelona (UAB) con 47,01 y Universitat de Barcelona (UB) con 34.

imagen9

imagen7

Respecto a la visibilidad de las publicaciones, en Q1 y TOP3, hay un fuerte incremento del 76,56% en publicaciones en el primer cuartil y respecto a publicación en el TOP3 (de WOS) es del 47,74%.

Respecto a la producción tecnológica, se mira el número de patentes concedidas por la Oficina Española de Patentes y Marcas (OEPM) que se ha incrementado el 5,29% aunque el incremento es inferior al 7,37 del periodo anterior.

Lideran en patentes la Universidad Politécnica de Madrid (UPM), Universitat Politècnica de Catalunya (UPC) y Universitat de Barcelona (UB).

Respecto a la competitividad, es decir, la participación en proyectos europeos y nacionales, la participación en los europeos se han incrementado considerablemente en un 51,88%, en cambio en el plan nacional es del 15,71%.  El mayor número de proyectos europeos los consiguen UPM, UPC y UAB.

Cuando se calcula el número de proyectos europeos por cada 100 profesores, destaca UPF con un 6,27, seguido de UPC con 1,71 y UC3M con 1,65

Para proyectos nacionales, también encabeza UPF con 14,83 proyectos /100 profesores, seguido de UC3M con 8,42.

Respecto a la atracción y formación de talento, que se basa en los contratos postdoctorales Juan de la Cierva y Ramón y Cajal, han descendido un 25,68%. Aunque Juan de la Cierva ha crecido un 37,57%. UB, UAM y UAB son las que más contratos de este tipo consiguen.

Respecto a las becas FPI y FPU, se ha experimentado una fuerte caída del 79,66%. Universidad de Granada (UGR) lidera en becas FPU y UB en becas FPI.

Respecto a las 116.249 tesis defendidas, ha supuesto un incremento del 136,58%. UCM lidera, seguido de UB y UAB.

Una vez más, si miramos tesis por cada 100 profesores, UPF lidera con un 53,02 tesis, seguido de UAB con 40,87 y UAM con 34,79.

imagen8

De lo analizado, destacar el aumento de la colaboración internacional y el número de proyectos europeos conseguidos (+50% incremento). Así como el impacto y la visibilidad, entre otros. No obstante creo que pueden dar una visión bastante sesgada de la situación al analizar mayoritariamente datos de WOS, que en el caso de las publicaciones y otras actividades, deja de lado una parte importante de la producción científica del SUE y sobretodo perjudica a las áreas de Humanidades y Ciencias sociales, así como a actividades que no se recogen en Wos. Además considero que se analizan pocos indicadores en el caso de atracción formación de talento, donde solamente se tiene en cuenta Juan de la Cierva y Ramón y Cajal para el caso de atracción, cuando existen actualmente otras convocatorias prestigiosas para la atracción del talento. Por ejemplo, se podrían considerar un “Maria de Maetzu”, proyectos “Retos”, “Torres Quevedo” o quizás el programa de Doctorados industriales, por nombrar alguno.

Aún así, creo que es un buen informe, bastante sintético, que puede dar una idea del escenario y que permite medirse por ejemplo, con otros países, es decir, podría utilizarse para benchmarking.

Enlace al informe completo: aquí

 

 

 

La red Española sobre datos de investigación en abierto #Maredata #openresearchdata #openScience #openData @abadal @reme_melero @alexandrelopez @evamen

Posted on

maredata

He estado siguiendo la iniciativa Maredata. Maredata es La Red Española sobre Datos de Investigación en Abierto.

Esta interesante Red nace con el propósito de difundir el interés por la gestión de datos de investigación entre la comunidad académica (investigadores, gestores de proyectos, bibliotecarios, etc…) y de generar nuevas líneas de investigación al respecto. [1]

 Está compuesta por los grupos de investigación de las siguientes instituciones:

El investigador principal es Ernest Abadal Falgueras, de la Universitat de Barcelona, al que conozco personalmente. [2]

También participan, Alexandre López  (UOC), Reme Melero (CSIC) y Eva Méndez (UC3M) a los que también tengo el placer de conocer.

El proyecto de creación de esta red se inicia en 2015 y es un proyecto financiado a través del Plan Estatal I+D+I (proyecto CSO201571867REDT) en su convocatoria de 2015, proyecto que finalizó en 2018.

maredata2Recientemente han publicado un documento que contiene una serie de recomendaciones para la gestión de los datos de investigación. Creo que el documento recoge muy claramente las recomendaciones, un total de 17, explicadas de forma clara y concisa. Puede ser de gran ayuda para los investigadores (a quien va dirigido el documento) y sobretodo para aquellos que se inician en el camino de la publicación de datos en abierto (que no es una tarea sencilla, pero que con iniciativas como esta, se allana el camino).

El documento se inicia explicando qué es Maredata y sus objetivos, destaca también la cantidad de información sobre los datos abiertos que existe actualmente y cómo han tratado de aglutinar la información para que resulte clara y concisa.

Habla de como, a nivel europeo, se está fomentando la publicación de datos en abierto, explicando como en el 7PM, se puso en marcha un plan piloto del acceso abierto a las publicaciones y como ya en H2020 se consolidó como requisito para todas las disciplinas y se puso en marcha el plan piloto respecto a los datos de investigación. Así, algunas disciplinas debían presentar su plan de gestión de datos y disponer, en acceso abierto, los datos de sus trabajos. A partir del 1 de enero de 2017, este plan piloto se extendió a todas las áreas del programa marco y todos los proyectos financiados a partir de esa fecha, deben faciliar un plan de gestión de datos a lo largo de la ejecución del proyecto.

Introduce en concepto FAIR (Findable, Accessible, Interoperable and Resusable), que deben cumplir los datos que se publican en abierto.

Habla también de la EOSC, the European Open Science Cloud, un entorno virtual común para que todos los investigadores europeos puedan almacenar, gestionar, analizar y reutilizar datos para la investigación, la innovación y la educación. La idea de EOSC es ser el repositorio de referencia a nivel europeo para almacenar y preservar los datos de investigación, así como para para su uso (descargarlos).

Hace una descripción del ecosistema de los datos FAIR, que deben estar compuestos por su fichero de datos, por un identificador persistente, por una descripción de los estándares y formatos utilizados para la obtención, representación, visualización de datos, etc.. y los metadatos que describen los datasets que permiten su interpretación y reutilización.

Y, finalmente, pasa a realizar 17 recomendaciones:

  1. Adopción de los principios FAIR
  2. Seleccionar solo datos (datasets) relevantes o de interés
  3. Aplicar FAIR también a metadatos y al plan de gestión de datos
  4. Añadir a los informes de evaluación, beneficios y ventajas de haber hecho datos FAIR
  5. Elaborar el Plan de gestión de datos
  6. Indicar en el Plan si se han reutilizado datos ya existentes y cuáles
  7. Uso de estándares interoperables
  8. Publicar datos usando estándares
  9. Asignar licencias abiertas (cuando sea posible)
  10. Descripción detallada de las condiciones del ensayo o experimento
  11. indicar el mejor repositorio para depositar esos datos
  12. verificar términos y requisitos de las políticas respecto a los datos de investigación
  13. Promover la citación de los datasets
  14. Tener en cuenta los códigos de conducta (donde sea necesario)
  15. Diseminación e intercambio de buenas prácticas respecto a la gestión de datos y lecciones aprendidas
  16. Favorecer la colaboración
  17. Propiciar que los investigadores y los centros para los que se trabaja avalen la Open Science.
Me parece una muy buena iniciativa, dado que actualmente ya hay tanta información sobre la publicación de datos de investigación en abierto, que realmente es complicado encontrar la información relevante.
Destacar que, a nivel europeo, tanto el sitio Web de la Comunidad europea como la propia EOSC contienen también mucha información sobre la publicación de datos de investigación en abierto.
Finalmente, aquí está el enlace al documento referenciado: http://digital.csic.es/bitstream/10261/173801/1/Maredata-recomendaciones-ESP.pdf
Otras referencias usadas:

euroCRIS membership meeting in Helsinki: Towards and international #CRIS. #research #openScience #FAIR @euroCRIS_Org @VIVOcollab @SIGMA_AIE #HelsinkiMM

Posted on

Last week I attended and participated in the euroCRIS Membership Meeting that was held in the CSC – IT Centre for Science in Helsinki, Finland.

The theme of the meeting was:

“Taking steps towards international CRIS systems”.

The sessions were very interesting. Here are some highlight topics:

The announcement of the signature of a Memorandum of understanding between euroCRIS and openAIRE to foster their colaboration. euroCRIS has been collaborating with openAIRE for some time. OpenAIRE is an organization dedicated to shift scholarly communication towards openness and transparency and facilitate innovative ways to communicate and monitor research. They provide interoperability and linking services that connect research and enable researchers, content providers, funders and research administrators to easily adopt open science.

OpenAIRE allows for registration of institutional and thematic repositories registered in OpenDOAR, research data repositories registered in re3data, individual e-Journals, CRIS, aggregators and publishers.

One of the results in colaboration with euroCRIS was the publication of the OpenAIRE Guidelines for CRIS Managers, that provides guidance to add supportive functionalities for CRIS managers and users. Exchange of information between individual CRIS systems and the OpenAIRE infrastructure is an example of point-to-point data exchange between CRIS systems, since the OpenAIRE infrastructure itself is a CRIS system.

In this way, Germany presented their experience charging their CRIS in openAIRE (https://www.openAIRE…/helpdesk). The advantages for them were clear: deduplication, openAIRE graph, data enrichment, relations, connections, etc.

Another relevant topic was the advances of the EOSC, the European Open Science Cloud of the research data, of the European Commission. They have one goal, “by 2020 we want all European researchers to able to deposit, access and analyze European scientific data through a European Open Science Cloud. (Carlos Moedas, 2016)”. This initiative is part of the Digital Single Market. First pilot of EOSC was released in 2016. Now there is a roadmap defined to evolve it.

There were some presentations related to OpenScience and specially about FAIR data, some, of course, from the Finish perspective. Finland has made good advances in openScience and FAIR data, so it’s a very good case study. They presented the research Hub, an access point to access the Finish research. National Research Information Hub gathers and shares data about research conducted in Finland. In future, information about researchers, publication, research data, ongoing research funding and research infrastructures can be effortlessly found from a single source, so it will provide a single, uniform, open and comprehensive access point available for everyone. The project was launched in 2017 and everything should be ready by 2020.

Another relevant presentation was also from Finland explaining an initiative for building an infrastructure for Open Access journals (https://journal.fi). This platform is based in open Journal Systems 3, OJS from PKP (Public knowledge project). In this way, small journals with limited resources can join to this platform. It’s not an officially platform, but relevant. Allows 12 months embargoes, but most are totally open access. They have actually 82 journals: 55 open access, 20 with embargo. They are planning the publication of monographs.

Some other initiatives were presented that aggregates the information of local CRIS in a national CRIS. Some of them with the euroCRIS standard for interchange of research information, CERIF. This is a trend at European level.

There was an interesting open pannel discussion with some participants and open to the all members to participate. The topic to discuss, was proposed to answer the key topic of the meeting: “Taking steps towards international CRIS systems”.

In this way, 3 questions were proposed:

  • Which resources are needed?
  • Which will be the best infrastructure model?
  • How could be proceed to start practical realization? Which partners?

To sum-up, codifications and standards are needed; the best infrastructure could be 3-layer (local CRIS at the bottom, aggregator in the middle and a showcasing tool at the top) and a good tool could be VIVO.

I presented the SIGMA’s experience with VIVO during last year that has allowed having a new Experts guide and a roadmap to improve the showcasing tools of SIGMA. Due our collaboration and participation with the VIVO governance, I also presented a new project in which SIGMA is involved: The CERIF2VIVO mapping. This project is collaboration between euroCRIS, VIVO and SIGMA and will enable the interoperability of both, CERIF and VIVO.

You can access my presentation here: 20190529_EuroCris_Helsinki – sended.

VIVO (from Duraspace), an OpenSource tool for the scholarly showcasing, has a very strong community where international top-ranking universities are members. SIGMA participates in the leadership group and steering group since 2018 and has collaborated in the definition of its roadmap.

VIVO is a powerful tool for the showcasing of research information. Their model is a RIS (Research information system) with a semantic approach.

There have been really interesting days to make and good ‘x-ray’ of the state-of-the-art of trends, functionalities and processes of the CRIS systems at European Level.

 

Not only h-index… #research #metrics #openScience

Posted on Actualizado enn

Do no misunderstand me. Metrics like h-index are useful, but they are valid for comparisons between similar researches and similar kinds of research, but research is not one-dimensional, the process is complex and no two projects are identical, so we must use metrics carefully.

Metrics must be used both quantitative and qualitative and the more quantitative, the better.

But to understand this previous assertion we can explore about metrics, so the first question that comes to mind is:

How we must use metrics?

In the article “Guide to research metrics, of Taylor & Francis [2], they explain well:

First of all, you must ask what aspect of the research want to evaluate, and what you need to understand, if this can be measured, how it can be?, then match the correct metrics that will answer your question.

Use quantitative (research metrics) with qualitative (opinions). Research metrics are a useful tool but enhance them by gathering expert opinions: ask colleagues and peers for their thoughts too.

Finally, see a more rounded picture. Each metric gets its data from different sources and uses a different calculation. Use at least a couple of metrics to reduce bias and give you a more rounded view – so look at a journal’s Impact Factor but also at the Altmetric details for its most read articles for instance.

In this way, metrics (index-h, citations, SJR, JIF…), altmetrics (social media…), author profiles, opinions and so on are valid.

Then we can ask:

Which metrics are the best for me? [1]

Well, it depends; there are different aspects and levels to have into account. First of all, there are metrics at author level, at article level and finally at journal level.

metricas1

So, each kind of metrics is useful, typically, for different kind of users: researchers, journal editors and librarians.

Here, you can see an interesting overview of the most common research metrics, what they are, and how they’re calculated: downloadable guide.

In more detail, we can ask:

How metrics can help me? [2]

For Researchers: metrics can help to select which journal to publish in, and assess the ongoing impact of an individual piece of research (including your own).

For Journal editors: Research metrics can help you assess your journal’s standing in the community, raise your journal’s profile, and support you in attracting high-quality submissions.

For librarians: Research metrics can help you to select journals for your institution, and analyze their reach and impact. They can also help you assess the impact of research published by those in your institution.

Finally we can ask:

Where can I find metrics? [1]

metrics2

In short, we should not use only a limited qualitative metrics, for example h-index, due the biases that they produced, but we can make and elaborate use of mixing qualitative and quantitative metrics to do evaluations and benchmarking to take decisions.

I have read an interesting paper about Metrics. It examines four familiar types of analysis that can obscure real research performance when misused and offers four alternative visualizations that unpack the richer information that lies beneath each headline indicator [3]:

  1. Researchers: A beam-plot not an h-index. The h-index is a widely quoted but poorly understood way of characterizing a researcher’s publication and citation profile whilst the beam plot can be used for a fair and meaningful evaluation.
  2. Journals: The whole Journal Citation Record (JCR), not just the Journal Impact Factor (JIF). The JIF has been irresponsibly applied to wider management research whilst the new JCR offers revised journal profiles with a richer data context.
  3. Institutes: An Impact Profile not an isolated Average Citation Impact. Category normalised citation impacts have no statistical power and can be deceptive whilst Impact Profiles show the real spread of citations.
  4. Universities: A Research Footprint, not a university ranking. A global university ranking may be fun but suppresses more information than most analyses and hides the diversity and complexity of activity of any one campus, whilst a Research Footprint provides a more informative approach as it can unpack performance by discipline or data type.

With the advance of the OpenScience, this landscape of metrics is evolving rapidly, in this way we have two paradigms:

Old paradigm –> From idea to measurable citation count can take 5-10 years

New paradigm –> Metrics are available immediately.

So, we are seeing a rapid transformation of the metrics ecosystem and this is only the beginning, in my opinion.

References:

[1] https://www.slideshare.net/Library_Connect/researcher-profiles-and-metrics-that-matter

[2] http://explore.tandfonline.com/page/gen/a-guide-to-research-metrics

[3]You can download the paper here: https://clarivate.com/g/profiles-not-metrics/

EuroCRIS Strategic membership meeting @euroCRIS_Org #research #CRIS #SMMWarsaw #OpenScience

Posted on

This week (from 26 to 28 of November) it was carried out the Warsaw Strategic Membership Meeting 2018.

I attend and participate in the event that was really interesting.

The theme for this meeting was: Research Information Management: from an Institutional to a National-Level Implementation.

The main topics discussed were:

  • Open Science advances  and policies, case Plan S, (the European funders initiative for open Access and  Open Data publishing).
  • New evaluation methods for researchers and for the research due to the OpenScience scenario.
  • Some examples of national-Level implementations of  CRISs, like in Poland, POLON (The Integrated System of Information on Science and Higher Education)
  • Repository and  CRIS integrations
  • Semantic approaches of science
  • The openAIRE advances with the integracion of Repositories and CRISs. The OpenAIRE Guidelines for CRIS Managers was presented.
  • P-O-PF an  interesting interchange of data between funders and CRISs.
  • A presentation of EUNIS organisation and  an invitation to collaborate in EUNIS 2019.

We, SIGMA, presented our Universities consortium model, as an example of success model in Europe.

Always a great opportunity to share knowledge and experiences  at International level!

Photo Gallery: