Información de la revista
Vol. 37. Núm. 5.
Páginas 343-354 (junio - julio 2013)
Visitas
21234
Vol. 37. Núm. 5.
Páginas 343-354 (junio - julio 2013)
Revisión
Acceso a texto completo
Google Scholar e índice h en biomedicina: la popularización de la evaluación bibliométrica
Google Scholar and the h-index in biomedicine: The popularization of bibliometric assessment
Visitas
21234
A. Cabezas-Clavijo, E. Delgado-López-Cózar
Autor para correspondencia
edelgado@ugr.es

Autor para correspondencia.
EC3: Evaluación de la Ciencia y de la Comunicación Científica, Departamento de Información y Comunicación, Facultad de Comunicación y Documentación, Universidad de Granada, Granada, España
Este artículo ha recibido
Información del artículo
Resumen
Texto completo
Bibliografía
Descargar PDF
Estadísticas
Figuras (4)
Mostrar másMostrar menos
Tablas (4)
Tabla 1. Índice h de las revistas de medicina intensiva (n=26) en Web of Science, Scopus y Google Scholar Metrics (2007-2011)
Tabla 2. Comparación del índice h de revistas de medicina intensiva según bases de datos
Tabla 3. Índice h de investigadores destacados en medicina intensiva (n=20) en Web of Science, Scopus y Google Scholar (2007-2011)
Tabla 4. Comparación del índice h de investigadores en medicina intensiva según bases de datos
Mostrar másMostrar menos
Resumen

El objetivo de este artículo es hacer una revisión de las características, prestaciones y limitaciones de los nuevos productos de evaluación científica derivados de Google Scholar, como son Google Scholar Metrics y Google Scholar Citations, y del índice h, el indicador bibliométrico adoptado como estándar por estos servicios. Asimismo se reseña la potencialidad de esta nueva base de datos como fuente para estudios en biomedicina y se realiza una comparación del índice h obtenido por las revistas e investigadores más relevantes en el ámbito de la medicina intensiva, a partir de los datos extraídos de Web of Science, Scopus y Google Scholar. Los resultados muestran que, pese a que los valores medios de índice h en Google Scholar son casi un 30% más elevados que los obtenidos en Web of Science y en torno a un 15% más altos que los recogidos por Scopus, no hay variaciones sustantivas en las clasificaciones generadas a partir de una u otra fuente de datos. Aunque existen algunos problemas técnicos, se concluye que Google Scholar es una herramienta válida para los investigadores en ciencias de la salud, tanto a efectos de recuperación de información como de cara a la extracción de indicadores bibliométricos.

Palabras clave:
Evaluación de la investigación
Bibliometría
Índice h
Análisis de citas
Revistas científicas
Bases de datos bibliográficas
Google Scholar
Google Scholar Metrics
Google Scholar Citations
Biomedicina
Ciencias de la salud
Abstract

The aim of this study is to review the features, benefits and limitations of the new scientific evaluation products derived from Google Scholar, such as Google Scholar Metrics and Google Scholar Citations, as well as the h-index, which is the standard bibliometric indicator adopted by these services. The study also outlines the potential of this new database as a source for studies in Biomedicine, and compares the h-index obtained by the most relevant journals and researchers in the field of intensive care medicine, based on data extracted from the Web of Science, Scopus and Google Scholar. Results show that although the average h-index values in Google Scholar are almost 30% higher than those obtained in Web of Science, and about 15% higher than those collected by Scopus, there are no substantial changes in the rankings generated from one data source or the other. Despite some technical problems, it is concluded that Google Scholar is a valid tool for researchers in Health Sciences, both for purposes of information retrieval and for the computation of bibliometric indicators.

Keywords:
Research evaluation
Bibliometrics
h-index
Citation analysis
Periodicals
Databases, Bibliographic
Google Scholar
Google Scholar Metrics
Google Scholar Citations
Biomedicine
Health sciences
Texto completo
Introducción

Desde el punto de vista de la evaluación de la ciencia y de la comunicación científica el siglo xxi ha arrancado con el nacimiento de nuevas herramientas llamadas, si no a sustituir, sí a complementar el uso de las tradicionales bases de datos de acceso a la información científica como PubMed, Web of Science (WOS) o Scopus, y de los ya asentados indicadores bibliométricos con el factor de impacto a la cabeza. En este sentido, las nuevas herramientas de acceso y evaluación científica objeto de este ensayo (índiceh y la familia Google Scholar) han supuesto la popularización del acceso a la información científica y de la evaluación de la investigación. Simples y sencillas de usar, calcular y entender −la divisa de estas nuevas herramientas−, así como de acceso libre y gratuito, han penetrado en el tejido científico a toda velocidad.

El objetivo de este artículo es hacer una revisión de las características de los nuevos sistemas de evaluación científica auspiciados por Google a partir de Google Scholar (Scholar Metrics, Scholar Citations) y del índice h, el indicador bibliométrico adoptado como estándar por estos servicios. Además, se realiza una comparación de los indicadores ofrecidos por estos productos con los que brindan los ya asentados Web of Science y Scopus, tomando como caso de estudio las revistas e investigadores más relevantes en el campo de la medicina intensiva.

El índice h: un nuevo indicador bibliométrico para medir el rendimiento científico

El factor de impacto, concebido originalmente en los años 1970 por Eugene Garfield, con la idea de seleccionar revistas para las colecciones bibliotecarias, bajo la asunción de que las revistas más citadas serían también las de mayor utilidad para los investigadores, y confeccionado a partir de los afamados Citation Indexes (Science Citation Index, Social Sciences Citation Index, hoy formando parte de la ISI Web of Science), sobrepasó con creces las expectativas de su creador y pronto se convirtió en el patrón oro de la evaluación, muy especialmente en el campo de la biomedicina.

Aunque los abusos en la aplicación de este indicador han sido denunciados desde hace años1,2 en los últimos tiempos han arreciado las críticas contra él, tanto por su forma de cálculo como por su aplicación indiscriminada en los procesos evaluativos3-5, especialmente en los que conciernen al rendimiento individual de los investigadores, aspecto este que es de todo punto incorrecto, como reconocía hace ya años el propio Eugene Garfield6.

Es en ese contexto de búsqueda de indicadores válidos para medir el desempeño individual en el que nace el índice h. Ideado por Jorge Hirsch en agosto de 2005, la novedosa propuesta del físico argentino condensa en un solo indicador las dimensiones cuantitativa (producción) y cualitativa (citas) de la investigación, una vieja aspiración de la bibliometría. Un científico tiene un índice igual a h cuando h de sus artículos han recibido al menos h citas cada uno.7 Es decir, un investigador con índice h de 30 es aquel que ha conseguido publicar 30 artículos con al menos 30 citas cada uno de ellos.

El nuevo indicador despertó un inusitado interés entre los especialistas en bibliometría, que pasaron a discutir sobre sus ventajas e inconvenientes y a ofrecer alternativas al mismo. Esto generó un auténtico aluvión de publicaciones, a tal punto que en 2011 se habían publicado ya más de 800 trabajos sobre el índice h1. Al margen de las numerosas variaciones propuestas para superar sus limitaciones (g, e, hc, hg, y, v, f, ch, hi, hm, AWCR, AWCRpA, AW…)8, el índice h se ha extendido desde la evaluación de investigadores, su destino original, a la medición de instituciones9, países10 o revistas científicas11,12.

El espaldarazo a la nueva métrica vino de la mano de las bases de datos centrales en bibliometría, Web of Science y Scopus, que lo incorporaron inmediatamente a su batería de indicadores, facilitando la consulta a todos los niveles de agregación. Y su consagración definitiva quedó refrendada por Google, al adoptarlo en los 2 productos de evaluación científica derivados de su buscador académico: Google Scholar Metrics, para revistas, y Google Scholar Citations, para investigadores.

El índice h ha quedado marcado en el subconsciente de muchos científicos como el indicador definitivo para medir el alcance de sus investigaciones. En líneas generales, esta métrica ha sido muy bien recibida por la comunidad científica por su facilidad de cálculo y por su capacidad para evaluar a los investigadores con un único número.

El índice h se caracteriza por su progresividad y robustez, así como por su tolerancia a los errores y desviaciones estadísticas. Se trata de un indicador progresivo, que solo puede ir en aumento a lo largo de la carrera de un científico, creciendo exponencialmente la dificultad para alcanzar magnitudes más altas cuanto más alto sea el propio valor. Esto le confiere robustez, ya que los índices h de los investigadores crecerán de forma sostenida en el tiempo o se mantendrán estables, pero no experimentarán grandes variaciones, lo que permite valorar la trayectoria de un investigador más allá de puntuales trabajos muy citados. Este mismo hecho le blinda frente a posibles errores en atribución de citas o búsquedas bibliográficas, habituales en las bases de datos comerciales.

Sin embargo, esta medida, al igual que todos los indicadores bibliométricos, no está exenta de algunas limitaciones:

  • -

    Para su cálculo adecuado debiéramos contar con un sistema de información o base de datos exhaustiva que contuviera todas las publicaciones y las citas asociadas a un investigador. Dado que con la sobreabundancia de información científica existente esto es (por el momento) una entelequia, es fundamental tener presente que el indicador obtenido es directamente proporcional a la cobertura y calidad de la base de datos manejada. En este sentido, como se verá más adelante en este trabajo, los índices h variarán según la base de datos empleada (Google Scholar, Web of Science, Scopus).

  • -

    El índice h se verá afectado por la producción científica de la unidad estudiada (organización, revista, investigador). Las que cuentan con mayor producción científica pueden obtener mayores índices h, penalizando a los actores con estrategias de publicación selectivas13.

  • -

    No es válido para comparar investigadores de áreas diversas, dado el distinto patrón de producción y citación de las disciplinas. Esta es una limitación inherente a todos los indicadores bibliométricos y solo puede solucionarse adoptando el siguiente adagio: comparar lo comparable; jamás se deben comparar los índices h o los factores de impacto de disciplinas o especialidades diferentes ya que los tamaños de las comunidades científicas y el comportamiento en términos productivos y de citación de las mismas difieren en gran medida de una a otra. Como ejemplo baste decir que la revista con mayor impacto en medicina intensiva alcanza en 2011 un factor de impacto de 11,080 mientras que en neurología la número uno presenta un índice de 30,445, sin que ello signifique en modo alguno que la segunda sea más relevante que la primera. Es conocido también que las revistas clínicas alcanzan cifras más modestas que las revistas de áreas básicas, y que las revisiones alcanzan un mayor número de citas que los artículos originales2, por citar solo algunas de las limitaciones del factor de impacto.

  • -

    No es adecuado para comparar investigadores noveles, de poca producción, con autores veteranos, de dilatada trayectoria científica. Para evitar este problema se sugiere comparar indicadores en ventanas de tiempo similares. Google Scholar ha adoptado esta perspectiva ofreciendo este indicador para los investigadores individuales, tanto para el conjunto de su carrera, como para el periodo más reciente, y en el caso de las revistas, para los últimos 5 años. Por su parte, tanto en Web of Science como en Scopus pueden acotarse con facilidad los períodos de tiempo de producción de las unidades estudiadas.

  • -

    No excluye las autocitas, limitación inseparable a los indicadores bibliométricos. Sin embargo, hay que señalar que la influencia de las autocitas sobre este indicador es menor que sobre otras métricas como el promedio de citas, ya que solo afectaría a los documentos que estén en el límite de contar para el índice h14. En cualquier caso, lo importante es que podamos calcular de forma rápida el indicador con y sin autocitas. Es lo que permiten hacer tanto Web of Science como Scopus, pero no Google Scholar.

  • -

    No es un indicador excesivamente discriminatorio, al tomar valores discretos y situarse en un rango habitualmente muy pequeño para la mayor parte de investigadores. Por ello es aconsejable acompañarlo de otras métricas que complementen la información que aporta el índice h.

  • -

    No tiene en cuenta la distinta responsabilidad y contribución de los autores en los trabajos, aspecto especialmente importante en biomedicina donde la investigación se hace en equipo lo que se refleja en un elevado número medio de autores por trabajo. En este sentido no es un indicador, como ocurre con el resto de los indicadores bibliométricos, que pondere la posición de los autores en la cadena de firmas, medio habitualmente empleado para identificar la atribución de responsabilidades en los trabajos.

  • -

    No tiene en consideración los trabajos muy citados. Una vez superado el límite establecido por el índice h, las nuevas citas recibidas por un trabajo serán irrelevantes de cara a aumentar el h de un investigador. Por otra parte, como se ha comentado previamente, esta misma circunstancia le hace muy estable en el tiempo, evitando las desviaciones que dichos trabajos muy citados generan en otros indicadores de impacto.

Así, podemos concluir que el índice h es en esencia un indicador que, más que éxitos puntuales en la carrera científica, mide la regularidad de un investigador en su productividad e impacto científicos. Pese a su enorme facilidad de cálculo y uso, debe emplearse con suma precaución, ya que nunca es aconsejable medir el rendimiento de un investigador o institución con un solo indicador.

La familia Google: Google Scholar, Google Scholar Metrics y Google Scholar CitationsGoogle Scholar

Google Scholar, nacido en noviembre de 2004, es un buscador de documentos académicos (artículos en revistas, libros, preprints, tesis, comunicaciones a congresos, informes), que incluye información del número de veces que los trabajos han sido citados así como enlaces a los documentos citantes, ofreciendo acceso al texto completo de los trabajos, siempre que estos estén disponibles libremente en la web, o se cuente con suscripción a ellos, si se accede desde una institución investigadora.

Gracias a su magnífico comportamiento en la recuperación de información, facilidad de uso y diseño a imagen y semejanza del buscador general de Google, se ha convertido en parada obligada de un importante porcentaje de científicos a la hora de realizar búsquedas de información15. Algunos estudios específicos en biomedicina muestran cómo Google Scholar solo es superado en uso por Web of Science, y muestra prácticamente los mismos resultados que PubMed16. Este mismo estudio señala que Google Scholar se usa como fuente de datos complementaria a Web of Science o PubMed, y que los usuarios valoran su facilidad de uso, velocidad en la respuesta y gratuidad, frente a la precisión y calidad en los resultados, que se perciben como factores determinantes en las otras 2 fuentes de datos mencionadas. En el caso de la biomedicina varios estudios atestiguan la importancia de Google Scholar en su función de puerta de acceso a la información científica, como señalan tanto editoriales en las principales revistas biomédicas17 como los estudios comparativos acerca de la exhaustividad y precisión en la recuperación de Google Scholar en comparación con PubMed18-21. Para el caso de España, y entre los médicos de atención primaria, González de Dios et al.22 documentaron que el 70% de ellos accedía a la literatura científica a través de buscadores generales como Google o Yahoo y que tan solo el 29% hacía uso de bases de datos especializadas.

Google Scholar permite acceder al texto completo de los trabajos académicos no solo desde la fuente «oficial», sino también desde repositorios, webs personales y localizaciones alternativas, lo que proporciona enorme visibilidad a los materiales en acceso abierto. En este sentido, hay que señalar que la difusión en acceso abierto de materiales académicos es un gran aliado a la hora de facilitar la accesibilidad a las investigaciones e incrementar su difusión entre los investigadores del área, como señalan los propios datos en la especialidad de medicina intensiva23.

Además, la ordenación de los resultados según relevancia (criterio que se deriva principalmente del número de citas recibidas por los trabajos), asegura que los resultados no solo son pertinentes a nuestra búsqueda, sino también relevantes científicamente, al menos en lo que respecta a los primeros registros devueltos por el buscador. Habitualmente, dichos resultados son artículos muy citados, que provienen de publicaciones de prestigio y bien conocidas por los investigadores, por lo que a la rapidez y facilidad en la recuperación de información se le suma el hecho de que el investigador se siente «cómodo» con los resultados que obtiene. Como demuestra un reciente estudio realizado sobre los 20 primeros resultados de diversas búsquedas clínicas, los artículos recuperados por Google Scholar reciben un número de citas mayor y se publican en revistas de mayor factor de impacto que los documentos recuperados por PubMed21.

Sin embargo, Google Scholar presenta una serie de limitaciones que han de ser tenidas en cuenta a la hora de su utilización como fuente de información24,25. La principal de estas barreras es la política de inclusión de fuentes del buscador, que es opaca. Pese a que es conocido que Google Scholar rastrea la información contenida en sitios webs de universidades y centros de investigación, repositorios o sitios webs de editores científicos, no sabemos exactamente qué fuentes son esas, ni por supuesto el tamaño de la base documental. Por otra parte, junto a trabajos de investigación es posible también encontrar materiales docentes, e incluso de carácter administrativo, poco relevantes de cara a la labor investigadora. Asimismo, los datos de Google Scholar no tienen ningún tipo de normalización, consecuencia de la amplia cobertura, la variedad de fuentes de información y el procesamiento automático de la información25.

Los estudios comparativos entre Google Scholar y PubMed, el verdadero sancta sanctorum de las bases de datos bibliográficas en Biomedicina proporcionan resultados muy similares en lo que respecta a exhaustividad en la recuperación de información, si bien resultando más favorables al producto de la National Library of Medicine estadounidense cuando se trata de definir búsquedas de cierta complejidad.20 Es por ello que puede ser útil emplear una estrategia híbrida de cara a la recuperación documental, usando PubMed cuando se trate de realizar la búsqueda bibliográfica previa a cualquier estudio,18 y Google Scholar para identificar y acceder de forma rápida a documentos concretos, o en búsquedas muy definidas como artículos sobre un tema en una revista dada, o de un autor determinado.

Su característica de recoger las citas a los trabajos indizados le ha situado como un serio competidor de las bases de datos tradicionales usadas para la evaluación de la ciencia, generándose una amplia literatura que compara resultados a partir de los datos de Web of Science, Scopus y Google Scholar26-28. Autores como Harzing y Der Wal29 han llegado a afirmar que Google Scholar supone una democratización del análisis de citas.

Google Scholar Citations: perfiles bibliométricos de investigadores

Sabedor de la rápida expansión de Google Scholar entre los científicos, y conocedor de las necesidades que este sector tiene desde el punto de vista de la evaluación científica, Google se aprestó en julio de 2011 a lanzar un nuevo producto. Google Scholar Citations («Mis citas», en español) es un servicio que permite a un investigador establecer automáticamente una página con su perfil científico, donde figuran los documentos publicados y recogidos en Google Scholar, así como el número de citas que cada uno de ellos ha recibido, generando una serie de indicadores bibliométricos, encabezados por el omnipresente índice h30. Estas estadísticas se renuevan automáticamente con la nueva información localizada por Google Scholar (nuevas publicaciones de las que somos autores o nuevas citas a nuestros trabajos), por lo que el perfil científico está permanentemente actualizado sin que el autor tenga que hacer nada. Scholar Citations presenta 3 indicadores bibliométricos. Además del mencionado índice h, señala el número total de citas de los trabajos de un investigador y el índice i10, esto es, el número de trabajos del investigador con más de 10 citas (fig. 1). Los mencionados indicadores se calculan tanto para el conjunto de la carrera académica como para el período más reciente (6 últimos años).

Figura 1.

Perfil de un investigador en Google Scholar Citations.

(0.58MB).

El proceso de alta de un investigador es realmente sencillo; una vez proporcionada una dirección de correo institucional, y los nombres de firma (y sus variantes) que solemos usar, Google Scholar nos señalará los trabajos de los que somos autores con el objeto de que los confirmemos o rechacemos. Esos trabajos componen el corpus documental a partir del cual se obtendrán nuestros datos bibliométricos. Además el investigador puede optar entre hacer público o no su perfil, así como editar los registros, con lo que se consigue corregir o normalizar la información del buscador, unir registros duplicados e incluso añadir de forma manual otros trabajos que no figuren en el buscador académico. En este último caso, sin embargo, no contaremos con el número de citas recibidas por dichos documentos. Asimismo, el sistema permite exportar los registros en los formatos bibliográficos más habituales.

Otra ventaja de establecer un perfil en Scholar Citations es que recibiremos actualizaciones de documentos relevantes a nuestros intereses académicos. Por medio de algoritmos que tienen en cuenta las palabras que usamos en nuestros trabajos y los coautores de los mismos, así como los flujos de citas entre artículos y revistas, Google Scholar nos ofrecerá documentos adecuados a nuestras necesidades científicas.

Asimismo podemos vincularnos a coautores que estén registrados en Scholar Citations con perfil público, y añadir las palabras clave o descriptores que mejor definan nuestro trabajo. Esta prestación es digna de mención, ya que es el propio investigador quien indica las disciplinas o subdisciplinas en las que es experto. Con ello se posibilita la creación de un listado de investigadores según el número total de citas recibidas (fig. 2). En este sentido hay que señalar la lamentable falta de normalización en cuanto a la asignación de descriptores; y que posibilita que un mismo concepto se represente de diversas formas. Por ejemplo, en el campo de medicina intensiva podemos encontrar los descriptores Critical Care, Critical Care Medicine, Intensive Care o Medicina Intensiva, entre otros. Igualmente se ha detectado que algunos investigadores usan términos poco comunes con el fin de aparecer como los más destacados en una subespecialidad concreta. Otro fenómeno es el de investigadores con actividad en más de un campo del conocimiento. Por ejemplo, es frecuente en bibliometría la aparición de científicos de campos como física, química o informática, que les posibilita aparecer en los primeros lugares en disciplinas que no constituyen el grueso de su actividad, originando listados poco realistas o directamente falsos. En las disciplinas en las que los autores de este trabajo son especialistas (bibliometrics, scientometrics) es notoria la presencia junto a destacados investigadores de la disciplina de científicos absolutamente desconocidos para los especialistas en el campo. En este sentido cabría esperar una mayor seriedad por parte de Google al unir los descriptores que puedan considerase cuasi sinónimos, incluso se podría sugerir el uso de vocabularios normalizados como los encabezamientos MESH en biomedicina. Por su parte, en el caso de los investigadores sería deseable un mayor rigor a la hora de vincularse a las disciplinas.

Figura 2.

Investigadores con mayor número de citas en Google Scholar Citations vinculados al descriptor medicina intensiva (critical care).

(0.66MB).

Desde un punto de vista bibliométrico, se detectan algunas limitaciones en este servicio. Por ejemplo, la ausencia del número total de publicaciones de un investigador, el indicador más evidente para tomar el pulso de la actividad científica de un investigador, es la falta más notoria. De igual manera se echan en falta indicadores vinculados a la capacidad para publicar en revistas o medios de difusión de prestigio, si bien puede que la introducción de Scholar Metrics pueda suplir esta carencia en el corto plazo, en el caso de que Google se decida a integrar ambos productos.

Otro aspecto a contemplar es la posible picaresca de los autores. Al igual que se ha detectado en el caso de las disciplinas y subdisciplinas a las que uno se adscribe, es factible que un investigador se asigne artículos que no le corresponden, como bien señala Anne W. Harzing,31 si bien estas prácticas son fácilmente detectables. Otra posibilidad es la manipulación de la base de datos introduciendo autores falsos que inflen nuestros registros de citas. Los experimentos de Labbé32 y Delgado López-Cózar et al.33 demuestran que esto es factible y sencillo, lo que le diferencia de entornos cerrados y controlados como los de las grandes bases de datos Web of Science o Scopus, donde dicha manipulación, si bien posible, es mucho más compleja.

Otra duda es si los directorios generados serán representativos de la investigación en un campo. Los investigadores con escaso impacto académico disponen de pocos incentivos para crear su perfil público, ya que podrían quedar en evidencia respecto a otros compañeros con currículos de mayor nivel. Así pues, uno de los riesgos es crear un directorio de científicos de alto impacto, poco representativo de la investigación que se da en un campo30.

Google Scholar Metrics: rankings de revistas científicas

En abril de 2012, Google lanzó Google Scholar Metrics (GSM), denominado en español Estadísticas. Se trata de un producto bibliométrico, gratuito y de libre acceso, que ofrece el impacto de las revistas científicas y de otras fuentes documentales, y que usa el índice h como criterio de ordenación.

La consulta de este producto se puede realizar de 2 maneras: la primera de ellas es acceder a los rankings de las 100 revistas con mayor índice h según su idioma de publicación (fig. 3). En la actualidad son 10 los idiomas disponibles: inglés, chino, portugués, alemán, español, francés, coreano, japonés, holandés e italiano, si bien a este respecto hay que señalar que Google Scholar Metrics no parece diferenciar bien las revistas con contenidos bilingües. Desde noviembre de 2012, fecha en que se lanzó la última actualización del producto, se pueden consultar también las primeras 20 publicaciones según su índice h para 8 áreas del conocimiento, y 313 disciplinas, si bien solo para las revistas en inglés34.

Figura 3.

Listado de publicaciones con mayor índice h en español (2007-2011) según Google Scholar Metrics.

(0.28MB).

La segunda opción es insertar directamente en el cuadro de búsqueda palabras incluidas en los títulos de las revistas. En este caso, la búsqueda se realiza sobre todas las fuentes indizadas por Google Scholar Metrics (no tienen por qué estar entre el top de cada idioma o disciplina), devolviendo un máximo de 20 resultados ordenados según el índice h. Las fuentes indizadas en Google Scholar Metrics son aquellas que han publicado al menos 100 artículos en el período 2007-2011 y recibido alguna cita (esto es, se excluyen las que tienen un índice h=0). Este indicador cubre los trabajos publicados entre 2007 y 2011, así como las citas recibidas hasta el 15 de noviembre de 2012. De este modo, es un sistema de información estático, con actualizaciones periódicas, si bien Google no desvela con qué carácter se seguirán realizando estas.

Para cada una de las revistas se puede acceder a la información sobre los artículos que contribuyen al índice h. Así para una revista con un índice h de 14, como es el caso de Medicina Intensiva, se muestran los 14 artículos que han recibido 14 o más citas (fig. 4). Del mismo modo, pinchando sobre ellos, se puede acceder a los documentos citantes, de modo que se pueden analizar con facilidad las fuentes que contribuyen en mayor medida al índice h de una revista.

Figura 4.

Artículos más citados de Medicina Intensiva (2007-2011) según Google Scholar Metrics.

(0.6MB).

El hecho de que se usen marcos temporales bastante amplios (5 años) asegura que este indicador se mantendrá bastante estable a lo largo del tiempo. Dado que el índice h es un indicador con poco poder discriminatorio (toma valores discretos y es muy difícil aumentarlo a partir de cierto umbral de citación), Google ha incluido otro indicador, la mediana de las citas recibidas por los artículos que contribuyen al índice h, como segundo criterio para ordenar las revistas.

Sin embargo, Google Scholar Metrics muestra una serie de limitaciones muy importantes, que lo muestran poco fiable de cara a la evaluación científica34,35:

  • -

    Cobertura: mezcla de indiscriminada en los rankings de fuentes documentales tan distintas como revistas, series y colecciones incluidas en repositorios, bases de datos o actas de congreso.

  • -

    Errores en los recuentos de citas por falta de normalización de títulos de revistas, especialmente en aquellas revistas con versiones en varios idiomas.

  • -

    Presentación principal de resultados por idiomas y no por disciplinas científicas, que es lo habitual en productos de este tipo. Se comparan de este modo revistas de disciplinas científicas distintas, con distintos patrones de producción y citación.

  • -

    Imposibilidad de buscar por áreas o disciplinas en las revistas en idiomas distintos del inglés. Limitación de resultados en la búsqueda por palabras clave a los 20 títulos con mayor índice h.

  • -

    Ventana de citación insuficiente para evaluar publicaciones de alcance nacional en disciplinas de ciencias sociales y humanas.

Señaladas estas limitaciones, hay que valorar positivamente este paso adelante de Google, que va a facilitar la consulta del impacto de las revistas por parte de investigadores sin acceso a las tradicionales bases de datos de citas, de importante coste económico. Este hecho, además de acercar los indicadores bibliométricos a todos los investigadores, puede estimular la competencia entre los diferentes productos.

La medicina intensiva a través del índice h: comparando Google Scholar, Web of Science y Scopus

A fin de comprobar el comportamiento de Google Scholar y Google Scholar Metrics, y visualizar claramente las diferencias en los resultados en comparación con las bases de datos tradicionales, se han contrastado los índices h obtenidos en una muestra de revistas y de autores significativos dentro de la medicina intensiva. Como medida de comparación de las posiciones de revistas y autores, se ha usado el coeficiente de correlación de Spearman (rho), estadístico usado habitualmente en los estudios bibliométricos para medir el grado de asociación entre 2 variables a partir de su posición en diferentes rankings36.

Hemos realizado el ejercicio comparativo con las 26 revistas recogidas en los Journal Citations Reports (JCR) en 2011 dentro de la categoría medicina intensiva (critical care medicine) en 3 fuentes de datos, Web of Science, Scopus y Google Scholar Metrics. Tomando los artículos publicados entre 2007 y 2011, las revistas American Journal of Respiratory and Critical Care Medicine, Chest y Critical Care Medicine muestran los índices h más elevados, independientemente de la fuente de datos usada. El valor medio para el conjunto de las 26 revistas en este indicador es de 28 para el caso de Web of Science, 32 para las revistas en Scopus, y 36 en Google Scholar Metrics (tabla 1).

Tabla 1.

Índice h de las revistas de medicina intensiva (n=26) en Web of Science, Scopus y Google Scholar Metrics (2007-2011)

Revista  Índice HPosición
  WOS  Scopus  GSM  WOS  Scopus  GSM 
American Journal of Respiratory and Critical Care Medicine  81  93  96 
Chest  68  79  89 
Critical Care Medicine  64  74  83 
Intensive Care Medicine  47  55  63 
Journal of Trauma-Injury Infection and Critical Care  47  40  53 
Critical Care  40  45  53 
Journal of Neurotrauma  37  40  40 
Resuscitation  36  40  45 
Shock  31  34  38 
Injury  29  34  38  10 
Current Opinion in Critical Care  24  27  32  11  11  11 
Pediatric Critical Care Medicine  23  27  30  12  11  12 
Burns  23  25  29  12  13  13 
Neurocritical Care  21  24  25  14  14  15 
Journal of Critical Care  20  23  26  15  15  14 
Seminars in Respiratory and Critical Care Medicine  19  23  sd  16  15  sd 
Respiratory Care  19  22  23  16  17  17 
American Journal of Critical Care  17  21  25  18  18  15 
Critical Care Clinics  17  19  22  18  19  18 
Minerva Anestesiologica  17  19  19  19  19  19 
Anaesthesia and Intensive Care  14  17  18  21  21  20 
Critical Care Nurse  13  18  22  22  20 
Critical Care and Resuscitation  12  12  23  23  23 
Anasthesiologie und Intensivmedizin  23  25  25 
Medicina Intensiva  10  14  24  24  22 
Anästhesiologie, Intensivmedizin, Notfallmedizin, Schmerztherapie  25  26  24 
Promedio  28  32  36       

Fuente: datos de Google Scholar Metrics tomados de http://scholar.google.com/citations?view_op=top_venues (número de citas actualizado a 1 de abril de 2012). Datos de Web of Science y Scopus recopilados el 26 de septiembre de 2012.

Esto significa que los datos de Google Scholar Metrics son un 28% superior a los obtenidos en Web of Science, y un 13% superior a los recogidos en Scopus. Hay que señalar que los datos de Google Scholar Metrics contabilizan las citas recibidas hasta abril de 2012, mientras que el cálculo efectuado sobre las otras 2 bases de datos se realizó 6 meses más tarde, por lo que la diferencia porcentual entre Google Scholar Metrics y las otras 2 bases de datos puede estar algo infravalorada.

Por su parte, el promedio de índice h de la muestra de revistas de medicina intensiva analizada es en Scopus un 13,5% superior al obtenido en Web of Science (tabla 2). Sin embargo, la comparación del orden de las revistas según su índice h realizada a través de la correlación de Spearman (rho) muestra que las diferencias son inapreciables entre bases de datos. El valor de la correlación, 0,99 en los 3 casos, a un nivel de significación del 1% señala que pese a las diferencias cuantitativas en cuanto al índice h entre bases de datos, la ordenación de las revistas es prácticamente la misma independientemente de la fuente de datos que utilicemos.

Tabla 2.

Comparación del índice h de revistas de medicina intensiva según bases de datos

Fuente  Na  Rhob  Diferencia índice h 
WOS-SCOPUS  26  0,994  +13,5% (SCOPUS) 
WOS-GSM  25  0,989  +28,2% (GSM) 
SCOPUS-GSM  25  0,994  +12,9% (GSM) 

Diferencia índice h: diferencias porcentuales de los promedios de índice h entre bases de datos. Entre paréntesis, base de datos con mayor promedio de índice h. N: revistas; rho: coeficiente de correlación de Spearman.

a

Al existir una revista en Google Scholar Metrics para la que no se cuentan con datos, el análisis estadístico se realiza sobre 25 revistas en el caso de esta base de datos, en lugar de sobre las 26 revistas sobre las que se realiza el análisis estadístico en la comparación WOS-Scopus.

b

La correlación es significativa al 1%.

Al igual que para las revistas, se ha calibrado el índice h de científicos destacados en el campo de la medicina intensiva. Se han tomado los 20 investigadores más productivos en 2007-2011 dentro de la categoría medicina intensiva (critical care medicine) en Web of Science. Para ello, se diseñó la siguiente ecuación de búsqueda a través de la búsqueda avanzada (WC=Critical Care Medicine AND PY=2007-2011). De este modo, y haciendo uso de la opción Refine Results de la propia base de datos, se tomaron los investigadores más productivos, calculándose su índice h tanto en Web of Science, como en Scopus y en Google Scholar. De esta muestra se excluyeron algunos investigadores con nombres comunes, que podían entorpecer el proceso de búsqueda. Los datos de los índices h de estos investigadores pueden consultarse en la tabla 3. El valor medio de índice h asciende a 23 en el caso de Web of Science, 25 para Scopus, y 29 si se toma Google Scholar como fuente para el análisis.

Tabla 3.

Índice h de investigadores destacados en medicina intensiva (n=20) en Web of Science, Scopus y Google Scholar (2007-2011)

Investigador  Índice hPosición
  WOS  Scopus  GS  WOS  Scopus  GS 
Holcomb JB  37  36  43 
Bellomo R  36  40  48 
Matthay MA  27  29  35 
Rello J  25  27  33 
Angus DC  25  26  31 
Reinhart K  25  26  31 
Moore EE  24  27  31 
Kollef MH  24  27  31 
Azoulay E  23  26  28  11 
Wade CE  23  25  29  11  10 
Kellum JA  22  28  33  11 
Ely EW  21  24  25  12  12  14 
Scalea TM  21  22  25  12  14  14 
Herndon DN  20  22  28  14  14  11 
Giannoudis PV  19  24  27  15  12  13 
Annane D  19  21  25  15  16  14 
Gajic O  18  20  22  17  17  18 
Demetriades D  18  19  23  17  18  17 
Brochard L  15  19  21  19  18  19 
Sprung CL  15  19  20  19  18  20 
Promedio  23  25  29       

Datos recopilados el 28 de septiembre de 2012.

Las diferencias en cuanto al valor promedio de índice h entre las bases de datos son muy similares a las halladas para las revistas, obteniéndose en Google Scholar valores casi un 30% por encima de lo encontrado en Web of Science, y un 16% por encima de Scopus. Por su parte, la diferencia entre Web of Science y Scopus, a favor de esta última, es apenas del 10,9% (tabla 4).

Tabla 4.

Comparación del índice h de investigadores en medicina intensiva según bases de datos

Fuente  Rhoa  Diferencia índice h 
WOS-SCOPUS  20  0,918  +10,9% (SCOPUS) 
WOS-GS  20  0,934  +28,9% (GS) 
SCOPUS-GS  20  0,968  +16,2% (GS) 

Diferencia índice h: diferencias porcentuales de los promedios de índice h entre bases de datos. Entre paréntesis, base de datos con mayor promedio de índice h. N: revistas; rho: coeficiente de correlación de Spearman.

a

La correlación es significativa al 1%.

Se observan escasas diferencias en los rankings en función de una u otra variable, si bien el investigador más relevante en Web of Science (J.B. Holcomb) no lo es en Scopus ni en Google Scholar (R. Bellomo). El valor de la correlación de Spearman (rho) muestra que esta es muy alta entre las 3 fuentes de datos, especialmente entre Scopus y Google Scholar (0,968), a un nivel de significación del 1%.

Discusión

En la actualidad existen multitud de formas de evaluar la investigación bajo parámetros bibliométricos, y diversas fuentes de información para ello, con lo que, de facto, se ha superado el monopolio del factor de impacto y de ISI Web of Science para dichas tareas evaluadoras. Indicadores como el índice h o bases de datos y productos como los aportados por Google son solo algunas de las expresiones más reconocibles de dicha labor evaluadora.

El índice h es ante todo un indicador a emplear para valorar la trayectoria científica de un investigador, midiendo su regularidad en cuanto a su productividad e impacto científicos. Asimismo, puede emplearse para medir el rendimiento de las revistas e instituciones, si bien en este caso es recomendable limitar su cálculo a períodos limitados de tiempo. Pese a su enorme facilidad de cálculo y uso, y a su solidez y tolerancia a las desviaciones estadísticas, debe emplearse con suma precaución y, en cualquier caso, deben imponerse medidas y controles que neutralicen o minimicen sus sesgos. Uno de estos controles, en el caso de la biomedicina, sería realizar las comparaciones siempre dentro de una misma disciplina, y en el caso de los investigadores, ponderar carreras científicas de parecida duración o bien aplicar algún criterio de normalización en función de los años de trayectoria investigadora o de la posición académica que se ocupe. Asimismo hay que enfatizar que nunca es aconsejable medir el rendimiento de un investigador o institución con una única métrica, por lo que en todo momento se recomienda valerse de una batería de indicadores en los procesos evaluativos bajo parámetros bibliométricos, y a ser posible en conjunción con el asesoramiento experto de los especialistas del campo científico correspondiente.

Ahora bien, debe quedar claro que el empleo de índice h no excluye que el factor de impacto deba seguir usándose en este campo como indicador de calidad científica. Es un buen termómetro para medir las dificultades y barreras para acceder a una determinada revista científica, así como para evaluar la repercusión de esta. En el caso de la medicina es requisito inexcusable para los investigadores publicar sus trabajos en revistas que cuenten con factor de impacto, ya que este sigue siendo el patrón oro para evaluar el desempeño de las revistas científicas37. Las revistas con mayores factores de impacto reciben un gran número de manuscritos, viéndose obligadas a rechazar una gran parte, por lo que los autores deben competir entre sí para acabar publicando en ellas. Es por ello que el factor de impacto se puede considerar como un indicador de competitividad38. Baste el ejemplo de esta misma revista que aumentó en un 200% el número de originales recibidos tras obtener su primer factor de impacto39. Este fenómeno señala que es la propia comunidad científica la que se autorregula, ya que las revistas de mayor difusión incorporan a su vez controles más exhaustivos y exigentes, permitiendo solo la publicación a los miembros más destacados de la comunidad científica. Lógicamente, esto no evita que en estas revistas también se publiquen, junto a investigaciones relevantes, trabajos de escasa valía o utilidad para los investigadores, pero estos trabajos serán un porcentaje significativamente menor al que se difunden a través de revistas sin factor de impacto. Por esto conviene también recordar que el factor impacto de las revistas no es representativo del impacto de los artículos publicados en ellas. La práctica de considerar que el trabajo publicado en una revista, el autor que lo firma y la institución que lo cobija heredan mecánicamente el valor del factor de impacto de la revista donde se ha publicado es un mal muy extendido, a pesar de lo erróneo de este planteamiento, muy especialmente en el caso de los investigadores españoles40.

En definitiva, es importante contemplar el hecho de que todos los indicadores bibliométricos poseen limitaciones, y que no se debe usar un criterio único en la evaluación de la investigación, sino que es necesario aplicar un conjunto de indicadores a la hora de realizar valoraciones rigurosas y justas.

En lo que concierne a Google Scholar como fuente de información científica cabe concluir que es una seria alternativa a las tradicionales bases de datos. El buscador de Google ofrece resultados similares a los de las otras fuentes de datos, y puede ser preferible su uso para una primera aproximación documental a una temática concreta o para la localización de determinadas referencias bibliográficas. Sin embargo, en Biomedicina sigue siendo preferible el entorno controlado que aportan fuentes de datos especializadas como PubMed, con revistas y contenidos validados por la comunidad científica.

En cuanto a Google Scholar Citations y Google Scholar Metrics, los productos que se derivan de Google Scholar, si bien arrastran los problemas de falta de normalización del buscador, proporcionan de forma rápida y gratuita información bibliométrica muy valiosa tanto del desempeño de investigadores individuales como de revistas científicas, lo que sin duda contribuye a familiarizar a los investigadores con los indicadores bibliométricos y con su uso en la evaluación de la actividad científica.

Ahora bien, lo que resulta sorprendente cuando comparamos los resultados bibliométricos ofrecidos por Google Scholar y las tradicionales bases de datos bibliométricas Web of Science y Scopus, tanto si evaluamos investigadores como revistas, es que son prácticamente idénticos, por lo menos en lo que atañe a la medicina intensiva. No hay disparidades en los rankings obtenidos: los 3 sistemas coinciden en identificar a los autores y revistas más relevantes e influyentes. Las únicas diferencias son de escala y tamaño: Google Scholar recupera más citas que Scopus y este, a su vez, más que Web of Science.

Bien es verdad que, más allá de los aspectos técnicos, hay 2 diferencias importantes. La primera es de orden conceptual. El ethos científico exige controles previos que certifiquen y validen la generación y difusión del conocimiento, esto es, exige medios controlados. Pues bien, Google Scholar trabaja con un entorno incontrolado ya que procesa toda la información científica que es capaz de capturar en la Internet académica sin más, independientemente de cómo se produzca y comunique. En este sentido, las nuevas fuentes de información dinamitan y se enfrentan a las bases de datos tradicionales que se alimentan exclusivamente de fuentes científicas filtradas y depuradas (revistas y congresos) con los más rigurosos controles científicos. Sin embargo, a efectos de evaluación científica da igual el control que el «descontrol». La segunda diferencia es de orden crematístico, pues no es lo mismo el precio a pagar por unas fuentes u otras. Mientras Google Scholar es gratuita y de libre uso, las bases de datos multidisciplinarias suponen a las arcas de las instituciones de investigación millonarias facturas, además de imponer licencias muy restrictivas.

En conclusión, si el factor de impacto significó la entrada de la evaluación del rendimiento científico en la morada del mundo académico, y Google la popularización del acceso a la información científica, el índice h y las herramientas bibliométricas gestadas a partir de Google Scholar han significado la extensión de dicha evaluación científica, haciendo más accesible la recuperación de información académica y el cómputo de indicadores bibliométricos. En definitiva, la gran novedad de estos últimos años es que dichos productos han dejado de ser coto exclusivo de especialistas y están ahora, gracias a la facilidad de cálculo de estas métricas y de la gratuidad y accesibilidad de las nuevas herramientas, al alcance de cualquier investigador, en una suerte de popularización de la evaluación científica.

Financiación

Trabajo financiado con cargo al proyecto HAR2011-30383-C02-02 de la Dirección General de Investigación y Gestión del Plan Nacional de I+D+I. Ministerio de Economía y Competitividad.

Las fuentes de financiación no han tenido participación en el diseño del estudio, la colección de datos, el análisis o la interpretación de estos, en la redacción del manuscrito o en la decisión de enviarlo para su publicación.

Conflicto de intereses

Los autores declaran no tener ningún conflicto de intereses.

Bibliografía
[1]
P. Seglen.
Why the impact factor of journals should not be used for evaluating research.
Br Med J, 314 (1997), pp. 498-502
[2]
M. Bordons, M. Fernandez, I. Gómez.
Advantages and limitations in the use of impact factor measures for the assessment of research performance in a peripheral country.
Scientometrics, 53 (2002), pp. 195-206
[3]
M. Rossner, H. van Epps, E. Hill.
Show me the data.
J Cell Biol, 179 (2007), pp. 1091-1092
[4]
K. Simons.
The misused impact factor.
Science, 322 (2008), pp. 165
[5]
J.K. Vanclay.
Impact factor: outdated artefact or stepping-stone to journal certification?.
Scientometrics, 92 (2012), pp. 211-238
[6]
E. Garfield.
The impact factor and using it correctly.
Unfallchirurg, 48 (1998), pp. 413-414
[7]
J. Hirsch.
An index to quantify an individual's scientific research output.
Proc Natl Acad Sci U S A, 102 (2005), pp. 16569-16572
[8]
S. Alonso, F.J. Cabrerizo, E. Herrera-Viedma, F. Herrera.
h-Index: A review focused in its variants, computation and standardization for different scientific fields.
J Informetr, 3 (2009), pp. 273-289
[9]
G. Prathap.
Hirsch-type indices for ranking institutions’ scientific research output.
Curr Sci, 91 (2006), pp. 1439
[10]
E. Csajbók, A. Berhidi, L. Vasas, A. Schubert.
Hirsch-index for countries based on essential science indicators data.
Scientometrics, 73 (2007), pp. 91-117
[11]
T. Braun, W. Glänzel, A. Schubert.
A Hirsch-type index for journals.
Scientometrics, 69 (2006), pp. 169-173
[12]
Delgado López-Cózar E, Orduña Malea E, Marcos Cartagena D, Jiménez Contreras E, Ruiz-Pérez R. Journal Scholar: una alternativa internacional, gratuita y de libre acceso para medir el impacto de las revistas de Arte, Humanidades y Ciencias Sociales. EC3 Working Papers. 2012;5:1–25.
[13]
R. Costas, M. Bordons.
Una visión crítica del índice h: algunas consideraciones derivadas de su aplicación práctica.
Prof Inf, 16 (2007), pp. 427-432
[14]
R. Costas, M. Bordons.
The h-index: advantages, limitations and its relation with other bibliometric indicators at the micro level.
J Informetr, 1 (2007), pp. 193-203
[15]
D. Nicholas, P. Williams, I. Rowlands, H.R. Jamali.
Researchers’ e-journal use and information seeking behaviour.
J Inf Sci, 36 (2010), pp. 494-516
[16]
C. Hightower, C. Caldwell.
Shifting sands: science researchers on Google Scholar, Web of Science, and PubMed, with implications for library collections budgets.
Issues Sci Tech Librarian, 63 (2010),
[17]
D. Giustini.
How Google is changing medicine.
Br Med J, 331 (2005), pp. 1487-1488
[18]
M. Shultz.
Comparing test searches in PubMed and Google Scholar.
J Med Libr Assoc, 95 (2007), pp. 442-445
[19]
M.E. Falagas, E.I. Pitsouni, G.A. Malietzis, G. Pappas.
Comparison of PubMed, Scopus, Web of Science, and Google Scholar: strengths and weaknesses.
FASEB J, 22 (2008), pp. 338-342
[20]
M.E. Anders, D.P. Evans.
Comparison of PubMed and Google Scholar literature searches.
Respir Care, 55 (2010), pp. 578-583
[21]
E. Nourbakhsh, R. Nugent, C. Wang h Cevik, K. Nugent.
Medical literature searches: a comparison of PubMed and Google Scholar.
Health Info Libr J, 29 (2012), pp. 214-222
[22]
J. González de Dios, A. Flores Canoura, J. Jiménez Villa, J.A. Gutiérrez Fuentes.
Qué revistas médicas españolas leen y cómo se informan los médicos de atención primaria.
Aten Primaria, 43 (2011), pp. 629-636
[23]
M. Riera, E. Aibar.
¿Favorece la publicación en abierto el impacto de los artículos científicos? Un estudio empírico en el ámbito de la medicina intensiva.
Med Intensiva, 37 (2013), pp. 232-240
[24]
P. Jacsó.
Google Scholar revisited.
Online Inf Rev, 32 (2008), pp. 102-114
[25]
D. Torres-Salinas, R. Ruiz-Pérez, E. Delgado-López-Cózar.
Google Scholar como herramienta para la evaluación científica.
Prof Inf, 18 (2009), pp. 501-510
[26]
L. Meho, K. Yang.
Impact of data sources on citation counts and rankings of LIS faculty: Web of Science versus Scopus and Google Scholar.
J Am Soc Inf Sci Technol, 58 (2007), pp. 2105-2125
[27]
A. Kulkarni, B. Aziz, I. Shams, J.W. Busse.
Comparisons of citations in Web of Science, Scopus, and Google Scholar for articles published in general medical journals.
JAMA, 302 (2009), pp. 1092-1096
[28]
J. Bar-Ilan.
Citations to the Introduction to informetrics indexed by WOS, Scopus and Google Scholar.
Scientometrics, 82 (2010), pp. 495-506
[29]
A-W. Harzing, R. van der Wal.
Google Scholar as a new source for citation analysis.
Ethics Sci Environ Polit, 8 (2008), pp. 61-73
[30]
Á. Cabezas-Clavijo, D. Torres-Salinas.
Google scholar citations y la emergencia de nuevos actores en la evaluación de la investigación.
An ThinkEPI, 6 (2012), pp. 147-153
[31]
N.K. Herther.
Scholar citations—Google moves into the domain of Web of Science and Scopus.
Inf today, (2011),
[32]
C. Labbé.
Ike Antkare one of the great stars in the scientific firmament.
ISSI Newsletter, 6 (2010), pp. 48-52
[33]
Delgado-López-Cózar E, Robinson-García N, Torres-Salinas D. Manipulating Google Scholar Citations and Google Scholar Metrics: simple, easy and tempting. EC3 Working Papers. 2012;6.
[34]
Delgado-López-Cózar E, Cabezas-Clavijo Á. Google Scholar Metrics revisado: Ahora empieza a ir en serio. EC3 Working Papers. 2012;8.
[35]
E. Delgado-López-Cózar, Á. Cabezas-Clavijo.
Google Scholar Metrics: an unreliable tool for assessing scientific journals.
Prof Inf, 21 (2012), pp. 419-427
[36]
D. Torres-Salinas, E. Delgado-López-Cózar, E. Jiménez-Contreras.
Rankings of departments and researchers within a university using two different databases: Web of Science versus Scopus.
Scientometrics, 80 (2009), pp. 761-774
[37]
E. Fernandez-Mondéjar, D. Hugo Ceraso, F. Gordo Vidal, F. Guerrero López, M. Colmenero Ruiz.
Factor de impacto, una herramienta imperfecta pero imprescindible.
Med Intensiva, 34 (2010), pp. 493-494
[38]
Delgado López-Cózar E. Herramientas e indicadores bibliométricos para la evaluación de la investigación en Ciencias de la Salud. En: Procedimientos y herramientas en la traslación de la investigación biomédica en cooperación. Universidad Internacional Menéndez y Pelayo. Santander, 26 de julio de 2010.
[39]
E. Fernández Mondéjar, F. Guerrero López, M. Colmenero Ruiz, F. Gordo Vidal.
Actividad editorial y otros acontecimientos durante 2011 en Medicina Intensiva.
Med Intensiva, 36 (2012), pp. 1-2
[40]
E. Jiménez-Contreras, D. Torres-Salinas, R. Ruiz-Pérez, E. Delgado-López-Cózar.
Investigación de excelencia en España: ¿actores protagonistas o papeles secundarios?.
Med Clin (Barc), 134 (2010), pp. 76-81

http://sci2s.ugr.es/hindex/biblio.php

Copyright © 2012. Elsevier España, S.L. and SEMICYUC
Descargar PDF
Idiomas
Medicina Intensiva
Opciones de artículo
Herramientas
es en

¿Es usted profesional sanitario apto para prescribir o dispensar medicamentos?

Are you a health professional able to prescribe or dispense drugs?