Más novedades PubMed 2020

Ya tenemos noticia de los grandes cambios que va a transformar a PubMed. Hoy os presento más cambios de esta plataforma.

La presentación de BiblioMadSalud, con todos los cambios del nuevo PubMed la tenéis aquí:

2 formas diferentes de buscar en PubMed

Continuando con la entrada anterior “Trucos de búsqueda en PubMed” aquí os dejo una infografía que ilustra dos enfoques de búsqueda diferentes según nuestras necesidades de información.
Espero que os guste.

Trucos de búsqueda en PubMed

La búsqueda de información viene condicionada por una serie de factores tales como nuestros objetivos, tema de la búsqueda así como tiempo y recursos disponibles.

Por ello, una vez definida nuestra pregunta que ha de contestar nuestra búsqueda de información, lo primero que debemos hacer es seleccionar la fuente de información.

Muchas veces vamos directamente a buscar en PubMed cuando no es la fuente de elección para el tipo de búsqueda que necesitamos llevar a cabo. En otras ocasiones sí lo es y en estos casos nuestra forma de consulta es diferente dependiendo de si queremos unos pocos artículos que van a contestar nuestra pregunta o si vamos a necesitar realizar una búsqueda de todo lo relevante publicado sobre un tema o deseamos reducir el NNR (Numbers Needed to Read).

En la primera de las situaciones hemos de realizar una búsqueda sencilla partiendo de la ventana de búsqueda inicial. Para ello lo recomendable no complicar mucho la estrategia y realizarla al modo “Google”.

En la siguiente presentación hay recomendaciones para este tipo de búsqueda y un ejemplo:

Pero PubMed dispone de funcionalidades que nos van a ayudar a realizar una búsqueda experta. Será útil en el caso de que estemos buscando estudios en búsquedas sistemáticas de la literatura o una búsqueda en la que queramos ahorrar tiempo reduciendo el número absoluto de referencias e incrementando el número de referencias relevantes. Un ejemplo sería el utilizar el tesauro MeSH, las etiquetas de campos de registro y los filtros metodológicos disponibles en Clinical Queries.

En la siguiente presentación vemos los trucos y recomendaciones para cuando queramos llevar a cabo una búsqueda experta.

Y recuerda, si necesitas realizar una búsqueda experta contacta con el bibliotecario/documentalista de ciencias de la salud que sabrá orientarte en todos los pasos metodológicos que este tipo de búsqueda requiere.

Bibliografía:

Campos-Asensio C. Como elaborar una estrategia de búsqueda bibliográfica. Enferm Intensiva. 2018 Oct – Dec;29(4):182-186. doi: 10.1016/j.enfi.2018.09.001. PMID: 30291015.

Novedad PubMed Labs: Accesible el icono de Localizar en Biblioteca

Ahora podemos activar en PubMed Labs la opción para ver el icono de acceso a la biblioteca de dos formas:

  • Si tenemos cuenta personal en My NCBI si, tras iniciar la sesión con nuestra cuenta y contraseña en NCBI Site Preferences seleccionamos en Outside Tool la opción de C17.

Novedad PubMed: Dos formas de buscar revisiones sistemáticas

Como todos los años hace, la NLM ha actualizado su listado de encabezamientos MeSH. Entre las novedades destaca el nuevo tipo de publicación “Systematic Review” que, además, ha aplicado de manera retrospectiva a las referencias de artículos que son revisiones sistemáticas (ver más en MEDLINE Data Changes—2019.

Por otro lado, la estrategia de búsqueda para el filtro de revisión sistemática también se ha actualizado de tal forma que solo recupera revisiones sistemáticas. Hasta ahora, este filtro recuperaba otros tipos de artículos, incluidos meta-análisis, revisiones de ensayos clínicos, medicina basada en la evidencia, guías, etc. En detalle este filtro es el siguiente:

(((systematic review[ti] OR systematic literature review[ti] OR systematic scoping review[ti] OR systematic narrative review[ti] OR systematic qualitative review[ti] OR systematic evidence review[ti] OR systematic quantitative review[ti] OR systematic meta-review[ti] OR systematic critical review[ti] OR systematic mixed studies review[ti] OR systematic mapping review[ti] OR systematic cochrane review[ti] OR systematic search and review[ti] OR systematic integrative review[ti]) NOT comment[pt] NOT (protocol[ti] OR protocols[ti])) NOT MEDLINE [subset]) OR (Cochrane Database Syst Rev[ta] AND review[pt]) OR systematic review[pt]

Por lo tanto, ahora podemos:

  1. Aplicar en nuestra búsqueda el filtro de revisión sistemática, disponible de tres maneras diferentes: en la opción que se encuentra en la barra lateral izquierda; incluyendo a nuestra estrategia de búsqueda “AND systematic[filter]”; o desde la pantalla de PubMed Clinical Queries.
  2. Utilizar “Systematic review[pt]“. Con esta última estrategia recuperaríamos menos referencias, al ser más restrictiva y, además, perder las referencias más recientes que todavía no han pasado por el proceso de indización de MEDLINE así como artículos de revistas que no forman parte de la base de datos MEDLINE pero si están incluidos en PubMed.

Más información aquí.

¿Cómo buscar si un artículo tiene material suplementario?

PubMed Central (PMC) y PubMed ofrecen nuevos filtros de búsqueda para encontrar artículos de revistas con información de datos.
En PubMed podemos buscar citas con datos usando “data[filter]” para buscar artículos con enlaces a datos relacionados en cualquiera de los campos “Secondary Source ID” o “LinkOut—Other Literature Resources” que hay tras el resumen del artículo.

Pero es en PMC donde disponemos de filtros para localizar artículos con diversos tipos de datos asociados:

  • “has suppdata[filter]” para buscar artículos con material complementario asociado.
  • “has data avail[filter]” para buscar artículos que incluyen una disponibilidad de datos o una declaración de accesibilidad de datos.
  • “has data citations[filter]” para buscar artículos que incluyan citas de datos.
  • “has associated data[filter]” para encontrar todos los artículos con cualquier tipo de sección de datos descrita anteriormente.

PMC_ Suppl Data Plos

Además, después de ejecutar una búsqueda en PMC, se puede aplicar rápidamente el filtro disponible en la columna lateral izquierda “Associated Data” para recuperar artículos con cualquier tipo de datos.

PMC associated data.PNG

Por último, para aumentar la visibilidad de las citas de datos, las declaraciones de disponibilidad de datos y los materiales complementarios disponibles en los artículos, el texto del artículo en PMC incluye un cuadro de “Associated Data”.

PMC_Supplementary Data.PNG

Más información aquí.

¿Sabes que en PubMed se indizan revistas fraudulentas?

La National Library of Medicine produce la base de datos MEDLINE y el repositorio de revistas a texto completo PMC (PubMed Central). Desde 1997 el motor de búsqueda PubMed nos permite buscar en MEDLINE de forma gratuita. En la entrada anterior ¿Pero no es lo mismo PubMed que MEDLINE? explicada las diferencias existentes entre ambas y que PubMed no solo es MEDLINE aunque su mayor componente sea este. En el siguiente diagrama de Venn publicado por Andrea Manca y cols. (Manca A, Moher D, Cugusi L, Dvir Z, Deriu F. How predatory journals leak into PubMed. CMAJ. 2018 Sep 4;190(35):E1042-E1045. doi: 10.1503/cmaj.180154. PubMed PMID: 30181150; PubMed Central PMCID: PMC6148641.) podemos ver la diferencia de contenido cuantificada y representada su solapamiento.

PUBMED PMC MEDLINE solapamiento

En este artículo se indican las diferentes políticas de selección de revistas para su inclusión en PMC y MEDLINE que provoca la entrada “por la puerta de atrás” de artículos procedente de revistas fraudulentas a PubMed. A diferencia de la política de selección de revistas en MEDLINE, que es muy estricta, PubMed Central tiene un criterio más relajado y flexible.

Previamente a que una revista se incluya en PMC esta ha de cumplir los siguientes requisitos:

  1. Tener un ISSN debidamente registrado.
  2. Ha de estar dentro del ámbito de PMC, como se describe en la sección “PMC Scope“.
  3. Proporcionar a NLM acceso inmediato al contenido.
  4. Debe de estarse editando al menos 2 años y con un mínimo de 25 artículos (por ejemplo, investigación original o artículos de revisión, informes de casos clínicos) revisados por pares.  en forma final antes de presentar la solicitud.

Después hay un procedimiento de 6 pasos que incluye:

  1. Presentación de la solicitud;
  2. Evaluación inicial de la solicitud donde la NLM comprueba que la revista cumple con los requisitos de solicitud previa mencionados;
  3. Revisión de la calidad científica de la revista;
  4. Evaluación técnica donde el editor envía un conjunto representativo de archivos de muestra, que se evalúan para garantizar que los datos de la revista cumplen con los estándares técnicos de calidad de PMC;
  5. Postproducción, una vez completada la fase de evaluación de datos.
  6. Lanzamiento donde la NLM refrenda el “Participation Agreements and Options” del editor y publica la revista en el sitio público de PMC con la aprobación del editor.La participación continua en PMC requiere que una revista y el editor de la revista sigan cumpliendo con los estándares de calidad de NLM para PMC y la colección de NLM a lo largo del tiempo.

En la página “How to participate in PMC” tenéis descrito todo el proceso de forma detallada.

Sin embargo, Andrea Manca y cols. argumentan que la aplicación de estos requisitos no siempre es uniforme y algunas de las revistas que se indizan en PMC tienen menos de 2 años de antigüedad y menos de 25 artículos (a menudo menos de 10). Para conseguirlo la revista ha de demostrar que al menos cuenta con un autor acreditado en su consejo editorial. Por este motivo, las revistas depredadoras a menudo utilizan la identidad de investigadores acreditados que no saben que se les incluye en el consejo editorial de estas revistas. También, esto explica el número masivo de correos electrónicos spam diarios que reciben muchos investigadores con invitaciones para unirse a un comité editorial de una revista.

Para evitar que revistas fraudulentas o depredadoras se incluyan en PubMed los autores proponen que la National Library of Medicine eleve el nivel para la inclusión de revistas en PubMed y PubMed Central y exigir que todos las revistas candidatas cumplan con los exigentes requisitos de MEDLINE.

 

Acceso a Aranzadi

A través de Saluda, Intranet de la Consejería de Sanidad dela Comunidad de Madrid, tenemos acceso a la base de datos Aranzadi Instituciones y Aranzadi “Expertos”. 

También disponemos de enlaces a más información de normativa y de Prevención de riesgos laborales en Saluda en el enlace “Saluda Normativa”.

También disponemos de acceso gratuito a EurLex, base de datos con legislación y documentos oficiales de la totalidad de las instituciones comunitarias

¿Qué es el nuevo algoritmo Best Match de PubMed?

Best Match es un nuevo algoritmo de búsqueda por relevancia para PubMed implantado en julio de 2017 que aprovecha la inteligencia de los usuarios y la tecnología de aprendizaje automático como una alternativa al orden por fecha que tradicionalmente nos ofrecía PubMed.

pm_best_match_fig1.png

Hasta hace poco de forma predeterminada los resultados se mostraban en orden cronológico inverso. Es decir, los artículos recién publicados primero. Si bien este orden de clasificación es deseable para buscar la información más reciente sobre un tema determinado o para un autor individual, puede no ser adecuado para otros tipos de búsquedas. Esto se agrava pues, como ocurre cuando buscamos en Google, más del 80% de los clics de los usuarios en los resultados de búsqueda ocurren en la primera página. Por lo tanto, para la mayoría de las consultas de PubMed con más de 20 resultados, los usuarios pueden fácilmente pasar por alto los documentos más útiles de la segunda o posteriores páginas.

Best Match se basa en un algoritmo de frecuencia de término ponderado. Incorpora el aprendizaje automático para volver a clasificar los principales artículos devueltos para una mayor relevancia. El algoritmo Best Match se construye con búsquedas pasadas de usuarios y con más de 150 señales de clasificación de relevancia (factores). La mayoría de estas señales se calculan a partir del número de coincidencias entre los términos de búsqueda y el registro de PubMed, mientras que otras son específicas de un registro (por ejemplo, tipo de publicación, año de publicación) o específicas de una búsqueda (por ejemplo, longitud de búsqueda).  journal.pbio.2005343.g002

Dado que generalmente los usuarios que ordenan por este nuevo algoritmo hacen clic en las citas de la primera página PubMed limita la lista de resultados a 10.000 referencias.

Si deseamos utilizar Best Match como nuestro orden predeterminado para los resultados de PubMed podemos cambiar las preferencias de nuestra cuenta de My NCBI .

Si quieres comprender mejor este nuevo algoritmo de PubMed no dejes de leer el artículo siguiente:

Fiorini N, Canese K, Starchenko G, Kireev E, Kim W, Miller V, Osipov M, Kholodov M, Ismagilov R, Mohan S, Ostell J, Lu Z. Best Match: New relevance search for PubMed. PLoS Biol. 2018 Aug 28;16(8):e2005343. doi: 10.1371/journal.pbio.2005343. eCollection 2018 Aug. PubMed PMID: 30153250.

También tienes más información aquí.

Qué límites y filtros podemos aplicar en búsquedas de información en cuidados

Para acotar el resultado de búsqueda, las bases de datos nos proporcionan diferentes recursos de filtrado con límites. Con ellos podemos excluir idiomas que no entendemos, buscar artículos que han sido publicados en cierto periodo de tiempo, recuperar artículos referentes a una población específica o buscar sólo determinados tipos de estudio o grupos de edad. Podemos limitar nuestro resultado a artículos publicados en revistas de enfermería seleccionado “Nursing Journals” dentro de la categoría de límite “Journal Categories” o directamente añadiendo a nuestra estrategia de búsqueda jsubsetn[text] (p. ej.: “Diabetes AND jsubsetn[text]”).

También disponemos de los filtros metodológicos o filtros de búsqueda (“hedges“) de los que ya hablé extensamente en una entrada anterior (https://ccamposhugf.wordpress.com/2013/08/22/que-son-los-filtros-de-busqueda/). Son estrategias de búsquedas desarrolladas y validadas para utilizar en bases de datos electrónicas que nos ayudan a perfeccionar la estrategia de búsqueda para recuperar estudios científicamente sólidos y clínicamente relevantes, por ejemplo, estudios diseñados para responder preguntas relacionadas con la efectividad de una terapia o la precisión de una prueba de diagnóstica. Estas estrategias prediseñadas se han de combinar con el término/s o descriptor/es de lo que deseamos buscar permitiéndonos una recuperación de la información con un alto grado de exactitud. En la página del Centre for Reviews and Dissemination (The InterTASC Information Specialists’ Sub-Group Search Filter Resource) podemos encontrar una recopilación de diferentes filtros para diversas bases de datos y plataformas (1). El desarrollo de filtros de búsqueda para la profesión de enfermería es limitado y se ha centrado en aspectos específicos del cuidado de enfermería (2-4).

Por último, recordar que en PubMed podemos guardar nuestros filtros creando y personalizando una cuenta MyNCBI tal como contamos en una anterior entrada de BiblioGETAFE (https://ccamposhugf.wordpress.com/2013/11/26/como-crearnos-una-cuenta-personal-en-pubmed-myncbi/).

Bibliografía:

  1. ISSG Search Filter Resource [Internet]. Glanville J, Lefebvre C, Wright K, editors.  York (UK):  The InterTASC Information Specialists’ Sub-Group; 2008 [actualizado 26 Febrero 2018; consultado el 8 mayo 2018].  Disponible en: https://sites.google.com/a/york.ac.uk/issg-search-filters-resource/home
  2. Berg A, Fleischer S, Behrens J. Development of two search strategies for literature in MEDLINE-PubMed: nursing diagnoses in the context of evidence-based nursing. Int J Nurs Terminol Classif. 2005 Apr;16(2):26–32.
  3. Lavin MA, Krieger MM, Meyer GA, Spasser MA, Cvitan T, Reese CG, Carlson JH, Perry AG, McNary P. Development and evaluation of evidence-based nursing (EBN) filters and related databases. J Med Lib Assoc. 2005 Jan;93(1):104–15.
  4. Simon M, Hausner E, Klaus SF, Dunton NE. Identifying nurse staffing research in MEDLINE: development and testing of empirically derived search strategies with the PubMed interface. BMC Med Res Methodol. 2010 Aug 23;10:76.

¿Debo incluir los Resultados (Outcomes) en la estrategia de búsqueda de una revisión sistemática?

Una revisión sistemática debe comenzar con una pregunta claramente definida y delimitada. La pregunta ha de especificar los tipos de población (los participantes), los tipos de intervenciones (y comparaciones) y los tipos de desenlaces que son de interés. Esta pregunta estructurada es lo que conocemos como PICO (iniciales en inglés). A estos componentes de la pregunta se puede añadir el tipo de diseño del estudio que será incluido (PICOS, donde la S significa diseño del estudio -Study-) y puede ser, por ejemplo, un ‘filtro’ para ensayos clínicos aleatorios.

Pero al trasladarlo a la estrategia de búsqueda es innecesario e incluso indeseable incluir todos los aspectos de la pregunta clínica. Este es el caso de los componentes relativos a las comparaciones y a los resultados. La evidencia nos dice que estos conceptos pueden no estar adecuadamente descritos en las partes “buscables” (como título o resumen) de los artículos y, a menudo, no están bien indexados con términos de vocabulario controlado (Chan 2004, Chalmers I, Glasziou P, Mantziari S).

Existe el sesgo de efecto adverso en las revisiones sistemáticas. El 62% de los autores de revisiones sistemáticas no mencionaron los resultados de efectos adversos en el protocolo. Además, el 35% de las revisiones sistemáticas modificaron, informaron parcialmente o excluyeron el resultado de los eventos adversos según se especificaba en sus respectivos protocolos registrados en PROSPERO (Parson R).

bias.jpg

Por otro lado, en muchos casos la búsqueda nos devuelve una gran cantidad de resultados y con baja precisión por lo que requerirá muchos recursos y esto podría convertirse en un problema. En tales circunstancias, los revisores pueden buscar medios alternativos para aumentar la precisión. La inclusión de términos de búsqueda que se relacionan con los resultados es una técnica comúnmente utilizada para aumentar la precisión en revisiones muy amplias. Sin embargo, dado que la notificación de los resultados ha demostrado ser pobre o sesgada agregar estos a la búsqueda puede aumentar el número de pérdida de estudios relevantes. Por lo tanto, los resultados se omiten intencionalmente de las estrategias de búsqueda y la estrategia para las revisiones de intervención a menudo se estructuran para encontrar los participantes, las intervenciones y el diseño del estudio.

Referencias:

Chan AW, Hróbjartsson A, Haahr MT, Gøtzsche PC, Altman DG. Empirical evidence for selective reporting of outcomes in randomized trials: comparison of protocols to published articles. JAMA. 2004 May 26;291(20):2457-65. PubMed PMID: 15161896.

Chalmers I, Glasziou P. Avoidable waste in the production and reporting of research evidence. Lancet. 2009 Jul 4;374(9683):86-9. doi: 10.1016/S0140-6736(09)60329-9. Epub 2009 Jun 12. Review. PubMed PMID: 19525005.

Glasziou P, Altman DG, Bossuyt P, Boutron I, Clarke M, Julious S, Michie S, Moher D, Wager E. Reducing waste from incomplete or unusable reports of biomedical research. Lancet. 2014 Jan 18;383(9913):267-76. doi: 10.1016/S0140-6736(13)62228-X. Epub 2014 Jan 8. PubMed PMID: 24411647.

Mantziari S, Demartines N. Poor outcome reporting in medical research; building practice on spoilt grounds. Ann Transl Med. 2017 May;5(Suppl 1):S15. doi: 10.21037/atm.2017.03.75. PubMed PMID: 28567397; PubMed Central PMCID: PMC5440299

Parsons R, Golder S, Watt I. More than one-third of systematic reviews did not fully report the adverse events outcome. J Clin Epidemiol. 2019;108:95-101. doi: 10.1016/j.jclinepi.2018.12.007. Epub 2018 Dec 13. PubMed PMID: 30553831.

Revisiones sistemáticas: Cómo documentar las estrategias de búsqueda en bases de datos automatizadas

Los bibliotecarios que participan en un proyecto de revisión sistemática deben redactar la parte del manuscrito que se refiere a los resultados de búsqueda. En una anterior entrada hablaba de “Cómo documentar los artículos obtenidos en búsquedas no automatizadas en la metodología de búsqueda bibliográfica” en una revisión sistemática. Hoy voy a tratar cuestiones de estilo cuando documentamos la estrategia de búsqueda en bases de datos automatizadas siguiendo el modelo propuesto por el Manual de estilo Cochrane.

Lo primero es relativo al formato de elección para las bases de datos más frecuentemente utilizadas. La Cochrane nos indica que deben escribirse con letras mayúsculas: MEDLINE, CENTRAL, OLDMEDLINE y CINAHL (no CINHAL). Otras bases de datos usan una combinación de letras minúsculas y mayúsculas, por ejemplo, Embase (no EMBASE ), PsycLIT (no PsychLIT) y PsycINFO (no PsychINFO).

Las fuentes de búsqueda se han de mencionar en el apartado de “Métodos” como “Métodos de búsqueda para la identificación de estudios” siguiendo el siguiente orden: [Cochrane Group name] Specialised Register (o Specialized Register o Trials Register), CENTRAL, MEDLINE, Embase y cualquier otra base de datos.

También se han de describir brevemente en el resumen de la revisión sistemática, por ejemplo, “Se realizaron búsquedas en CENTRAL, MEDLINE, Embase, otras cinco bases de datos y tres registros de ensayos (mes y año)”.

En la sección Métodos de búsqueda, se debe proporcionar la fecha de la búsqueda más reciente (día/mes/año) junto con el número de versión o versión (según corresponda) de cada base de datos. La fecha de inicio de la base de datos debe darse cuando se conozca. Los nombres de las bases de datos deben incluir la plataforma o el nombre del proveedor y los sitios web deben incluir el nombre completo y la URL.

Algunos ejemplos:

  • MEDLINE Ovid (1946 al 10 de febrero de 2015);
  • Embase Ovid (desde 1974 hasta el 9 de febrero de 2015);
  • CINAHL EBSCO (1982 a 9 de febrero de 2015);
  • PsycINFO Ovid (de 1806 a 10 de febrero de 2015);
  • LILACS (1982 a 10 de febrero de 2015);
  • Registro ISRCTN (www.isrctn.com; busqueda realizada el 10 de febrero de 2015);
  • ClinicalTrials.gov (www.clinicaltrials.gov; búsquedas realizadas el 10 de febrero de 2015).

Los términos de búsqueda serán “palabras de texto” (“text words” en inglés) y términos del vocabulario indexado o controlado. El formato preferido para referirse al vocabulario controlado de la NLM utilizado para indexar artículos para MEDLINE (y PubMed ) es MeSH (no MESH).

Si mostramos los enlaces a sitios web dentro del texto copiaremos y pegaremos la URL del sitio web, pero eliminando los caracteres innecesarios del final de la URL. Por ejemplo:

https://www.researchinformation.info/news/digital-science-opens-russia-subsidiary?utm_source=adestra&utm_medium=RINewsline&utm_campaign=RI%20NL%20MAY17

Debe acortarse a:

https://www.researchinformation.info/news/digital-science-opens-russia-subsidiary

Hay que omitir el prefijo ‘http: //’ o ‘https: //’ de este campo, no omitir el ‘www.’ si está presente (aunque la dirección probablemente funcionará sin ella) y no agregar ‘www.’ si no está incluido.

Además, cuando enviemos nuestro manuscrito a publicar hay que tener en cuenta que la mayoría de las revistas siguen las guías PRISMA (Preferred Reporting Items for  Systematic Reviews and Meta-Analyses Checklist item 8) que indican que hay que publicar como apéndice del artículo la estrategia de búsqueda de, al menos, una base de datos principal de tal forma que pueda ser reproducible.

El formato puede ser similar al de este ejemplo adaptado del artículo Alejandria MM, Lansang MA, Dans LF, Mantaring JB. Intravenous immunoglobulin for treating sepsis and septic shock. Cochrane Database Syst Rev2002;(1):CD001090, doi:10.1002/14651858.CD001090:

Apéndice: “Estrategia de búsqueda: MEDLINE (OVID)

#1         immunoglobulins/

#2         immunoglobulin$.tw.

#3         ivig.tw.

#4         1 or 2 or 3

#5         sepsis/

#6         sepsis.tw.

#7         septic shock/

#8         septic shock.tw.

#9         septicemia/

#10        septicaemia.tw.

#11        septicemia.tw.

#12        5 or 6 or 7 or 8 or 9 or 10 or 11

#13        4 and 12

#14        randomised controlled trials/

#15        randomised-controlled-trial.pt.

#16        controlled-clinical-trial.pt.

#17        random allocation/

#18        double-blind method/

#19        single-blind method/

#20        14 or 15 or 16 or 17 or 18 or 19

#21        exp clinical trials/

#22        clinical-trial.pt.

#23        (clin$ adj trial$).ti,ab.

#24        ((singl$ or doubl$ or trebl$ or tripl$) adj (blind$)).ti,ab.

#25        placebos/

#26        placebo$.ti,ab.

#27        random$.ti,ab.

#28        21 or 22 or 23 or 24 or 25 or 26 or 27

#29        research design/

#30        comparative study/

#31        exp evaluation studies/

#32        follow-up studies/

#33        prospective studies/

#34        (control$ or prospective$ or volunteer$).ti,ab.

#35        30 or 31 or 32 or 33 or 34

#36        20 or 28 or 29 or 35

#37        13 and 36”

¿Cuánto tiempo y personas son necesarias para realizar una revisión sistemática?

Recientemente en la lista que estoy subscrita IRMG se ha tratado el interesante tema del tiempo necesario para realizar una revisión sistemática y se ha aportado bibliografía de estudios sobre el tema. Este es un asunto que debe tenerse en cuenta antes de iniciar el proyecto y muchas veces somos los bibliotecarios los que alertamos a nuestros usuarios de la logística necesaria para llegar a buen puerto.

La realización de una revisión sistemática lleva mucho tiempo y no es una tarea a realizar en solitario, un grupo de 4-6 es el ideal debido a la gran cantidad de literatura que debe revisarse. Rohit Borah y cols. de la Universidad de Alabama han publicado un meta-análisis, utilizando el registro PROSPERO para cuantificar el tiempo y las persona necesarias para llevar a cabo una revisión sistemática. Este estudio proporciona una estimación actualizada del tiempo y el esfuerzo necesarios para realizar y publicar una revisión sistemática utilizando una amplia muestra de revisiones publicadas recientemente sobre una variedad de temas de intervenciones médicas. El tiempo medio estimado para completar el proyecto y publicar la revisión (desde inicio del registro del proyecto hasta la fecha de publicación) fue de 67,3 semanas (IQR = 42). El número de estudios encontrados en las búsquedas bibliográficas varió de 27 a 92 020; la tasa de rendimiento promedio de los estudios incluidos (eficiencia de la búsqueda o la tasa de rendimiento que se calcula dividiendo el número final de estudios incluidos por el número inicial de estudios encontrados, excluidos los duplicados, en la búsqueda bibliográfica) fue 2.94% (IQR = 2.5); y el número promedio de autores por revisión fue de 5, SD = 3.

En cuanto a los bibliotecarios médicos que participan en el una RS el cálculo del tiempo dedicado debe incluir las tareas específicas tales como el proceso de entrevista inicial y reuniones de seguimiento, desarrollo de estrategias de búsqueda, traducción de estrategias de búsqueda para volver a ejecutar en otras bases de datos, búsqueda en la literatura gris, realización de búsquedas manuales, documentación de la estrategia de búsqueda, utilización de software bibliográfico para la gestión y eliminación de duplicados y entrega de los resultados y redacción de la sección de métodos con la metodología de búsqueda. Recientemente Bullers y cols. estimaron que la duración acumulada en todas estas tareas fue de una media de 30.7 horas (SD = 30.0) con una mediana de 22 horas y un rango de 2 a 219 horas.

El resultado de referencias obtenidas tras las búsquedas y que hay que revisar suele ser muy abultado y suele desalentar a las personas que tienen que realizar la revisión. Sin embargo, la Cochrane en su manual (Cochrane Handbook,  Capítulo 6.4.4. Sensitivity versus precisión) nos dice que los resúmenes de artículos identificados a través de una búsqueda bibliográfica pueden ser revisados muy rápidamente para determinar la relevancia potencial. A una tasa de lectura estimada de forma conservadora de dos resúmenes por minuto, los resultados de una búsqueda en la base de datos pueden leerse a una tasa de 120 por hora (o aproximadamente 1000 en un período de 8 horas).

Por último, quiero mencionar PredicTER que es una herramienta de software para ayudar a los investigadores y profesionales a estimar el tiempo necesario para completar una revisión sistemática (SR) o un mapa sistemático (SM). Los valores predeterminados para cada entrada se toman de una encuesta de practicantes de síntesis de evidencia ambiental realizada por Neal Haddaway. PredicTER fue diseñado por Neal Haddaway (Stockholm Environment Institute) y Martin Westgate (Australian National University).

Referencias:

Borah R, Brown AW, Capers PL, et al. Analysis of the time and workers needed to conduct systematic reviews of medical interventions using data from the PROSPERO registry. BMJ Open 2017;7:e012545. doi: 10.1136/bmjopen-2016-012545

Allen IE, Olkin I. Estimating time to conduct a meta-analysis from number of citations retrieved. JAMA. 1999 Aug 18;282(7):634-5. PubMed PMID: 10517715

Bullers K, Howard AM, Hanson A, Kearns WD, Orriola JJ, Polo RL, Sakmar KA. It takes longer than you think: librarian time spent on systematic review tasks. J Med Libr Assoc. 2018 Apr;106(2):198-207. doi: 10.5195/jmla.2018.323. Epub 2018 Apr 1. PubMed PMID: 29632442; PubMed Central PMCID: PMC5886502

Saleh, A., Ratajeski, M., & Bertolet, M. (2014). Grey Literature Searching for Health Sciences Systematic Reviews: A Prospective Study of Time Spent and Resources Utilized. Evidence Based Library and Information Practice, 9(3), 28-50. https://doi.org/10.18438/B8DW3K

Herramientas para las búsquedas en revisiones sistemáticas: Conversores de estrategias de búsqueda

Cuando hacemos una búsqueda exhaustiva y sistemática de bibliográfica para un documento de síntesis de evidencia como una revisión sistemática, necesitamos buscar en más de una base de datos. En estos casos las estrategias de búsqueda son complejas e implican texto libre, términos de vocabulario controlado, comodines o sintaxis de adyacencia, por lo que la conversión no es un proceso sencillo. Además, las diferentes interfaces y motores de búsqueda tienen diferentes funciones disponibles e interpretan la lógica del usuario de formas distintas. Por ejemplo, la interfaz de PubMed hace la búsqueda ampliada o “explode” de los encabezados de materias MeSH de manera automática mientras que la interfaz de Ovid no lo hace. También los tesauros de encabezamientos de materias son distintos o incluso inexistentes como en la WOS (Más información aquí).

Por ello son útiles las herramientas que nos ayuda a “traducir” nuestra estrategia a diferentes bases de datos. Si bien no son perfectas, nos ayudan en un primer paso con la sintaxis de búsqueda. Entre los que utilizo destaco los dos siguientes:

MEDLINE Transpose
Este proyecto es una colaboración entre el College of Physicians and Surgeons of British Columbia (CPSBC)y la Collaboration for Leadership in Applied Health Research and Care South West Peninsula (PenCLAHRC).

Ha sido desarrollado para mitigar un problema de convertir la sintaxis de búsqueda entre las interfaces de PubMed y Ovid/MEDLINE.  Más información aquí.

Polyglot Search

En esta escribimos nuestra estrategia de búsqueda compleja en formato PubMed u Ovid MEDLINE y Polyglot Search intenta traducirla a cualquiera de los formatos admitidos del motor de búsqueda: EMBASE, WOS, CINAHL, SCOPUS, Cochrane,…
Systematic Review Accelerator.jpgEste módulo es parte del paquete de herramientas del Asistente de Revisión Sistemática gratuito del Bond University Centre for Research in Evidence-Based Practice. Polyglot Search Syntax Translator forma parte del Systematic Review Accelerator. Más información aquí.

¿Y tú, conoces algún conversor más?

MEDLINE/Ovid incorpora un nuevo campo de búsqueda (fx) a la búsqueda en texto libre (.mp)

Ovid_MEDLINE.jpgA partir del 1 de junio de 2018 MEDLINE en la plataforma Ovid incorporará el campo de palabra de subencabezamiento flotante o “Floating Subheading Word” (FX) al conjunto predeterminado de campos para búsquedas de texto libre (MP), en línea con el comportamiento de búsqueda en PubMed de NLM.

El conjunto de campos MP para la búsqueda de texto libre (o .mp.) cambiará de:

[mp=title, abstract, original title, name of substance word, subject heading word, keyword heading word, protocol supplementary concept word, rare disease supplementary concept word, unique identifier, synonyms]
A:
[mp=title, abstract, original title, name of substance word, subject heading word, keyword heading word, protocol supplementary concept word, rare disease supplementary concept word, unique identifier, synonyms, floating subheading word]
Si una estrategia de búsqueda existente utiliza cualquiera de las palabras de subencabezamientos flotantes (79 términos), este cambio puede afectar a los resultados y / o los resultados de las alertas que tengamos configuradas.