¿Cómo limitamos el resultado de una búsqueda bibliográfica a solo humanos?: Recomendación para búsqueda en revisiones sistemáticas

Es una práctica habitual y recomendada en la búsqueda de evidencia para documentos de síntesis de evidencia, limitar los resultados a estudios realizados solo en humanos.

¿Sabrías cómo hacerlo? Inténtalo:

Aquí te dejo la presentación con la explicación:

Y el resumen sería el siguiente:

Búsqueda de revisiones sistemáticas en PubMed, MEDLINE (Ovid), EMBASE (Elsevier), CINAHL (EBSCO) y SCOPUS

Los filtros de búsqueda son estrategias de búsqueda diseñadas para recuperar tipos específicos de registros, como los de un diseño metodológico concreto.

Aquí os dejo varios filtros que he localizado que nos ayudarán a buscar no solo por revisiones sistemáticas, si no también por las diferentes tipologías dentro de la gran familia de revisiones (1).

Filtro para PubMed actualizado el 26 de septiembre de 2023 (2):

(«Systematic Review»[Publication Type:NoExp] OR «Systematic Reviews as Topic»[mesh:noexp] OR ((«comprehensive»[TIAB] OR «integrated»[TIAB] OR «integrative»[TIAB] OR «mapping»[TIAB] OR «methodology»[TIAB] OR «narrative»[TIAB] OR «scoping»[TIAB] OR «systematic»[TIAB]) AND («search»[TIAB] OR «searched»[TIAB] OR «searches»[TIAB] OR «studies»[TIAB]) AND («cinahl»[TIAB] OR «cochrane»[TIAB] OR «embase»[TIAB] OR «psycinfo»[TIAB] OR «pubmed»[TIAB] OR «medline»[TIAB] OR «scopus»[TIAB] OR «web science»[TIAB] OR «bibliographic review»[TIAB:~1] OR «bibliographic reviews»[TIAB:~1] OR «literature review»[TIAB:~1] OR «literature reviews»[TIAB:~1] OR «literature search»[TIAB:~1] OR «literature searches»[TIAB:~1] OR «narrative review»[TIAB:~1] OR «narrative reviews»[TIAB:~1] OR «qualitative review»[TIAB:~1] OR «qualitative reviews»[TIAB:~1] OR «quantitative review»[TIAB] OR «quantitative reviews»[TIAB])) OR «comprehensive review»[TIAB] OR «comprehensive reviews»[TIAB] OR «comprehensive search»[TIAB] OR «comprehensive searches»[TIAB] OR «critical review»[TIAB] OR «critical reviews» [TIAB] OR ((«electronic database»[TIAB:~1] OR «electronic databases»[TIAB:~1] OR «databases searched»[TIAB:~3]) AND (eligibility[tiab] OR excluded[tiab] OR exclusion[tiab] OR included[tiab] OR inclusion[tiab])) OR «evidence assessment»[TIAB] OR «evidence review»[TIAB] OR «exploratory review»[TIAB] OR «framework synthesis»[TIAB] OR «Integrated review»[TIAB] OR «integrated reviews»[TIAB] OR «integrative review»[TIAB:~1] OR «integrative reviews»[TIAB:~1] OR «mapping review»[TIAB:~1] OR «meta-review»[TIAB:~1] OR «meta-synthesis»[TIAB:~1] OR «methodology review»[TIAB:~1] OR («mixed methods»[TIAB:~0] AND «methods review»[TIAB:~1]) OR («mixed methods»[TIAB:~0] AND «methods synthesis»[TIAB:~1]) OR «overview reviews»[TIAB:~4] OR («PRISMA»[TIAB] AND «preferred»[TIAB]) OR «PRISMA-P»[TIAB:~0] OR «prognostic review»[TIAB:~1] OR «psychometric review»[TIAB:~1] OR («rapid evidence»[TIAB:~0] AND «evidence assessment»[TIAB:~0]) OR «rapid realist»[TIAB:~0] OR «rapid review»[TIAB:~1] OR «rapid reviews»[TIAB:~1] OR «realist review»[TIAB:~1] OR «review of reviews»[TIAB:~1] OR «scoping review»[TIAB:~1] OR «scoping reviews»[TIAB:~1] OR «scoping study»[TIAB:~1] OR («state art «[TIAB:~2] AND «art review»[TIAB:~1]) OR «systematic evidence map»[TIAB] OR «systematic mapping»[TIAB:~1] OR «systematic literature»[TIAB:~1] OR «systematic Medline»[TIAB:~2] OR «systematic PubMed»[TIAB:~2] OR «systematic review»[TIAB:~1] OR «systematic reviews»[TIAB:~1] OR «systematic search»[TIAB:~1] OR «systematic searches»[TIAB:~1] OR «systematical review»[TIAB:~1] OR «systematical reviews»[TIAB:~1] OR «systematically identified»[TIAB:~1] OR «systematically review»[TIAB:~1] OR «systematically reviewed»[TIAB:~1] OR «umbrella review»[TIAB:~1] OR «umbrella reviews»[TIAB:~1] OR «Cochrane Database Syst Rev»[ta] OR «evid rep technol assess full rep»[Journal] OR «evid rep technol assess summ»[Journal])

Filtro para MEDLINE (OVID) actualizado a 22 de septiembre de 2023 (3):

«systematic review».pt. or «Systematic Reviews as Topic»/ or «Cochrane Database of Systematic Reviews».jn. or (evidence report technology assessment or evidence report technology assessment summary).jn. or (((comprehensive* or integrative or mapping or rapid or realist or scoping or systematic or systematical or systematically or systematicaly or systematicly or umbrella) adj3 (bibliographical or bibliographically or bibliographics or literature or review or reviews)) or (state adj3 art adj1 review) or (research adj2 synthesis) or ((data or information) adj3 synthesis)).ti,ab,kf. or ((data adj2 (extract or extracting or extractings or extraction or extraction)).ti,ab,kf. and («review».ti. or «review».pt.)) or (((electronic or searched) adj2 database*) and (eligibility or excluded or exclusion or included or inclusion)).ti,ab,kf. or (overview adj4 reviews).ti,ab,kf. or ((review adj3 (rationale or evidence)).ti,ab. and «review».pt.) or (PRISMA or (preferred adj1 reporting)).ab. or (cinahl or (cochrane adj3 (trial or trials)) or embase or medline or psyclit or (psycinfo not (psycinfo adj1 database)) or pubmed or scopus or (sociological adj1 abstracts) or (web adj2 science)).ab.

Filtro para EMBASE (Elsevier) actualizado a 21 de septiembre de 2023 (4):

‘systematic review’/de OR ‘systematic review (topic)’/de OR ((‘comprehensive’:ti,ab,kw OR ‘integrated’:ti,ab,kw OR ‘integrative’:ti,ab,kw OR ‘mapping’:ti,ab,kw OR ‘methodology’:ti,ab,kw OR ‘narrative’:ti,ab,kw OR ‘scoping’:ti,ab,kw OR ‘systematic’:ti,ab,kw) AND (‘search’:ti,ab,kw OR ‘searched’:ti,ab,kw OR ‘searches’:ti,ab,kw OR ‘studies’:ti,ab,kw) AND (‘cinahl’:ti,ab,kw OR ‘cochrane’:ti,ab,kw OR ‘embase’:ti,ab,kw OR ‘psycinfo’:ti,ab,kw OR ‘pubmed’:ti,ab,kw OR ‘medline’:ti,ab,kw OR ‘scopus’:ti,ab,kw OR ‘web of science’:ti,ab,kw OR ‘bibliographic review’:ti,ab,kw OR ‘bibliographic reviews’:ti,ab,kw OR ‘literature review’:ti,ab,kw OR ‘literature reviews’:ti,ab,kw OR ‘literature search’:ti,ab,kw OR ‘literature searches’:ti,ab,kw OR ‘narrative review’:ti,ab,kw OR ‘narrative reviews’:ti,ab,kw OR ‘qualitative review’:ti,ab,kw OR ‘qualitative reviews’:ti,ab,kw OR ‘quantitative review’:ti,ab,kw OR ‘quantitative reviews’:ti,ab,kw)) OR ‘comprehensive review’:ti,ab,kw OR ‘comprehensive reviews’:ti,ab,kw OR ‘comprehensive search’:ti,ab,kw OR ‘comprehensive searches’:ti,ab,kw OR ‘critical review’:ti,ab,kw OR ‘critical reviews’:ti,ab,kw OR ((‘electronic database’:ti,ab,kw OR ‘electronic databases’:ti,ab,kw OR databases NEAR/3 searched) AND (eligibility:ti,ab,kw OR excluded:ti,ab,kw OR exclusion:ti,ab,kw OR included:ti,ab,kw OR inclusion:ti,ab,kw)) OR ‘evidence assessment’:ti,ab,kw OR ‘evidence review’:ti,ab,kw OR ‘exploratory review’:ti,ab,kw OR ‘framework synthesis’:ti,ab,kw OR ‘Integrated review’:ti,ab,kw OR ‘integrated reviews’:ti,ab,kw OR ‘integrative review’:ti,ab,kw OR ‘integrative reviews’:ti,ab,kw OR ‘mapping review’:ti,ab,kw OR ‘meta-review’:ti,ab,kw OR ‘meta-synthesis’:ti,ab,kw OR ‘methodology review’:ti,ab,kw OR ‘mixed methods review’:ti,ab,kw OR ‘mixed methods synthesis’:ti,ab,kw OR (overview NEAR/4 reviews) OR ‘PRISMA’:ab OR (‘preferred’:ti,ab,kw and reporting:ti,ab,kw) OR ‘prognostic review’:ti,ab,kw OR ‘psychometric review’:ti,ab,kw OR ‘rapid evidence assessment’:ti,ab,kw OR ‘rapid literature review’:ti,ab,kw OR ‘rapid literature search’:ti,ab,kw OR ‘rapid realist’:ti,ab,kw OR ‘rapid review’:ti,ab,kw OR ‘rapid reviews’:ti,ab,kw OR ‘realist review’:ti,ab,kw OR ‘review of reviews’:ti,ab,kw OR ‘scoping review’:ti,ab,kw OR ‘scoping reviews’:ti,ab,kw OR ‘scoping study’:ti,ab,kw OR ‘state of the art review’:ti,ab,kw OR ‘systematic evidence map’:ti,ab,kw OR ‘systematic evidence mapping’:ti,ab,kw OR ‘systematic literature’:ti,ab,kw OR ‘systematic Medline’:ti,ab,kw OR ‘systematic PubMed’:ti,ab,kw OR ‘systematic review’:ti,ab,kw OR ‘systematic reviews’:ti,ab,kw OR ‘systematic search’:ti,ab,kw OR ‘systematic searches’:ti,ab,kw OR ‘systematical literature review’:ti,ab,kw OR ‘systematical review’:ti,ab,kw OR ‘systematical reviews’:ti,ab,kw OR ‘systematically identified’:ti,ab,kw OR ‘systematically review’:ti,ab,kw OR ‘systematically reviewed’:ti,ab,kw OR ‘umbrella review’:ti,ab,kw OR ‘umbrella reviews’:ti,ab,kw OR ‘13616137’:is OR ‘Cochrane Database of Systematic Reviews’/jt

CINAHL (Ebsco) actualizada a 1 de agosto de 2023 (5):
(MH «meta analysis» OR MH «systematic review» OR MH «Technology, Medical/EV» OR PT «systematic review» OR PT «meta analysis» OR (((TI systematic* OR AB systematic*) N3 ((TI review* OR AB review*) OR (TI overview* OR AB overview*))) OR ((TI methodologic* OR AB methodologic*) N3 ((TI review* OR AB review*) OR (TI overview* OR AB overview*)))) OR (((TI quantitative OR AB quantitative) N3 ((TI review* OR AB review*) OR (TI overview* OR AB overview*) OR (TI synthes* OR AB synthes*))) OR ((TI research OR AB research) N3 ((TI integrati* OR AB integrati*) OR (TI overview* OR AB overview*)))) OR (((TI integrative OR AB integrative) N3 ((TI review* OR AB review*) OR (TI overview* OR AB overview*))) OR ((TI collaborative OR AB collaborative) N3 ((TI review* OR AB review*) OR (TI overview* OR AB overview*))) OR ((TI pool* OR AB pool*) N3 (TI analy* OR AB analy*))) OR ((TI «data synthes*» OR AB «data synthes*») OR (TI «data extraction*» OR AB «data extraction*») OR (TI «data abstraction*» OR AB «data abstraction*»)) OR ((TI handsearch* OR AB handsearch*) OR (TI «hand search*» OR AB «hand search*»)) OR ((TI «mantel haenszel» OR AB «mantel haenszel») OR (TI peto OR AB peto) OR (TI «der simonian» OR AB «der simonian») OR (TI dersimonian OR AB dersimonian) OR (TI «fixed effect*» OR AB «fixed effect*») OR (TI «latin square*» OR AB «latin square*»)) OR ((TI «met analy*» OR AB «met analy*») OR (TI metanaly* OR AB metanaly*) OR (TI «technology assessment*» OR AB «technology assessment*») OR (TI HTA OR AB HTA) OR (TI HTAs OR AB HTAs) OR (TI «technology overview*» OR AB «technology overview*») OR (TI «technology appraisal*» OR AB «technology appraisal*»)) OR ((TI «meta regression*» OR AB «meta regression*») OR (TI metaregression* OR AB metaregression*)) OR (TI meta-analy* OR TI metaanaly* OR TI «systematic review*» OR TI «biomedical technology assessment*» OR TI «bio-medical technology assessment*» OR AB meta-analy* OR AB metaanaly* OR AB «systematic review*» OR AB «biomedical technology assessment*» OR AB «bio-medical technology assessment*» OR MW meta-analy* OR MW metaanaly* OR MW «systematic review*» OR MW «biomedical technology assessment*» OR MW «bio-medical technology assessment*») OR ((TI medline OR AB medline OR MW medline) OR (TI cochrane OR AB cochrane OR MW cochrane) OR (TI pubmed OR AB pubmed OR MW pubmed) OR (TI medlars OR AB medlars OR MW medlars) OR (TI embase OR AB embase OR MW embase) OR (TI cinahl OR AB cinahl OR MW cinahl)) OR (SO Cochrane OR SO health technology assessment OR SO evidence report) OR ((TI comparative OR AB comparative) N3 ((TI efficacy OR AB efficacy) OR (TI effectiveness OR AB effectiveness))) OR ((TI «outcomes research» OR AB «outcomes research») OR (TI «relative effectiveness» OR AB «relative effectiveness»)) OR (((TI indirect OR AB indirect) OR (TI «indirect treatment» OR AB «indirect treatment») OR (TI mixed-treatment OR AB mixed-treatment) OR (TI bayesian OR AB bayesian)) N3 (TI comparison* OR AB comparison*)) OR ((TI multi* OR AB multi*) N3 (TI treatment OR AB treatment) N3 (TI comparison* OR AB comparison*)) OR ((TI mixed OR AB mixed) N3 (TI treatment OR AB treatment) N3 ((TI meta-analy* OR AB meta-analy*) OR (TI metaanaly* OR AB metaanaly*))) OR (TI «umbrella review*» OR AB «umbrella review*») OR ((TI multi* OR AB multi*) N2 (TI paramet* OR AB paramet*) N2 (TI evidence OR AB evidence) N2 (TI synthesis OR AB synthesis)) OR ((TI multiparamet* OR AB multiparamet*) N2 (TI evidence OR AB evidence) N2 (TI synthesis OR AB synthesis)) OR ((TI multi-paramet* OR AB multi-paramet*) N2 (TI evidence OR AB evidence) N2 (TI synthesis OR AB synthesis))

SCOPUS actualizada a 20 de diciembre de 2021 (6):

TITLE-ABS-KEY((systematic* W/3 (review* OR overview* )) OR (methodologic* W/3 (review* OR overview* ))) OR TITLE-ABS-KEY((quantitative W/3 (review* OR overview* OR synthes* )) OR (research W/3 (integrati* OR overview* ))) OR TITLE-ABS-KEY((integrative W/3 (review* OR overview* )) OR (collaborative W/3 (review* OR overview* )) OR (pool* W/3 analy* )) OR TITLE-ABS-KEY(«data synthes*» OR «data extraction*» OR «data abstraction*» ) OR TITLE-ABS-KEY(handsearch* OR «hand search*» ) OR TITLE-ABS-KEY(«mantel haenszel» OR peto OR «der simonian» OR dersimonian OR «fixed effect*» OR «latin square*» ) OR TITLE-ABS-KEY(«met analy*» OR metanaly* OR «technology assessment*» OR HTA OR HTAs OR «technology overview*» OR «technology appraisal*» ) OR TITLE-ABS-KEY(«meta regression*» OR metaregression* ) OR TITLE-ABS-KEY(meta-analy* OR metaanaly* OR «systematic review*» OR «biomedical technology assessment*» OR «bio-medical technology assessment*» ) OR TITLE-ABS-KEY(medline OR cochrane OR pubmed OR medlars OR embase OR cinahl ) OR SRCTITLE(cochrane OR (health W/2 «technology assessment» ) OR «evidence report» ) OR TITLE-ABS-KEY(comparative W/3 (efficacy OR effectiveness )) OR TITLE-ABS-KEY(«outcomes research» OR «relative effectiveness» ) OR TITLE-ABS-KEY((indirect OR «indirect treatment» OR mixed-treatment OR bayesian ) W/3 comparison* ) OR TITLE-ABS-KEY(multi* W/3 treatment W/3 comparison* ) OR TITLE-ABS-KEY(mixed W/3 treatment W/3 (meta-analy* OR metaanaly* )) OR TITLE-ABS-KEY(«umbrella review*») OR TITLE-ABS-KEY(multi* W/2 paramet* W/2 evidence W/2 synthesis ) OR TITLE-ABS-KEY(multiparamet* W/2 evidence W/2 synthesis ) OR TITLE-ABS-KEY(multi-paramet* W/2 evidence W/2 synthesis )

BIBLIOGRAFÍA

  1. Sutton A, Clowes M, Preston L, Booth A. Meeting the review family: exploring review types and associated information retrieval requirements. Health Info Libr J. 2019 Sep;36(3):202-222. doi: 10.1111/hir.12276.
  2. VonVille H. YOPL. 2023 [citado 4 de enero de 2024]. PubMed Research Methodology Search Filters and limits. Disponible en: https://www.yopl.info/post/pubmed-research-methodology-search-filters-and-a-couple-of-nifty-limits
  3. VonVille H. YOPL. 2023 [citado 4 de enero de 2024]. Ovid Medline Research Methodology Search Filters. Disponible en: https://www.yopl.info/post/ovid-medline-research-methodology-search-filters-and-a-couple-of-nifty-limits
  4. VonVille H. YOPL. 2023 [citado 4 de enero de 2024]. Embase (Elsevier) Research Methodology Search Filters and Limits. Disponible en: https://www.yopl.info/post/embase-elsevier-research-methodology-search-filters-and-limits
  5. CINAHL. In: CADTH Search Filters Database. Ottawa: CADTH; 2024 [citado 4 de enero de 2024]. Disponible en: https://searchfilters.cadth.ca/link/98.
  6. Scopus. In: CADTH Search Filters Database. Ottawa: CADTH; 2024 [citado 4 de enero de 2024]. Disponible en: https://searchfilters.cadth.ca/link/105. Accessed 2024-01-04.

¿Cuántos registros hay en PubMed?

Las etiquetas de campo (field tags) buscan en un campo específico en PubMed. Su uso en las búsquedas pueden ahorrarnos bastante tiempo, pero hay que tener en cuenta que las etiquetsa de campo de búsqueda debe ir entre corchetes y que si las usamos se desactiva el mapeo automático de términos (ATM) de PubMed, limitando la búsqueda término especificado.

De las 51 etiquetas de campo que existen, el campo subset es un método de restricción de la recuperación por tema, estado de la cita y categoría de la revista. Para utilizarlo, debemos emplear la etiqueta de campo [sb].

Uno de sus usos es para filtrar por el «estado de citación» («citation status«), que indican la fase de procesamiento interno de un artículo en la base de datos PubMed.

En el siguiente juego te reto a comprobar si sabrías usar el filtro de «estado de citación» para conocer y recuperar el número total de referencias incluidas en PubMed o el número de registros indexados con términos MeSH.

En el siguiente enlace encontrarás más información: https://pubmed.ncbi.nlm.nih.gov/help/#citation-status-subsets

PRISMA-Search (PRISMA-S): Preferred Reporting Items for Systematic reviews and Meta-Analyses literature search extension

Las búsquedas de literatura son la base de las revisiones sistemáticas y los tipos de revisiones relacionadas. Sin embargo, el componente de búsqueda de literatura de las revisiones sistemáticas y los tipos de revisiones relacionados a menudo se informa de manera deficiente.

En la entrada anterior PRISMA 2020: informe de la búsqueda de evidencia (ítem 6 y 7) se describieron losítems que hacen referencia al informe de la búsqueda de evidencia.

En esta nueva entrada, hablaremos de PRISMA-S (Preferred Reporting Items for Systematic reviews and Meta-Analyses literature search extension), creado par ayudar a los bibliotecarios y especialistas en información.

La extensión de PRISMA Search cubre múltiples aspectos del proceso de búsqueda de revisiones sistemáticas, ampliando PRISMA en las cuestiones relacionadas con el informe de la búsqueda de literatura para revisiones sistemáticas y metanálisis. Esta extensión incluye una lista de verificación PRISMA-S, así como su explicación y elaboración y están disponibles en: http://www.prisma-statement.org/Extensions/Searching

La lista de verificación final incluye dieciséis elementos de informes. Esta información debe de ir en la sección de métodos y cualquier material suplementario o anexo del manuscrito.

Elemento 1. Búsqueda en bases de datos: Nombre cada base de datos individual, indicando la plataforma para cada una.

Es importante que los autores indiquen no solo la base de datos, sino también la plataforma a través de la cual se buscó en la base de datos. Ejemplo:

“Se realizaron búsquedas en las siguientes bases de datos electrónicas: MEDLINE (Ovid), CINAHLPlus (EBSCO), PsycINFO (Ovid), CENTRAL (Wiley) y EMBASE (Elsevier)».

Elemento 2. Búsqueda en múltiples bases de datos: Si se buscaron bases de datos simultáneamente en una sola plataforma, indique el nombre de la plataforma, enumerando todas las bases de datos buscadas.

Ejemplo:

«Las estrategias de MEDLINE y Embase se ejecutaron simultáneamente como una búsqueda de múltiples archivos en Ovid y los duplicados se eliminaron de los resultados utilizando la herramienta de deduplicación de Ovid». 

Elemento 3. Registros de estudios: Enumere los registros de estudios buscados.

Los registros de estudios (como ClinicalTrials.gov) son una fuente clave de información para revisiones sistemáticas y metanálisis en las ciencias de la salud y cada vez más en otras disciplinas y permiten a los investigadores localizar ensayos clínicos en curso y estudios que pueden no haber sido publicados.

Para describir los registros de estudios buscados, hay que indicar el nombre de cada registro de estudios buscado e incluir una cita o enlace al registro de estudios.

Tema 4. Recursos en línea y navegación: Describa cualquier fuente en línea o impresa buscada o navegada intencionalmente (p. ej., tablas de contenido, actas impresas de conferencias, sitios web) y cómo se hizo.

El objetivo de la búsqueda complementaria, más allá de las bases de datos bibliográficas, y la de eliminar el mayor sesgo posible del proceso de revisión de la literatura. Es importante señalar que este tipo de búsqueda implica una estrategia compleja, que recurre a una gran cantidad de recursos impresos y en línea como motores de búsqueda generales de Internet y la búsqueda en el contenido de sitios web específicos es un componente clave de muchas revisiones sistemáticas y actas de congresos.

Elemento 6. Contactos: Indique si se buscaron estudios o datos adicionales contactando a los autores, expertos, fabricantes u otros.

Elemento 7. Otros métodos: Describa cualquier fuente de información adicional o método de búsqueda utilizado.

En le siguiente ejemplo vemos la inclusión de estos últimos elementos:

Arias-Rivera S, Raurell-Torredà M, Fernández-Castillo RJ, Campos-Asensio C, Thuissard-Vasallo IJ, Andreu-Vázquez C, Rodríguez-Delgado ME. Blood glucose monitoring in critically ill adult patients: type of sample and method of analysis. Systematic review and meta-analysis. Enferm Intensiva (Engl Ed). 2023 Jul 18:S2529-9840(23)00034-4. doi: 10.1016/j.enfie.2023.02.002. Epub ahead of print. PMID: 37474427. https://www.sciencedirect.com/science/article/abs/pii/S2529984023000344

Los ítems 8 a 13 son los que vemos en la siguiente figura:

Hay que señalar que se deben incluir las estrategias de búsqueda de cada base de datos y fuente de información, copiadas y pegadas exactamente como se ejecuta y siendo la ubicación preferida en los materiales complementarios. Las estrategias de búsqueda utilizadas para llevar a cabo esta recopilación de datos son esenciales para la transparencia y reproducibilidad de cualquier revisión sistemática. Sin poder evaluar la calidad de las estrategias de búsqueda utilizadas, los lectores no pueden evaluar la calidad de la revisión sistemática.

En la siguiente imagen vemos un ejemplo de informe del elemento 12 y 13:

Arias-Rivera S, Raurell-Torredà M, Fernández-Castillo RJ, Campos-Asensio C, Thuissard-Vasallo IJ, Andreu-Vázquez C, Rodríguez-Delgado ME. Blood glucose monitoring in critically ill adult patients: type of sample and method of analysis. Systematic review and meta-analysis. Enferm Intensiva (Engl Ed). 2023 Jul 18:S2529-9840(23)00034-4. doi: 10.1016/j.enfie.2023.02.002. Epub ahead of print. PMID: 37474427. https://www.sciencedirect.com/science/article/abs/pii/S2529984023000344

Elemento 14. Revisión por pares: Describa cualquier proceso de revisión por pares de búsqueda.

Aquí vemos el extracto del mismo ejemplo:

Arias-Rivera S, Raurell-Torredà M, Fernández-Castillo RJ, Campos-Asensio C, Thuissard-Vasallo IJ, Andreu-Vázquez C, Rodríguez-Delgado ME. Blood glucose monitoring in critically ill adult patients: type of sample and method of analysis. Systematic review and meta-analysis. Enferm Intensiva (Engl Ed). 2023 Jul 18:S2529-9840(23)00034-4. doi: 10.1016/j.enfie.2023.02.002. Epub ahead of print. PMID: 37474427. https://www.sciencedirect.com/science/article/abs/pii/S2529984023000344

Elemento 15. Registros totales: Documente el número total de registros identificados en cada base de datos y otras fuentes de información.

Debemos indicar el número total de referencias recuperadas de todas las fuentes, incluidas las actualizaciones, en la sección de resultados. Además, debemos informar del número total de referencias de cada base de datos y fuente de información en los materiales complementarios. También, el informe el número total de referencias de cada base de datos es recomendable incluirlo en el diagrama de flujo PRISMA.

Artículo 16. Deduplicación: Describa los procesos y cualquier software utilizado para deduplicar registros de múltiples búsquedas en bases de datos y otras fuentes de información.

Debido al solapamiento de las bases de datos, siempre habrá registros duplicados que deberemos eliminar. Los autores deben describir y citar cualquier software o técnica utilizada para ello. El método de eliminación de duplicados utilizado debe indicarse en la sección de métodos. El número total de referencias después de la eliminar los duplicados debe informarse en el diagrama de flujo PRISMA.

¿Cómo limitamos el resultado de una búsqueda bibliográfica a solo humanos?: recomendación para búsqueda en revisiones sistemáticas

Es una práctica habitual y recomendada en la búsqueda de evidencia para documentos de síntesis de evidencia, limitar los resultados a estudios realizados solo en humanos.

¿Sabrías cómo hacerlo? Inténtalo:

¿CUÁL ES EL PROBLEMA?

Veamos los motivos por lo que la respuesta no es tan simple como a simple vista puede parecer.

Los dos primeros son comunes a toda búsqueda que realicemos con los descriptores o tesauro de indización de las bases de datos como MeSH o EMTREE. Si solo buscamos por estos descriptores, perderemos registros mal indizados y aquellos que no estén indizados, bien por ser muy recientes o por no asignar estos términos a alguna parte del contenido de la fuente. Esto último ocurre en PubMed, donde los registros procedentes de PMC o de otras colecciones que no son MEDLINE, nunca pasarán por el proceso de indización.

Pero es que, además, un hecho que muchas veces no tenemos en cuenta es que los humanos formamos parte del reino animal. Por lo tanto, la búsqueda por «Animals»[MeSH] recupera también los artículos asignados con los descriptores más específicos situados debajo de este árbol. Es decir, recuperaríamos también los humanos.

¿CUÁL ES LA SOLUCIÓN?

La mejor práctica consiste en identificar primero los estudios con animales y excluirlos de los resultados de la búsqueda (Usar la «DOBLE NEGACIÓN»).

SINTAXIS DE BÚSQUEDA EN DIFERENTES BASES DE DATOS/PLATAFORMAS

  1. PubMed

2. MEDLINE (Ovid)

3. EMBASE (Ovid)

4. EMBASE (Elsevier)

5. CINAHL (Ebsco)

6. SCOPUS

Y ahora, te dejo la tabla con el resumen de estos filtros para buscar humanos en las diferentes bases de datos/plataformas:

30 de junio de 2023: Sesión en el Servicio de Hematología del Hospital Universitario de Getafe

Hoy iré al Servicio de Hematología del Hospital de Getafe a impartir una sesión en la que trataré de aclarar dudas y dar consejos para realizar búsquedas eficientes y de los recursos que tenemos disponibles a través del Portal de la Biblioteca Virtual (https://m-hug.c17.net/).

Los profesionales sanitarios muchas veces sienten que no realizan las búsquedas de modo eficiente, que pierden tiempo o información relevante.

Y para explicarles cómo deben plantearse las estrategias, partiremos de un supuesto práctico que es la búsqueda de estudios sobre eficacia y toxicidad de las terapias CAR-T en el tratamiento del mieloma múltiple refractario con recaídas múltiples.

La terapia con CAR-T son una opción para los pacientes con mieloma múltiple (MM) en recaída o refractario tras al menos cuatro líneas de terapia sistémica, y uno de nuestros tratamientos preferidos para el MM penta-refractario. Recientemente, se han publicado varios estudios en los que el tratamiento con idecabtagene vicleucal (KarMMa-3) y ciltacabtagene autoleucel (CARTITUDE-4) mejoraron sustancialmente la supervivencia libre de progresión en comparación con la quimioterapia estándar, aunque con un aumento de la toxicidad, incluidas las muertes relacionadas con el tratamiento.

Con este escenario iremos buscando en diferentes fuentes, empezando por UpToDate.

Búsqueda en UpToDate

Estrategia de búsqueda: Multiple Myeloma refractory

Resultado: Monografía: Multiple myeloma: Treatment of third or later relapse

Continuaremos con una búsqueda básica en PubMed:

Búsqueda sencilla
Estrategia de búsqueda: Multiple myeloma refractory Chimeric antigen receptor T cells
Resultado: 262 referencias

Para luego pasar a enseñar las opciones de búsqueda avanzada. Para ello buscaremos todos los términos posibles para cada concepto, según vemos en la figura:

Y construiremos nuestra búsqueda combinando los términos de lenguaje natural con los descriptores de materia de MEDLINE, los MeSH.

Resultado: 662 referencias

Límites (Filters: Clinical Trial, Meta-Analysis, Randomized Controlled Trial, Systematic Review ): 86 referencias

Y no nos olvidaremos de buscar en EMBASE, dado que es la base de datos de elección para la búsqueda de estudios de intervenciones farmacológicas.

(‘multiple myeloma’/exp OR ‘kahler disease’ OR ‘morbus kahler’ OR ‘multiple myeloma’ OR ‘myeloma multiplex’ OR ‘myeloma, multiple’ OR ‘myelomatosis’ OR ‘plasma cell myeloma’) AND (‘chimeric antigen receptor t-cell’/exp OR ‘car t-cell’ OR ‘car t-lymphocyte’ OR ‘car engineered t-cell’ OR ‘car engineered t-lymphocyte’ OR ‘car modified t-cell’ OR ‘car modified t-lymphocyte’ OR ‘chimeric antigen receptor t-cell’ OR ‘chimeric antigen receptor t-lymphocyte’ OR ‘chimeric antigen receptor immunotherapy’/exp OR ‘car cancer immunotherapy’ OR ‘car immunotherapy’ OR ‘car therapy’ OR ‘chimeric antigen receptor cancer immunotherapy’ OR ‘chimeric antigen receptor engineered cancer immunotherapy’ OR ‘chimeric antigen receptor immunotherapy’ OR ‘chimeric antigen receptor therapy’ OR ‘ciltacabtagene autoleucel’/exp OR ‘carvykti’ OR ‘cilta-cel’ OR ‘ciltacabtagene autoleucel’ OR ‘jnj 4528’ OR ‘jnj 68284528’ OR ‘jnj4528’ OR ‘jnj68284528’ OR ‘lcar-b38m’ OR ‘lcar-b38m car-t’ OR ‘idecabtagene vicleucel’/exp OR ‘abecma’ OR ‘bb 2121’ OR ‘bb2121’ OR ‘ide-cel’ OR ‘idecabtagene vicleucel’) AND (‘refractory tumor’/exp OR ‘refractory neoplasm’ OR ‘refractory tumor’ OR ‘refractory tumour’ OR ‘relapsed refractory multiple myeloma’/exp OR ‘cancer recurrence’/exp OR ‘cancer recidive’ OR ‘cancer recurrence’ OR ‘cancer regeneration’ OR ‘cancer relapse’ OR ‘cancer reoccurrence’ OR ‘recurrent cancer’ OR ‘recurrent carcinoma’) AND ([cochrane review]/lim OR [systematic review]/lim OR [meta analysis]/lim OR [randomized controlled trial]/lim OR ‘controlled clinical trial’/de)

Resultados: 835 referencias
Límites EBM: 66 referencias (51 únicas en EMBASE)

Y para finalizar, les he dejado mis recomendaciones:

Comprueba lo que sabes del MeSH de MEDLINE

Los tesauros son los encabezamientos de materias utilizados por algunas de las principales bases de datos bibliográficas para describir el contenido de cada artículo publicado. Tesauro es el «vocabulario controlado» (lista de términos establecido) que categorizan artículos en función de su contenido (dichos términos variarán de una base de datos a otra). P. ej.: PubMed utiliza términos del Medical Subject Headings o MeSH, que es el vocabulario controlado de MEDLINE y Embase utiliza el EMTREE.

Los tesauros tienen una estructura jerárquica. Así, los términos MeSH se clasifican dentro de 16 «árboles» principales (como anatomía, organismos, enfermedades, medicamentos y productos químicos), cada uno de los cuales se ramifica de los términos más amplios a los más específicos. Por ejemplo, al ingresar demencia, PubMed identificará términos MeSH relevantes que incluyen demencia y enfermedad de Alzheimer. Al seleccionar Demencia, verá el árbol de términos, incluidas las subcategorías enumeradas a continuación, como la enfermedad de cuerpos de Lewy, Alzheimer o demencia vascular.

Aunque la búsqueda por el MeSH siempre es más precisa, no siempre es suficiente. Así, si el objetivo de nuestra búsqueda es localizar de forma exhaustiva toda la información de un tema, deberemos combinar la búsqueda del tesauro con el lenguaje natural. En la siguiente imagen vemos algunas de las causas:

Ahora os propongo un juego para que compruebes lo que conoces del MeSH.

¿Preparado para ver cuanto sabes del MeSH? Activa el audio y juega.

Antes de comenzar una revisión sistemática hay buscar y evaluar revisiones relacionadas

Uno de los primeros pasos en la planificación de nuestra revisión sistemática es la de buscar revisiones sistemáticas existentes de nuestra área de interés. Es decir, hay que buscar la existencia o no de revisiones sobre el tema publicadas y, si las hay, analizarlas para decidir si tiene cabida hacer la revisión o no.

El motivo para ello es el de evitar las revisiones redundantes. Estas se pueden definir como revisiones que ya se han realizado sobre el mismo tema, con las mismas o similares preguntas y métodos de investigación, y que han llegado a conclusiones similares o idénticas. Estas revisiones se realizan a menudo de forma innecesaria, lo que provoca varios perjuicios e ineficiencias (1).

La multiplicación de revisiones sistemáticas redundantes plantea cuestiones científicas, éticas y económicas a investigadores y editores. 

Presentación «Antes de comenzar una revisión sistemática hay que buscar y evaluar revisiones relacionadas: Planificación de nuestra revisión para evitar revisiones redundantes».

Perjuicios de las revisiones sistemáticas redundantes

1. Desperdicio de recursos: La realización de revisiones redundantes supone una pérdida de tiempo, esfuerzo y recursos que podrían haberse utilizado para cuestiones de investigación nuevas y más relevantes.

2. Inconsistencias y contradicciones: Las revisiones redundantes pueden llegar a conclusiones diferentes debido a variaciones en la metodología o en la interpretación de los resultados, lo que puede causar confusión e incoherencias en la literatura.

3. Sesgo de publicación: Múltiples revisiones sobre el mismo tema pueden aumentar la probabilidad de informes selectivos y sesgo de publicación, ya que los investigadores pueden publicar solo las revisiones con resultados favorables.

4. Confundir a los profesionales sanitarios: Múltiples revisiones con resultados contradictorios pueden llevar a confusión a los profesionales sanitarios, lo que se traduce en decisiones de tratamiento subóptimas para los pacientes.

¿Cuándo está justificada una revisión sistemática redundante?

Solo en los casos de que: 1) el alcance de las revisiones existentes no sea la misma; 2) no exista una revisión anterior; 3) exista, pero esté obsoleta (podríamos decidir actualizarla desde la fecha de la revisión anterior); o 4) exista, pero sea de mala calidad, tendría justificación hacer una nueva revisión. En ese caso, el otro equipo puede decidir abordar ese tema de nuevo con métodos adecuados. Tales casos deben justificarse adecuadamente en la nueva revisión, apoyando esta decisión con pruebas de que la revisión anterior era inadecuada. Por ejemplo, el nuevo equipo podría proporcionar un análisis transparente de la calidad metodológica de la primera revisión utilizando la herramienta AMSTAR 2 (2), con los detalles de este análisis reportados en un archivo suplementario.

Si el equipo de la revisión es consciente de la existencia de una revisión sistemática finalizada con métodos adecuados, la única decisión apropiada para seguir adelante con el mismo tema sería llevar a cabo una actualización de dicha revisión sistemática. Aun así, algunas actualizaciones pueden no considerarse justificadas. Por ejemplo, si una gran revisión existente se actualiza con un nuevo estudio que probablemente no repercuta en los resultados, es razonable cuestionar el propósito de dicha actualización. Cochrane considera una revisión como «estable» si la última búsqueda no identificó ningún estudio potencialmente relevante que pudiera cambiar las conclusiones» (Babić A, Poklepovic Pericic T, Pieper D, Puljak L. How to decide whether a systematic review is stable and not in need of updating: Analysis of Cochrane reviews. Res Synth Methods. 2020 Nov;11(6):884-890. doi: 10.1002/jrsm.1451. PMID: 32890455.).

¿Dónde buscamos revisiones sistemáticas?

Por un lado, deberíamos buscar la existencia de procolos de revisiones sistemáticas en curso. Para ello deberíamos buscar en las plataformas donde es común su registro (ver entrada «Dónde registrar el protocolo de una Revisión Sistemática«; 3-4). Estas fuentes incluyen a PROSPERO, OSF, pasando por búsqueda en bases de datos tradicionales como MEDLINE.

Puede darse el caso de que encontremos «revisiones zombies» (5). Estos son aquellas cuyos registros de protocolo son abandonadas, por ejemplo, en PROSPERO. Para evitarlo, PROSPERO está desarrollando nueva versión que mejorará la funcionalidad de enviar recordatorios a los autores, solicitándoles que actualicen su estado de revisión y añadan detalles de publicación. También la organización Campbell contacta a los autores anualmente para preguntar si los equipos están procediendo con títulos y protocolos registrados (https://twitter.com/vawelch/status/1643576924998909953?s=20).

Además de buscar protocolos, hemos de localizar revisiones sistemáticas ya publicadas. Para ello buscaremos en bases de datos, así como en la Cochrane Library y Epistemonikos (ver entrada «Planificación de una revisión sistemática: Pasos para determinar la viabilidad«).

Bibliografía

  1. Puljak, L., Lund, H. Definition, harms, and prevention of redundant systematic reviews. Syst Rev. 2023;12(63). Disponible en: https://doi.org/10.1186/s13643-023-02191-8.
  2. Shea BJ, Reeves BC, Wells G, Thuku M, Hamel C, Moran J, Moher D, Tugwell P, Welch V, Kristjansson E, Henry DA. AMSTAR 2: a critical appraisal tool for systematic reviews that include randomised or non-randomised studies of healthcare interventions, or both. BMJ. 2017 Sep 21;358:j4008. doi: 10.1136/bmj.j4008. PMID: 28935701; PMCID: PMC5833365.
  3. Campos Asensio C. Necesidad de protocolo en las revisiones de síntesis de evidencia y dónde registrarlo. Biblioboletín. 2022; Junio (13):9. Disponible en: https://repositoriosaludmadrid.es//handle/20.500.12530/54668
  4. Pieper, D., Rombey, T. Where to prospectively register a systematic review. Syst Rev. 2022;11(8). Disponoible en: https://doi.org/10.1186/s13643-021-01877-1
  5. Andrade R, Pereira R, Weir A, Ardern CL, Espregueira-Mendes J. Zombie reviews taking over the PROSPERO systematic review registry. It’s time to fight back! Br J Sports Med. 2019 Aug;53(15):919-921. doi: 10.1136/bjsports-2017-098252. PMID: 29021246.

Cobertura y solapamiento de las bases de datos utilizadas en las revisiones sistemáticas de ciencias de la salud

Las revisiones sistemáticas son una herramienta valiosa para identificar y evaluar la evidencia existente sobre un tema en particular. Sin embargo, la realización de una revisión sistemática puede ser un proceso largo y laborioso que requiere una gran cantidad de tiempo y esfuerzo. Una de las tareas más importantes en este proceso es el de la búsqueda de evidencia.

En mi entrada anterior «En qué bases de datos debemos buscar para una revisión sistemática: La producción de una revisión sistemática requiere la búsqueda sistemática en varias bases de datos bibliográficas» hablé de la necesidad de que la búsqueda de estudios sea lo más amplia posible para reducir el riesgo de sesgo de publicación e identificar la mayor cantidad de evidencia relevante. También comenté la función del bibliotecario en determinar la combinación de bases de datos necesaria para que las búsquedas de revisiones sistemáticas proporcionen resultados eficientes y de cuáles elegir.

Conjunto principal de bases de datos de ciencias de la salud

Es importante evaluar la cobertura de cada base de datos para determinar si se están buscando en la fuente adecuada. Además, es importante evaluar el solapamiento entre las bases de datos, aunque hay que tener en cuenta que bastantes estudios van a estar presentes en varias fuentes.

Merece la pena examinar la cobertura de las bases de datos, porque esto determina los resultados de la búsqueda y tendrá un impacto directo en la revisión. Las bases de datos pueden tener solapamientos en el contenido, y cada base de datos también cubre algunos títulos exclusivos (únicos).

En cuanto a la cobertura y solapamiento de MEDLINE, CINHAL Complete, Embase.com y PsycINFO. tenemos que tener en cuenta lo siguiente:

  • PubMed cubre todos los registros de Medline, además de algunos otros materiales (aproximadamente el 15%).
  • Embase incluye casi todas las revistas de Medline, mientras que más de 2,900 revistas en Embase no están cubiertas por Medline.
  • Medline tiene una mejor cobertura de revistas estadounidenses, mientras que Embase tiene una mejor cobertura de revistas europeas.Medline tiene alrededor de 1/3 (aprox. 1,800 revistas) solapadas con CINAHL Complete.
  • PsycINFO tiene alrededor de 1/2 (aprox. 1,200) revistas únicas que NO están cubiertas por Medline, Embase y CINAHL Complete.
  • La Biblioteca Cochrane incluye 6 bases de datos:
    • La Base de Datos Cochrane de Revisiones Sistemáticas (CDSR) está completamente indexada por Medline.
    • El Registro Central Cochrane de Ensayos Controlados (CENTRAL) contiene casi 530,000 citas, de las cuales 310,000 (~58%) son de Medline, 50,000 (aprox. 10%) son de Embase, y las 170,000 restantes (aprox. 32%) son de otras fuentes (Manual Cochrane, 2011).
    • CENTRAL cubre todos los Ensayos Controlados Aleatorios (ECA) y Ensayos Clínicos Controlados (ECC) indexados en Medline.

Bases de datos multidisciplinares: WoS y SCOPUS

Sin embargo, todavía hay muchas revistas fuera de la «conjunto principal» de bases de datos en enfermería y ciencias de la salud. Es posible que también debas realizar una búsqueda en más bases de datos para asegurarte que tu búsqueda bibliográfica esté completa.

Entre ellas, podemos buscar en la Web of Science y Scopus, que son dos grandes bases de datos de citas multidisciplinares. Por este motivo, es bueno saber hasta qué punto las bases de datos principales se solapan con estas dos.

En cuanto a la cobertura y solapamiento de las bases de datos principales de ciencias de la saludcon WoS y Scopus tenemos que tener en cuenta lo siguiente

  • Web of Science (SSCI) tiene más de 2400 títulos en el área de ciencias sociales y alrededor del 70% de estos títulos NO están cubiertos por Medline, CINAHL Complete, Embase y PsycINFO. Por lo tanto, si tu tema de investigación está en el campo de las ciencias sociales, es necesario incluir Web of Science SSCI en tu búsqueda.
  • Web of Science (SSCI) tiene alrededor de 660 títulos en las áreas de psiquiatría y psicología. Alrededor de 50 títulos NO están cubiertos por PsycINFO. Por lo tanto, si tu tema de investigación se refiere a cuestiones de psicología, incluye Web of Science (SSCI) en tu búsqueda.
  • Scopus cubre (casi) todos los títulos en Medline, PsycINFO y Web of Science. CINAHL Complete tiene aproximadamente 2000 títulos que NO están cubiertos por Scopus. De estos títulos, más de la mitad son revistas, publicaciones comerciales, etc.

En resumen, la selección, cobertura y solapamiento de las principales bases de datos es una tarea crucial en el proceso de búsqueda de estudios para una revisión sistemática. Es importante evaluar la cobertura de cada base de datos, el solapamiento entre ellas y buscar en bases de datos complementarias para garantizar la inclusión de todos los estudios relevantes. Además, se recomienda documentar y justificar la selección de bases de datos para garantizar la transparencia y la replicabilidad de la revisión sistemática.

Cómo buscar en PubMed II: Opciones avanzadas

Para que los resultados de la búsqueda sean mejores, PubMed dispone de las siguientes opciones:

Búsqueda combinada utilizando operadores:

Para ello disponemos de los siguientes operadores:

  • AND: recupera referencias que contengan los dos términos de búsqueda, teniendo en cuenta que deben aparecer en el mismo registro. Especifica y delimita la búsqueda.
  • OR: recupera referencias que contengan los dos términos, o al menos uno de ellos. Principalmente, se utiliza para localizar sinónimos, variantes y múltiples formas en las que se puede expresar un mismo tema.
  • NOT: excluye referencias que contengan el término escrito después del operador.

Búsquedas por frases

Nos permite buscar términos compuestos por múltiples palabras. Para ello has de escribir los términos entre comillas. Por ejemplo: “Blood glucose control» e «Intensive care Unit», buscará los artículos que tienen los tres términos seguidos y en ese orden. Veamos cómo sería la búsqueda en el siguiente vídeo:

Búsqueda por frases en PubMed

Truncamiento de términos

Para utilizar la función de truncar términos, escribe la raíz de la palabra y un asterisco. PubMed buscará términos que compartan la misma raíz. Por ejemplo, para la raíz «cardiovas»Intensive care Unit*», buscará términos como Intensive care unit e Intensive Care Units.

Búsqueda con truncamientos

Búsqueda sensible

Si queremos aumentar el resultado de nuestra búsqueda debemos incluir las posibles variaciones de cada concepto con sinónimos, cuasi sinónimos, acrónimos, etc.

En el caso de la búsqueda que estamos realizando sobre control glucémico en pacientes en UCI, algunas posibles variantes son las que vemos en la siguiente imagen:

Posibles términos a incluir en nuestra estrategia de búsqueda para aumentar el resultado.

De esta forma, nuestra estrategia podría ser la siguiente:

(«Critical Care» OR «Intensive Care» OR «Critical Illness» OR «Critically Ill Patient*» OR «Critically-ill Patient*» OR ICU OR ICUS OR «Intensive Care Unit*» OR «Intensive Treatment» OR «Intensive Therap*») AND («Glycemic control» OR «Glycaemic control» OR «Glucose control» OR «Glucose level*» OR «Glycemic Index» OR «Glycaemic Index» OR «Glycemic target*» OR «Glycaemic target*» OR «Glucose target*» OR Hyperglycemia OR Hypoglycemia OR «Insulin Therapy» OR «Insulin infusion» OR IIT)

En el siguiente vídeo vemos como hacer este tipo de búsqueda en PubMed:

Búsqueda en PubMed optimizando la sensibilidad.

Búsqueda en campos del registro

Aunque las listas de resultados se muestran en lenguaje natural, el registro de PubMed adopta un formato para su recuperación llamado MEDLINE. En este, la información se estructura en campos que se identifican por su etiqueta correspondiente o «tag».

Esta opción se utiliza cuando es preciso recuperar información localizándola en un campo concreto y no en todo el registro bibliográfico.

Se puede buscar en un campo determinado  desde la pantalla de inicio escribiendo junto al término su etiqueta de campo entre corchetes. En este caso. el investigador debe conocer previamente la etiqueta  correspondiente y la forma correcta de escribirla.

Las etiquetas se pueden escribir abreviadas o completas:

  • [TI] / [Title]
  • [AU] / [Author]
  • [AB] / [Abstract]

La lista de etiquetas se puede consultar en la página de ayuda de la NLM

Etiquetas de campos de PubMed

Para nuestro ejemplo, si queremos limitar el resultado a aquellos registros que incluyan nuestros términos de búsqueda en los campos de título o resumen, la estrategia sería:

(«Critical Care»[tiab] OR «Intensive Care»[tiab] OR «Critical Illness»[tiab] OR «Critically Ill Patient*»[tiab] OR «Critically-ill Patient*»[tiab] OR ICU[tiab] OR ICUS[tiab] OR «Intensive Care Unit*»[tiab] OR «Intensive Treatment»[tiab] OR «Intensive Therap*»[tiab]) AND («Glycemic control»[tiab] OR «Glycaemic control»[tiab] OR «Glucose control»[tiab] OR «Glucose level*»[tiab] OR «Glycemic Index»[tiab] OR «Glycaemic Index»[tiab] OR «Glycemic target*»[tiab] OR «Glycaemic target*»[tiab] OR «Glucose target*»[tiab] OR Hyperglycemia[tiab] OR Hypoglycemia[tiab] OR «Insulin Therapy»[tiab] OR «Insulin infusion»[tiab] OR IIT[tiab])

Y si queremos limitar el resultado a aquellos registros que incluyan nuestros términos, pero como palabras del título, sería:

(«Critical Care»[ti] OR «Intensive Care»[ti] OR «Critical Illness»[ti] OR «Critically Ill Patient*»[ti] OR «Critically-ill Patient*»[ti] OR ICU[ti] OR ICUS[ti] OR «Intensive Care Unit*»[ti] OR «Intensive Treatment»[ti] OR «Intensive Therap*»[ti]) AND («Glycemic control»[ti] OR «Glycaemic control»[ti] OR «Glucose control»[ti] OR «Glucose level*»[ti] OR «Glycemic Index»[ti] OR «Glycaemic Index»[ti] OR «Glycemic target*»[ti] OR «Glycaemic target*»[ti] OR «Glucose target*»[ti] OR Hyperglycemia[ti] OR Hypoglycemia[ti] OR «Insulin Therapy»[ti] OR «Insulin infusion»[ti] OR IIT[ti])

En el siguiente vídeo vemos estas dos últimas opciones de búsqueda:

Búsqueda en PubMed por campos

Estas son algunas de las opciones avanzadas. En próximas entradas veremos más posibilidades de búsqueda que nos brinda PubMed.

Cómo buscar en PubMed I: Búsqueda sencilla

PubMed permite diferentes niveles de complejidad de búsqueda. En esta entrada vamos a dar las claves de cómo realizar una búsqueda sencilla

Para ello hay que seguir las siguientes instrucciones:

  • Identifica los conceptos de tu búsqueda;
  • Ingresa sus términos de búsqueda en la ventana inicial de búsqueda:
  • Se específico con los términos que introduces en la estrategia.
  • No se necesitan etiquetas de búsqueda ni uso del operador AND.
  • Evita buscar con términos entre comillas.
  • Evita el truncamiento (*).
  • Manten el formato de salida por defecto «Best Match».

Veamos un ejemplo: queremos buscar bibliografía que compare el control estricto vs. convencional de los niveles de glucosa en sangre en los pacientes ingresados en UCI.

La estrategia de búsqueda sería la siguiente: Blood glucose control ICU

En el vídeo vemos el desarrollo de la estrategia.

Ejemplo de búsqueda sencilla en PubMed

Es importante saber que es lo que hace realmente el motor de búsqueda de PubMed con los términos que introducimos en la ventana de búsqueda. Para conocer esto es necesario ir al enlace de «Advanced» que hay debajo de la ventana de búsqueda. En la nueva pantalla cliqueamos en «Details» y vemos que ha realizado dos cosas:

1. Ha separado en dos partes nuestra búsqueda que atiende a los conceptos de control de la glucosa y UCI y aplica entre estos el operador por defecto AND. Además, los busca en todos los campos ([All Fields]) y mediante un algoritmo incluye diferentes combinaciones de sinónimos y variantes.

2. Un mapeo automático de los términos por nosotros introducidos con los MeSH encabezamientos de materia de MEDLINE. De eta forma, los 1.566 registros son el resultado de la búsqueda combinada de nuestros términos en todos los campos del registro con los términos del tesauro MeSH de MEDLINE (en nuestro caso «glycemic control» e «intensive care units»).

Utilidad de la búsqueda sencilla en PubMed:

  • Para buscadores noveles en PubMed, que no conocen todas las posibilidades disponibles.
  • Permite «explorar» la base de datos y recuperar referencias de forma rápida.
  • En búsquedas iniciales de alcance para «recolectar» términos utilizados por los autores en sus artículos, los términos MeSH de indización y hacer una aproximación al número de registros que vamos a recuperar.

Filtrar nuestros resultados de búsqueda a estudios en humanos

Cuando buscamos en las bases de datos muchas veces deseamos eliminar aquellos estudios realizados en animales. Para ello tenemos disponible un filtro de búsqueda que hay que adaptar a las diferentes bases de datos y plataformas.

A continuación encontraréis una presentación donde os muestro las estrategias a utilizar en PubMed, MEDLINE (Ovid), Embase (Ovid), Embase (Elsevier) y CINAHL (EBSCO).

En qué bases de datos debemos buscar para una revisión sistemática: La producción de una revisión sistemática requiere la búsqueda sistemática en varias bases de datos bibliográficas.

¿Por qué hay que buscar en varias bases de datos?

Es esencial seleccionar múltiples fuentes porque una solo no puede contener toda la información que responde a nuestra pregunta. Es decir, una sola base de datos no representa todas las investigaciones potencialmente relevantes que existen. Si eligiéramos incluir solamente una base de datos, estaríamos introduciendo un sesgo de selección en una etapa temprana del proceso de revisión. 

En #RevisionesSistemáticas, la búsqueda de estudios debe ser lo más amplia posible para reducir el riesgo de sesgo de publicación e identificar la mayor cantidad de evidencia relevante. Estandar MECIR C24

¿En cuántas bases de datos hay que buscar?

Teniendo ya claro que hay que buscar en más de una base de datos (Bramer W, 3013 y 2016), hay que decir que se desconoce el número óptimo de bases de datos que hay que consultar y que no existe evidencia de la cantidad de bases de datos en las que se debe buscar (Ross-White A et al.).

Debido a la diversidad de preguntas abordadas por las revisiones sistemáticas, no puede haber un estándar acordado para lo que constituye una búsqueda aceptable en términos del número de bases de datos buscadas (CRD’s guidance, 2009).

Debemos tener presente que añadir múltiples bases de datos puede dará lugar a búsquedas con resultados muy elevados en los que, pasado un número de base de datos, resulten irrelevantes. Por otro lado, hay que tener en consideración las desventajas en el uso de múltiples bases de datos para los bibliotecarios. Resulta muy arduo y complicado traducir una estrategia de búsqueda a múltiples interfaces y sintaxis de búsqueda, ya que los diferentes códigos de campo, sintaxis de cada base de datos y plataforma, los operadores de proximidad que difieren entre interfaces y las diferencias en los términos del tesauro entre bases de datos añaden una carga importante. Además, para los revisores el proporcionarles el resultados de un exceso número de bases de datos les conlleva mucho tiempo ya que deben examinar un exceso de títulos y resúmenes, probablemente irrelevantes.

Es función del bibliotecario determinar la combinación de bases de datos necesaria para que las búsquedas de revisiones sistemáticas proporcionen resultados eficientes (es decir, para minimizar la carga de los investigadores sin reducir la validez de la investigación al omitir referencias relevantes).

Es función del bibliotecario determinar la combinación de bases de datos necesaria para que las búsquedas de #RevisionesSistemáticas proporcionen resultados eficientes.

Pero, ¿cuáles elegir?

Las bases de datos que utilicemos para localizar la evidencia va a depender del tema de revisión, de la posibilidad de acceso a las bases de datos y el presupuesto disponible para el equipo de revisión, y siempre dentro de la limitación de tiempo. Como norma general, hay que empezar por las fuentes de información que tienen mayor probabilidad de ser más productivas dentro del tema de nuestra revisión, ya que te proporcionarán la mayoría de los estudios. En caso de duda, recomiendo hacer pruebas de búsqueda de nuestro tema de revisión en varias bases de datos y seleccionar las que proporcionen mayores y mejores resultados.

¿Qué dicen los expertos?

Un estudio de Wilchor M. Bramer concluye que las búsquedas han de realizarse en Embase, MEDLINE (incluidas las publicaciones Epub ahead of print), Web of Science (Core Collection) y Google Académico (las 200 primeras referencias relevantes) como mínimo. Para temas especiales como enfermería y ciencias del comportamiento y mental se debe añadir bases de datos como CINAHL y PsycINFO, respectivamente. Para revisiones donde los ECA hay que buscar en CENTRAL. Si se ignora una o más de las bases de datos que identifican como las cuatro bases de datos clave dará lugar a búsquedas más precisas, con un menor número de resultados, pero los investigadores deben decidir si eso vale la pena por el aumento de una mayor probabilidad de pérdidas de referencias relevantes. Este estudio también destaca una vez más que buscar bases de datos solo no es suficiente para recuperar todas las referencias relevantes. (Bramer WM, et al.).

Recomendaciones del bibliotecario experto Wilchor Bramer (2017).

Si nuestra revisión fuera de intervenciones terapéuticas, habría que buscar en las bases de datos generales (MEDLINE y Embase) y CENTRAL. Además, se deben incluir las bases de datos relevantes para el tema de revisión (p. ej., CINAHL para temas relacionados con la enfermería, PsycINFO para intervenciones psicológicas).

Además de MEDLINE y Embase, que suelen considerarse las principales bases de datos internacionales sobre atención sanitaria general, muchos países y regiones producen bases de datos bibliográficas que se centran en la bibliografía producida en esas regiones y que suelen incluir revistas y otras publicaciones no indexadas en otros sitios, como el African Index Medicus y LILACS (para América Latina y el Caribe) (MECIR C24-25).

Para la búsqueda de estudios cualitativos, además de MEDLINE y Embase, hay que buscar en CINAHL y PsycINFO. A lo que habría que añadir Scopus, y ProQuest Dissertations & Theses Global. Agregar PubMed aumenta la recuperación a 93.1% (Frandsen TF et al.).

Para las revisiones de evaluaciones económicas, la combinación de las bases de datos Embase + Scopus + HTA Database + MEDLINE o PubMED (indistintamente) es la más eficiente (Arber M et al.).

Si el tema incluye la asistencia social, hay una serie de bases de datos disponibles, como ASSIA (Applied Social Sciences Index and Abstracts), CSA Sociological Abstracts y CSA Social Services Abstracts, que podrían utilizarse. Las bases de datos mencionadas anteriormente son todas temáticas, pero hay otras, como AgeInfo, Ageline y ChildData, que se centran en un grupo de población específico que podría ser relevante para el tema de la revisión.

En revisiones de ciencias sociales y humanas, Lluís Codina recomienda utilizar siempre Scopus + Web of Science del grupo general, así como Dialnet Plus y las bases de datos del CSIC si la investigación se va a presentar en una universidad española.

¿Si busco en Embase (Elsevier), es necesario buscar también en MEDLINE?

La búsqueda en Embase.com incluye MEDLINE. Sin embargo, debemos buscar en las dos bases de datos por separado, ya que Embase tiene un contenido significativo que no está disponible en PubMed/MEDLINE. Además, la indexación Emtree hace que incluso la información compartida por las dos bases de datos se pueda encontrar de forma exclusiva en Embase.

Razones por la que es necesario buscar en MEDLINE y en Embase.

¿Cómo incluye Embase el contenido de MEDLINE?

  • Más de 2800 revistas son exclusivas de Embase y 3000 títulos de revistas están cubiertos tanto por Embase como por MEDLINE. Ambos conjuntos están indexados por Embase usando Emtree.
  • 2500 revistas de MEDLINE no están indexadas por Embase usando Emtree, sino que están indexadas usando el MEDLINE thesaurus MeSH.
  • Estos registros indexados de MEDLINE se entregan a Elsevier diariamente. Después de la deduplicación, se incorporan a Embase para producir «registros exclusivos de MEDLINE». Elsevier no vuelve a indexar estos registros exclusivos de MEDLINE. Sin embargo, su indexación se asigna a los términos de Emtree. De esta manera, los términos de Emtree se pueden usar para buscar todos los registros de Embase, incluidos los de MEDLINE.

¿Si tengo acceso a SCOPUS, también necesito buscar en Embase y en la WoS?

Las búsquedas en Scopus se centran en resúmenes y citas, mientras que una búsqueda en Embase proporciona información adicional a partir de su indexación estructurada de texto completo con el tesauro EMTREE.

Dado que Scopus no utiliza Emtree para facilitar la asignación de sinónimos y las búsquedas jerárquicas, nuestra búsqueda puede recuperar un número significativamente menor de resultados que en Embase. Por ejemplo, una búsqueda en Scopus sobre «heart attack» omite los registros que mencionan «myocardial infarction» o los indizados utilizando el término Emtree «heart infarction».

Además, los subtítulos de Embase no están disponibles en Scopus, por lo que las búsquedas no pueden acotarse del mismo modo. Por ejemplo, no es posible limitar las búsquedas de fármacos a los registros centrados en los efectos adversos.

Razones por las que debo buscar en Embase y SCOPUS.

¿Es recomendable buscar en Google Académico?

Dado que Google Scholar indexa el texto completo de los artículos, la búsqueda en él añade artículos relevantes que no se encuentran en las otras bases de datos. Por lo tanto, encuentra artículos en los que el tema de investigación no se menciona en el título, el resumen o los términos del tesauro, sino que los conceptos sólo se tratan en el texto completo.

Sin embargo, la búsqueda en Google Académico supone un reto, ya que carece de las funciones básicas de las bases de datos bibliográficas tradicionales. Además, las estrategias de búsqueda están limitadas a un máximo de 256 caracteres, lo que significa que crear una estrategia de búsqueda exhaustiva puede resultar laborioso (Bramer W, 2017).

Wilchor Bramer recomienda limitar la búsqueda en Google Académico a las primeras 200 referencias relevantes.

Elección de la plataforma

Como es lógico, la búsqueda en diferentes bases de datos dará inevitablemente resultados diferentes al ser su cobertura distinta. Pero además, la búsqueda en la misma base de datos a través de diferentes interfaces o plataformas puede dar lugar a resultados diferentes. Por ejemplo, buscar en Embase a través de Embase.com o mediante OVID, o buscar en MEDLINE a través de Web of Science, EBSCO, OVID o incluso a través de PubMed. Y no solo porque las plataformas difieran en diferentes sintaxis y herramientas de búsqueda, sino que el contenido también puede diferir (PubMed vs MEDLINE/Ovid; Embase/Elsevier vs. Embase/Ovid).

¿MEDLINE vía PubMed u Ovid?

PubMed es considerado por algunos como más fácil de usar. Además, en búsquedas de revisiones sistemáticas, PubMed tiene una sensibilidad más alta que Ovid/MEDLINE con una precisión comparable y NNR (number needed to read) (Katchamart W et al.).

Por el contrario, muchos bibliotecarios eligen Ovid MEDLINE, ya que permite realizar una búsqueda más enfocada. Sus herramientas que permiten una sintaxis de búsqueda con, por ejemplo, operadores de adyacencia, que hacen que nuestro resultado sea más preciso que con PubMed.

Otros especialistas en información estaban a favor de buscar en ambas. Indicaban que merece la pena realizar una búsqueda complementaria de PubMed, además de la búsqueda principal en MEDLINE (Ovid) para una revisión sistemática, ya que se realiza rápidamente y si recupera estudios únicos, recientemente publicados, y ahead-of-print, mejorando la actualización de las revisiones sistemáticas. Sin embargo, tal como indica Wichor Bramer en su correo de 12 de diciembre de 2022 a la lista de distribución expertsearching@pss.mlanet.org, hoy en día buscar en PubMed no añade ningún valor cuando ya se ha buscado en MEDLINE a través de OVID u otra plataforma similar. La razón de por qué antes se recomendaba era porque había bastante retraso entre los artículos añadidos a PubMed y a MEDLINE, pero ya no es así. Hoy en día el retraso es solo de 1 o 2 días, por lo que se puede ignorar ya que esos días extra no suponen ninguna diferencia en nuestra revisión. (Más información en: https://wkhealth.force.com/ovidsupport/s/article/PubMed-vs-Ovid-s-Medline-1489081398582).

Hoy en día, buscar en PubMed no añade ningún valor cuando ya se ha buscado en MEDLINE a través de OVID u otra plataforma similar dado que el retraso en la indización es de solo 1 o 2 días. @wichor

Por contra del uso de PubMed estaría su problema de indización de revistas depredadoras (Ross-White A, et al.).

¿Embase vía Embase.com o Ovid?

No hay una diferencia notable entre Ovid y Embase.com en términos de resultados de búsqueda sin embargo, Embase.com fue calificado como más fácil de usar en comparación con Ovid (Fortier KJ et al.)

Aquí os dejo un Trivial interactivo para aprender las diferencias en la sintaxis de búsqueda entre plataformas.

Juego para ver las diferencias en la sintaxis de búsqueda.

BIBLIOGRAFÍA

Bramer WM, Rethlefsen ML, Kleijnen J, Franco OH. Optimal database combinations for literature searches in systematic reviews: a prospective exploratory study. Syst Rev. 2017;6(1):245. doi: 10.1186/s13643-017-0644-y. PMID: 29208034; PMCID: PMC5718002

Higgins JPT, Lasserson T, Chandler J, Tovey D, Thomas J, Flemyng E, Churchill R. Methodological Expectations of Cochrane Intervention Reviews. Cochrane: London, Version February 2022. Disponible en: https://community.cochrane.org/mecir-manual/standards-conduct-new-cochrane-intervention-reviews-c1-c75/performing-review-c24-c75

Bramer WM, Giustini D, Kramer BM, Anderson PF. The comparative recall of Google Scholar versus PubMed in identical searches for biomedical systematic reviews: a review of searches used in systematic reviews. Syst Rev. 2013;2:115.

Bramer WM, Giustini D, Kramer BMR. Comparing the coverage, recall, and precision of searches for 120 systematic reviews in Embase, MEDLINE, and Google Scholar: a prospective study. Syst Rev. 2016;5:39.

Centre for Reviews and Dissemination. Systematic reviews: CRD’s guidance for undertaking reviews in health care The Centre; 2009. Disponible en: https://www.york.ac.uk/crd/guidance/

Ross-White A, Godfrey C. Is there an optimum number needed to retrieve to justify inclusion of a database in a systematic review search? Health Inf Libr J. 2017;33:217–24.

Frandsen TF, Gildberg FA, Tingleff EB. Searching for qualitative health research required several databases and alternative search strategies: a study of coverage in bibliographic databases. J Clin Epidemiol. 2019 Jun 25;114:118-124. doi: 10.1016/j.jclinepi.2019.06.013. PMID: 31251982.

Arber M, Glanville J, Isojarvi J, Baragula E, Edwards M, Shaw A, Wood H. Which databases should be used to identify studies for systematic reviews of economic evaluations? Int J Technol Assess Health Care. 2018 Jan;34(6):547-554. doi: 10.1017/S0266462318000636. PMID: 30442221.

Codina, Lluís. Revisiones bibliográficas sistematizadas: Procedimientos generales y Framework para Ciencias Humanas y Sociales. Barcelona: Máster Universitario en Comunicación Social. Departamento de Comunicación. Universitat Pompeu Fabra, 2018 [documento en pdf, acceso: https://repositori.upf.edu/handle/10230/34497%5D

Elsevier. Learn and Support – Embase | Elsevier [Internet]. Elsevier.com. 2021 [consultado 19 dic 2022]. Disponible en: https://www.elsevier.com/solutions/embase-biomedical-research/learn-and-support#:~:text=Scopus%20searches%20focus%20on%20abstracts,significantly%20fewer%20results%20than%20Embase

Katchamart W, Faulkner A, Feldman B, Tomlinson G, Bombardier C. PubMed had a higher sensitivity than Ovid-MEDLINE in the search for systematic reviews. J Clin Epidemiol. 2011 Jul;64(7):805-7. doi: 10.1016/j.jclinepi.2010.06.004. PubMed PMID: 20926257.

Duffy S, de Kock S, Misso K, Noake C, Ross J, Stirk L. Supplementary searches of PubMed to improve currency of MEDLINE and MEDLINE In-Process searches via Ovid. J Med Libr Assoc. 2016 Oct;104(4):309-312. PMID: 27822154; PMCID: PMC5079494.

¿Sabes que en PubMed se indizan revistas fraudulentas? [Internet]. BiblioGETAFE. BiblioGETAFE; 2018 [consultado el 19 dic 2022]. Disponible en: https://bibliogetafe.com/2018/10/09/sabes-que-en-pubmed-se-indizan-revistas-fraudulentas/

‌Ross-White A, Godfrey CM, Sears KA, Wilson R. Predatory publications in evidence syntheses. J Med Libr Assoc. 2019 Jan;107(1):57-61. doi: 10.5195/jmla.2019.491. PMID: 30598649; PMCID: PMC6300240.

Fortier KJ, Kiss N, Tongbram V. What is the optimal search engine for results from Embase and Medline: Ovid or Embase.com? Value Health 2013;16(3):A25 doi: 10.1016/j.jval.2013.03.147

Actualización de PubMed: ahora disponible la búsqueda de proximidad

La NLM ha anunciado que se ha añadido funciones de búsqueda por proximidad a PubMed.

Ahora podemos buscar por varios términos que aparezcan en cualquier orden y dentro de una distancia especificada en los campos [Título] o [Título/Abstract].

Presentación de la nueva funcionalidad de PubMed de búsqueda de proximidad (5 pantallas)

¿Cómo construir una búsqueda de proximidad en PubMed?

Debemos escribir en la ventana de búsqueda siguiendo la sintaxis:

“términos de búsqueda”[campo:~N]

Donde:

  • Términos de búsqueda = dos o más palabras entre comillas dobles.
  • Campo = La etiqueta del campo de búsqueda para los campos [Title] o [Title/Abstract].
  • N = El número máximo de palabras que pueden aparecer entre sus términos de búsqueda.

¿Qué es lo que hace?

Recuperará registros en los que las palabras entrecomilladas se localicen en el campo que hayamos especificado ([title] o [Titel/Abstract]) y sean adyacentes o estén separadas por un máximo de N palabras.

Qué tenemos que tener en cuenta:

  • La búsqueda por proximidad solo está disponible en los campos de búsqueda Título y Título/Abstract. Podemos utilizar las etiquetas de los campos de búsqueda completos [Title] y [Title/Abstract] o las versiones abreviadas [ti] y [tiab].
  • El símbolo ~ en teclados PC se puede combinar Alt+126 
  • No hay límite de palabras que pongamos entrecomilladas. Sin embargo, cuantos más términos introduzcamos, más restrictiva será la búsqueda.
  • ¡No se puede hacer truncamiento en la búsqueda por proximidad de PubMed! Si los términos entrecomillados en una búsqueda por proximidad incluyen un comodín (*), el operador de proximidad será ignorado.
  • El valor N a utilizar dependerá de nuestra búsqueda. Es recomendable probar a cambiar el valor N y a comparar los resultados para encontrar el que mejor se adapte a la búsqueda. Un valor N más alto crea una búsqueda más amplia, más completa; esto normalmente recuperará más resultados en general, pero algunos de estos resultados pueden ser menos relevantes. El uso del operador booleano AND para combinar términos puede ser más apropiado que la búsqueda por proximidad con un valor N grande. Un valor N más bajo crea una búsqueda más estrecha y precisa; esto normalmente recuperará menos resultados que son altamente relevantes, pero puede excluir otros resultados relevantes. Si N=0, los términos citados aparecerán uno al lado del otro, sin otras palabras entre ellos, y en cualquier orden.
  • Este tipo de sintaxis de búsqueda deshace el mapeo automático de términos que hace por defecto PubMed.
  • Podemos combinar las búsquedas por proximidad con otros términos utilizando operadores booleanos. Por ejemplo:
    • “hip pain”[Title:~4] AND “Arthralgia”[Mesh]
    • “patient physician relationship“[tiab:~0] OR “patient doctor relationship”[tiab:~0]
  • Los operadores booleanos y las stopwords incluidas entrecomillas en la búsqueda por proximidad se buscan como las palabras claves normales.

Ejemplo

Para buscar referencias en PubMed donde los términos “hip” y “pain” aparecen con no más de dos palabras entre ellos en el campo de búsqueda Título/Resumen, intente la búsqueda:

“Hip pain»[Title/Abstract:~2]

Los resultados de la búsqueda pueden incluir:

  • hip pain;
  • hip-related pain;
  • hip joint pain; 
  • hip/groin pain; 
  • hip biomechanics and pain; 
  • pain after total hip arthroplasty;
  • pain in right hip, …

Disponéis de un videotutorial aquí.

Y ahora mi conclusión: considero que es más una mejora a la búsqueda por frases que una verdadera búsqueda de proximidad/adyacencia.