2021 (241)
2022 (436)
2023 (328)
2024 (325)
OpenEvidence 是一个循证医学解析引擎,它的目标是把医生、研究者或患者的自然语言问题,快速转化为结构化、可追溯的循证答案。
核心技术
-- PICO 框架:把自然语言问题拆解为标准化的临床研究格式
P = Patient / Problem(患者或临床问题)
I = Intervention(干预措施)
C = Comparison(对照或替代方案)
O = Outcome(结局指标)
这样能精确捕捉临床问题,而不是仅依赖关键词。
-- BERT / BioBERT / PubMedBERT
BERT = Bidirectional Encoder Representations from Transformers,由 Google 在 2018 年提出,是第一个真正意义上的双向 Transformer 语言模型,在自然语言理解领域引发革命。
BioBERT = 在大规模生物医学文献(PubMed, PMC)上二次预训练的 BERT,专门优化医学语义。
PubMedBERT = 在 PubMed 全量数据上从零训练的模型,对专业医学术语的理解更深。
有了 Google 的 BERT 奠定的基础,BioBERT 和 PubMedBERT 才能在医学领域实现高精度的语义理解。它们使得 OpenEvidence 的检索不仅能识别关键词,还能理解复杂医学语境。
-- 证据识别与分级
系统通过 NER 和分类模型,自动识别研究类型(RCT、Cohort、Meta-analysis),并嵌入 GRADE 方法学,把证据分为 High / Moderate / Low。
这是传统数据库(PubMed, Cochrane)所欠缺的。
-- RAG 框架(Retrieval-Augmented Generation)
把检索到的文献段落传递给 LLM,总结时:
每条结论都附带 PMID 或 DOI,确保可追溯
避免模型幻觉,只基于真实证据
输出双层风格:专业版(含统计学细节:样本量、风险比、置信区间等)和科普版(简明结论,便于患者理解)
应用场景
-- 临床决策支持:医生会诊时查询“糖尿病药物是否降低痴呆风险”,几秒内返回 Meta-analysis 结果和风险比。
-- 科研:研究者快速梳理某一机制的证据全景。
-- 药物研发:企业利用系统判断药物重定位可行性,提高研发效率。
-- 患者教育:提供“专业版+科普版”双层答案,缩小信息差。
差异化价值
与通用工具(如 ChatGPT)相比,OpenEvidence 不只是做“总结”,而是实现了从问题到结论的完整闭环:
PICO 抽取 → 临床问题结构化
BioBERT / PubMedBERT → 精准语义检索
证据识别 + GRADE → 判定证据质量
RAG 总结 → 生成结构化、可追溯的答案
为什么能拿到 25 亿美元估值
因为 OpenEvidence 是第一个把 PICO、GRADE、Google 的 BERT 模型及其医学变体(BioBERT、PubMedBERT)与 RAG 架构整合在一起的循证医学平台。它不仅提升了医生的临床决策效率,也服务科研、药物研发和患者教育,真正解决了“海量文献 → 临床可用证据”这最后一公里的问题。