《首先,不要伤害:迈向临床安全的大语言模型》一文探讨了大语言模型在医疗领域的应用及其潜在风险。研究由斯坦福大学、哈佛医学院等机构联合进行,首次系统性地通过“不伤害”基准评估了31个大语言模型在真实临床场景中的安全性。该基准基于10,639份真实的电子会诊病例,并采用多选项评估框架和专家共识标注方法,以衡量模型输出对患者的潜在伤害。研究发现,当前主流AI模型存在显著的安全风险,强调了未来临床AI安全评估与监管的重要性。此外,研究还揭示了模型在避免疏忽性和实施性伤害方面的能力,为改进AI辅助决策提供了关键数据支持。