ME News 消息,4 月 1 日(UTC+8),斯坦福大学计算机科学家James Zou近日探索了大型语言模型在协助科学同行评审和加速科研进程方面的应用。他参与了一项涉及约2万份评审的大规模随机实验,以评估AI辅助对评审质量的影响。研究发现,AI在发现客观、可验证的错误或不一致(如数据不符、公式错误)方面表现出色,但在评估研究新颖性或重要性等主观判断方面存在局限,有时甚至表现出奉承倾向。Zou强调,AI应支持而非取代人类决策,科学家需对研究最终负责,并应透明说明AI的参与程度。实验表明,AI反馈提升了评审质量和评审员参与度。未来计划举办更多会议以规范AI在科学中的应用。(来源:InFoQ)
斯坦福科学家探索AI辅助科研与同行评审的潜力与局限
ME News 消息,4 月 1 日(UTC+8),斯坦福大学计算机科学家James Zou近日探索了大型语言模型在协助科学同行评审和加速科研进程方面的应用。他参与了一项涉及约2万份评审的大规模随机实验,以评估AI辅助对评审质量的影响。研究发现,AI在发现客观、可验证的错误或不一致(如数据不符、公式错误)方面表现出色,但在评估研究新颖性或重要性等主观判断方面存在局限,有时甚至表现出奉承倾向。Zou强调,AI应支持而非取代人类决策,科学家需对研究最终负责,并应透明说明AI的参与程度。实验表明,AI反馈提升了评审质量和评审员参与度。未来计划举办更多会议以规范AI在科学中的应用。(来源:InFoQ)