Hugging Face 开源了 ml-intern,一款用于自动论文阅读、数据选择和训练的机器学习研究代理

根据东查贝廷的监测,Hugging Face 已开源 ml-intern,这是一个能够自主完成“阅读论文、整理数据集、启动GPU训练、评估结果和迭代改进”全过程的机器学习研究代理。该项目基于他们自主开发的 smolagents 框架,提供命令行界面(CLI)和网页访问,代码已在 GitHub 上开源。ml-intern 的工具链围绕 Hugging Face 生态系统构建:它从 arXiv 和 HF Papers 获取论文,并进行深度阅读沿着引用链;它浏览 HF Hub 上的数据集,检查质量,重新格式化,然后输入训练;当没有本地GPU时,可以调用 HF Jobs 启动云端训练任务,自动读取评估输出,诊断失败原因,并在训练完成后重新运行。默认情况下,它使用 Claude Sonnet 4.5 驱动决策循环,每次运行最多 300 次迭代,并对超过 170k 令牌的上下文进行自动压缩。Hugging Face 在其发布文章中提供了三个案例研究。在科学推理任务中,代理从基准论文的引用链中识别出 OpenScience 和 NemoTron-CrossThink 数据集,过滤出基于难度的 ARC、SciQ 和 MMLU 的七个变体,并在 Qwen3-1.7B 上进行了 12 轮 SFT,令 GPQA 分数从 10% 提升到 32%,用时不到 10 小时。在医疗场景中,代理判断现有数据集质量不足,自动编写脚本生成 1,100 个合成数据点,将数据集扩展了 50 倍用于训练,在 HealthBench 上超越 Codex 超过 60%。在竞赛数学场景中,代理自主编写了 GRPO 训练脚本,并在 HF Spaces 上启动 A100 训练,观察到奖励崩溃,并进行了消融实验以调查原因。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论