🔥 WCTC S8 全球交易赛正式开赛!
8,000,000 USDT 超级奖池解锁开启
🏆 团队赛:上半场正式开启,预报名阶段 5,500+ 战队现已集结
交易量收益额双重比拼,解锁上半场 1,800,000 USDT 奖池
🏆 个人赛:现货、合约、TradFi、ETF、闪兑、跟单齐上阵
全场交易量比拼,瓜分 2,000,000 USDT 奖池
🏆 王者 PK 赛:零门槛参与,实时匹配享受战斗快感
收益率即时 PK,瓜分 1,600,000 USDT 奖池
活动时间:2026 年 4月 23 日 16:00:00 -2026 年 5 月 20 日 15:59:59 UTC+8
⬇️ 立即参与:https://www.gate.com/competition/wctc-s8
#WCTCS8
Hugging Face 开源了 ml-intern,一款用于自动论文阅读、数据选择和训练的机器学习研究代理
根据东查贝廷的监测,Hugging Face 已开源 ml-intern,这是一个能够自主完成“阅读论文、整理数据集、启动GPU训练、评估结果和迭代改进”全过程的机器学习研究代理。该项目基于他们自主开发的 smolagents 框架,提供命令行界面(CLI)和网页访问,代码已在 GitHub 上开源。ml-intern 的工具链围绕 Hugging Face 生态系统构建:它从 arXiv 和 HF Papers 获取论文,并进行深度阅读沿着引用链;它浏览 HF Hub 上的数据集,检查质量,重新格式化,然后输入训练;当没有本地GPU时,可以调用 HF Jobs 启动云端训练任务,自动读取评估输出,诊断失败原因,并在训练完成后重新运行。默认情况下,它使用 Claude Sonnet 4.5 驱动决策循环,每次运行最多 300 次迭代,并对超过 170k 令牌的上下文进行自动压缩。Hugging Face 在其发布文章中提供了三个案例研究。在科学推理任务中,代理从基准论文的引用链中识别出 OpenScience 和 NemoTron-CrossThink 数据集,过滤出基于难度的 ARC、SciQ 和 MMLU 的七个变体,并在 Qwen3-1.7B 上进行了 12 轮 SFT,令 GPQA 分数从 10% 提升到 32%,用时不到 10 小时。在医疗场景中,代理判断现有数据集质量不足,自动编写脚本生成 1,100 个合成数据点,将数据集扩展了 50 倍用于训练,在 HealthBench 上超越 Codex 超过 60%。在竞赛数学场景中,代理自主编写了 GRPO 训练脚本,并在 HF Spaces 上启动 A100 训练,观察到奖励崩溃,并进行了消融实验以调查原因。