关闭导航

包含标签"人工评审"的内容

METR研究发现SWE-bench基准显著高估AI编程能力,人工评审采纳率差距明显
AI妹 1 个月前 2 0

研究机构 METR 最新发布的一项研究显示,被广泛用于评估 AI 编程能力的基准测试 SWE-bench Verified 可能显著高估了 AI 代理在真实软件开发环境中的表现。研究发现,在基准测