工作中有清洗 jsonl 文件的需求,原因是 LLM 输出的内容有可能存在错误的补全,不能直接全部用于 Fine-tuning。这个脚本清洗了 jsonl 文件中 input/output == "" 和 input 行重复 的情况。import json import random input_file = 'file.jsonl' output_file = 'file_cleaned.jsonl' # 用于存储唯一 input 的行 input_map = {} total_lines = 0 ...

閱讀全文...

一、引言与项目概览DeepSWE 是一个全新的、完全开源的强化学习训练项目,其目标是构建一个具备多步代码理解与修改能力的大型语言模型智能体(coding agent)。该项目训练起点是 Qwen3-32B 模型,不依赖任何监督微调(SFT)或教师模型蒸馏,仅通过强化学习完成整个 agent 的建构。最终模型 DeepSWE-Preview 在 SWE-Bench-Verified 基准任务上取得 42.2% 的 Pass@1 成绩,并通过测试时轨迹扩展(Test-Time Scaling)将 Pass@16 提升至 59%,在所有开源...

閱讀全文...

引言收集数据一直是训练语言模型解决软件工程问题的一大难题。在此前的SWE-Bench的工作中,从10个左右的 GitHub 仓库里人工手动构造出了最多 1000 条高质量的实例用于进行测试和研究,但人工操作显然限制了扩展性和可用性。现有的方法存在如下几个问题:数据集的规模有限创建成本较高(人力成本、存储成本等)开源模型发展较为受限![[Pasted image 20250714154807.png]]基于这个痛点,SWE-Smith 框架被提出,这个框架可以被用来大规模自动化生产软件工程训练数据。和传统方法(手动寻找PRs相反),SW...

閱讀全文...

之前的服务器到期了,续费的价格颇为不菲,于是趁这个机会买了一个新的服务器,也正好重构一下博客。此前网站的主题太为臃肿,加上没有做加速,大量的时间都停留在渲染前端界面上,反而忽略了内容。一转眼又是一年八月。我对夏季的感情是复杂的。在能够被想起来的那些记忆碎片里,为数不多的幸福和欢乐大多来自于炎热的夏日。小时候住在湘江边上,每逢七八月外婆便会带我坐公交车去烈士公园玩,那里有一个很大的湖。游客们会在湖上划船,也有小贩在湖边售卖各式各样的玩具和零食。那时候我年纪还很小,船是划不了的,于是就在湖边吃着糖粒子看船上的游人们来来去去,如是便是一个下...

閱讀全文...

Intro一个“好”的基准测试可以用来反应LMs在现实世界应用的表现,以帮助塑造他们未来的的发展。但构建一个"好”的Benchmark也是困难的,因为这要求:任务要有挑战性模型预测需要是能够且容易验证的现有的编码基准测试(如HumanEval)大多涉及自包含问题(Self-contained problem)。自包含问题指的是不依赖外部上下文或复杂依赖关系的问题,所有必要的信息和代码都已在问题本身中完整提供,可以在一个小范围内(如几行代码内)被理解和解决。一个简单的例子如下:def factorial(n: int) -> in...

閱讀全文...