Agentic 软件工程项目交付模板¶
这一页不是教你再做一个 Demo,而是教你把
AI Coding / Agent 工程项目做成能拿去面试、投递、讲解、复盘的交付物。
1. 一个“可投递”的项目必须同时满足 4 件事¶
- 能运行:不是截图工程
- 能验证:有测试、评测或 benchmark
- 能解释:能讲清 trade-off 和失败案例
- 能交付:有 README、架构图、指标表、演示链路
2. 推荐的 4 类项目¶
这 4 类项目的共同特点,是既能体现 AI4SE 叙事,又比较容易做出可验证的证据链。
A. 仓库级代码修改 Agent¶
典型目标:
- 从 issue 出发
- 检索仓库
- 修改多文件
- 运行测试
必须展示:
- 任务拆解
- 上下文策略
- 文件/符号检索
- 结果验证
B. PR Review / AICR Agent¶
典型目标:
- 自动发现风险改动
- 生成审查意见
- 标记高风险位置
必须展示:
- 审查规则
- 误报/漏报分析
- 人工门禁点
C. Deep Research / 知识工作 Agent¶
典型目标:
- 检索网页、文档、代码
- 汇总结论
- 生成结构化报告
必须展示:
- 规划与搜索流程
- 引用与证据链
- 长任务摘要
D. 企业内部开发助手¶
典型目标:
- 接内部规范
- 读项目规则
- 生成模板代码、测试、文档
必须展示:
- AGENTS.md / Skills / MCP
- 规范注入
- 权限与审计
3. 标准交付包结构¶
Text Only
project/
├── README.md
├── docs/
│ ├── PRD.md
│ ├── architecture.md
│ ├── eval.md
│ ├── benchmark.md
│ ├── runbook.md
│ └── postmortem.md
├── demo/
│ ├── screenshots/
│ └── replay.md
├── src/
├── tests/
└── scripts/
最低限度建议补齐:
PRD:解决什么问题architecture:系统怎么组成eval:怎么定义成功benchmark:速度/成本/成功率runbook:上线和回滚怎么做postmortem:失败案例和复盘
4. 面试官最关心的不是“做没做”,而是“做到了什么程度”¶
所以每个项目都建议回答这 8 个问题:
- 为什么做这个项目?
- 目标用户是谁?
- 输入、输出和成功标准是什么?
- 上下文怎么管理?
- 工具怎么设计?
- 如何评测和审查?
- 最贵的 trade-off 是什么?
- 最大失败案例是什么?
5. 推荐的量化指标¶
| 类型 | 指标示例 |
|---|---|
| 成功率 | 任务完成率、测试通过率 |
| 效率 | 平均步骤数、人工介入次数、平均耗时 |
| 成本 | 单任务 token 成本、失败重试成本 |
| 质量 | 漏报率、误报率、回归率 |
| 稳定性 | 长任务中断率、重复执行波动 |
没有指标,项目就很容易被面试官归类为“体验类玩具”。
6. 如何和简历联动¶
项目完成后,至少把以下 5 个资产同步到求职材料里:
- 简历项目条目
- GitHub README
- 架构图
- 评测表
- 30 分钟项目讲解稿
对应参考:
7. 一个最低可用执行顺序¶
做到这一步,你的项目才开始具备真正的求职价值。