跳转至

Agentic 软件工程项目交付模板

这一页不是教你再做一个 Demo,而是教你把 AI Coding / Agent 工程项目 做成能拿去面试、投递、讲解、复盘的交付物。


1. 一个“可投递”的项目必须同时满足 4 件事

  1. 能运行:不是截图工程
  2. 能验证:有测试、评测或 benchmark
  3. 能解释:能讲清 trade-off 和失败案例
  4. 能交付:有 README、架构图、指标表、演示链路

2. 推荐的 4 类项目

这 4 类项目的共同特点,是既能体现 AI4SE 叙事,又比较容易做出可验证的证据链。

A. 仓库级代码修改 Agent

典型目标:

  • 从 issue 出发
  • 检索仓库
  • 修改多文件
  • 运行测试

必须展示:

  • 任务拆解
  • 上下文策略
  • 文件/符号检索
  • 结果验证

B. PR Review / AICR Agent

典型目标:

  • 自动发现风险改动
  • 生成审查意见
  • 标记高风险位置

必须展示:

  • 审查规则
  • 误报/漏报分析
  • 人工门禁点

C. Deep Research / 知识工作 Agent

典型目标:

  • 检索网页、文档、代码
  • 汇总结论
  • 生成结构化报告

必须展示:

  • 规划与搜索流程
  • 引用与证据链
  • 长任务摘要

D. 企业内部开发助手

典型目标:

  • 接内部规范
  • 读项目规则
  • 生成模板代码、测试、文档

必须展示:

  • AGENTS.md / Skills / MCP
  • 规范注入
  • 权限与审计

3. 标准交付包结构

Text Only
project/
├── README.md
├── docs/
│   ├── PRD.md
│   ├── architecture.md
│   ├── eval.md
│   ├── benchmark.md
│   ├── runbook.md
│   └── postmortem.md
├── demo/
│   ├── screenshots/
│   └── replay.md
├── src/
├── tests/
└── scripts/

最低限度建议补齐:

  • PRD:解决什么问题
  • architecture:系统怎么组成
  • eval:怎么定义成功
  • benchmark:速度/成本/成功率
  • runbook:上线和回滚怎么做
  • postmortem:失败案例和复盘

4. 面试官最关心的不是“做没做”,而是“做到了什么程度”

所以每个项目都建议回答这 8 个问题:

  1. 为什么做这个项目?
  2. 目标用户是谁?
  3. 输入、输出和成功标准是什么?
  4. 上下文怎么管理?
  5. 工具怎么设计?
  6. 如何评测和审查?
  7. 最贵的 trade-off 是什么?
  8. 最大失败案例是什么?

5. 推荐的量化指标

类型 指标示例
成功率 任务完成率、测试通过率
效率 平均步骤数、人工介入次数、平均耗时
成本 单任务 token 成本、失败重试成本
质量 漏报率、误报率、回归率
稳定性 长任务中断率、重复执行波动

没有指标,项目就很容易被面试官归类为“体验类玩具”。


6. 如何和简历联动

项目完成后,至少把以下 5 个资产同步到求职材料里:

  1. 简历项目条目
  2. GitHub README
  3. 架构图
  4. 评测表
  5. 30 分钟项目讲解稿

对应参考:


7. 一个最低可用执行顺序

Text Only
选题 -> 写 PRD -> 画架构图 -> 做 MVP -> 加测试
-> 做评测 -> 记录失败案例 -> 补 README 与讲解稿

做到这一步,你的项目才开始具备真正的求职价值。