🔥 后端架构实战项目集( 3 个分级项目)¶
项目 1 : RESTful API 服务(入门级, 2 周)¶
技术栈¶
Go(Gin/Echo) 或 Python(FastAPI) + PostgreSQL + Redis + Docker
核心实现¶
Python
# FastAPI示例
from fastapi import FastAPI, Depends
from sqlalchemy.ext.asyncio import AsyncSession
app = FastAPI()
@app.post("/users", response_model=UserResponse)
async def create_user(user: UserCreate, db: AsyncSession = Depends(get_db)): # async def定义异步函数;用await调用
db_user = User(**user.dict())
db.add(db_user)
await db.commit() # await等待异步操作完成
return db_user
@app.get("/users/{user_id}")
@cache(expire=300) # Redis缓存
async def get_user(user_id: int, db: AsyncSession = Depends(get_db)):
return await db.get(User, user_id)
交付物¶
- RESTful CRUD API(用户/文章/评论)
- JWT 认证 + RBAC 权限
- Redis 缓存层
- Docker Compose(API+DB+Redis)
- Swagger 文档 + 单元测试(覆盖率>80%)
项目 2 :微服务电商系统(进阶级, 3 周)¶
架构¶
关键技术点¶
- 服务间通信: gRPC(内部) + REST(外部)
- 分布式事务: Saga 模式(订单→扣库存→支付)
- 链路追踪: OpenTelemetry + Jaeger
- 配置管理: 环境变量 + ConfigMap
交付物¶
- 4 个微服务(Go/Python)
- gRPC Proto 定义
- Kafka 异步消息处理
- Docker Compose + K8s Manifests
- 分布式追踪(Jaeger UI)
项目 3 :高并发 LLM 推理服务(高级, 4 周)¶
架构¶
Text Only
客户端 → Nginx(负载均衡) → API Gateway(限流/认证)
→ 请求队列(Redis Stream) → GPU Worker(vLLM)
→ SSE流式响应 → 客户端
关键技术点¶
- vLLM/TensorRT-LLM 部署 LLM
- 流式输出(SSE/WebSocket)
- 动态批处理(Continuous Batching)
- 多模型路由(简单请求→小模型,复杂→大模型)
- K8s HPA 按 GPU 利用率自动扩缩
交付物¶
- vLLM 推理服务(支持多模型)
- FastAPI 流式 API(SSE)
- 请求队列+优先级调度
- Prometheus+Grafana 监控(QPS/延迟/GPU 利用率)
- K8s 部署+HPA 配置
- 压测报告(locust)
最后更新: 2026 年 2 月