搜索推荐与 LLM 岗位路线¶
搜索推荐 + LLM / RL不是旧时代残留,而是 2026-2028 中国 AI 就业里依然很硬的一条主线。
1. 为什么这条线不能丢¶
公开岗位与面经已经很清楚:
- 搜索和推荐没有消失
- 反而在吸收:
- LLM
- RL
- 多模态
- 生成式推荐
- 搜索 Agent
也就是说,现在很多岗位不是:
- 纯传统推荐
而是:
- 推荐系统 + 大模型
- 搜索系统 + Agent
- 召回排序 + RL / post-training
2. 岗位通常分成 4 类¶
| 方向 | 典型关键词 |
|---|---|
| 传统搜推升级 | 召回、排序、粗排、长序列、用户建模 |
| 生成式推荐 | Token 化、生成式排序、生成式检索 |
| 搜推 + LLM | Query 理解、重排、对话式搜索、搜索 Agent |
| RL / 后训练结合 | PPO、DPO、GRPO、reward、Bandit |
3. 2028 更可能要求什么¶
如果你想把“会推荐系统”升级成“能打 2028 岗位”,下面这层能力树几乎绕不过去。
基础层¶
- 推荐系统基础
- 召回 / 排序 / 粗排 / 精排
- AUC / GAUC / NDCG / MRR
- 长序列建模
升级层¶
- LLM 在搜索推荐中的应用
- 生成式推荐
- Query / item / user 的统一表征
- 多模态特征融合
更高阶层¶
- RL / bandit / reward 设计
- 评测体系
- 在线与离线一致性
- 工程化与推理效率
4. 站内应该怎么学¶
建议顺序:
5. 至少做什么项目才有说服力¶
推荐 3 选 1:
项目 A:经典推荐系统升级版¶
- 先做双塔/排序基线
- 再加长序列建模或多兴趣召回
- 补评测和线上化设计
项目 B:搜索 + LLM 重排系统¶
- Query 理解
- 检索 / 召回
- LLM 重排或生成式回答
- 指标对比与失败样例
项目 C:生成式推荐 / RL 推荐¶
- 行为数据
- 奖励设计
- Bandit / RL 策略
- 生成式推荐或策略优化
6. 面试里会怎么问¶
你大概率会遇到这几类问题混着来:
- 推荐基础:AUC / GAUC / NDCG
- 长序列与召回:MIND、ComiRec、SIM、HSTU
- 生成式推荐:为什么不用传统排序、token 怎么设计
- RL:PPO / GAE / DPO / GRPO
- 多模态:图文特征怎么对齐
- 系统:吞吐、延迟、特征更新、线上部署
所以这条线的本质不是“只会推荐算法”,而是:
推荐系统 + 大模型 + RL + 工程
7. 什么时候适合主投这条线¶
更适合你,如果你:
- 不想把自己局限在纯聊天类 Agent
- 对用户行为、排序、指标和实验更有兴趣
- 希望保留一条对大厂搜推、广告、内容平台都通用的路线
如果你已经有 LLM 基础,再补这条线,往往比从零去追纯科研更有就业确定性。