跳转至

搜索推荐与 LLM 岗位路线

搜索推荐 + LLM / RL 不是旧时代残留,而是 2026-2028 中国 AI 就业里依然很硬的一条主线。


1. 为什么这条线不能丢

公开岗位与面经已经很清楚:

  • 搜索和推荐没有消失
  • 反而在吸收:
  • LLM
  • RL
  • 多模态
  • 生成式推荐
  • 搜索 Agent

也就是说,现在很多岗位不是:

  • 纯传统推荐

而是:

  • 推荐系统 + 大模型
  • 搜索系统 + Agent
  • 召回排序 + RL / post-training

2. 岗位通常分成 4 类

方向 典型关键词
传统搜推升级 召回、排序、粗排、长序列、用户建模
生成式推荐 Token 化、生成式排序、生成式检索
搜推 + LLM Query 理解、重排、对话式搜索、搜索 Agent
RL / 后训练结合 PPO、DPO、GRPO、reward、Bandit

3. 2028 更可能要求什么

如果你想把“会推荐系统”升级成“能打 2028 岗位”,下面这层能力树几乎绕不过去。

基础层

  • 推荐系统基础
  • 召回 / 排序 / 粗排 / 精排
  • AUC / GAUC / NDCG / MRR
  • 长序列建模

升级层

  • LLM 在搜索推荐中的应用
  • 生成式推荐
  • Query / item / user 的统一表征
  • 多模态特征融合

更高阶层

  • RL / bandit / reward 设计
  • 评测体系
  • 在线与离线一致性
  • 工程化与推理效率

4. 站内应该怎么学

建议顺序:

  1. 09-召回算法
  2. 10-排序算法
  3. 13-推荐系统评估
  4. 16-LLM与推荐系统
  5. 17-现代推荐系统架构
  6. 20-强化学习与Bandit推荐
  7. 21-粗排与长序列建模
  8. 本页

5. 至少做什么项目才有说服力

推荐 3 选 1:

项目 A:经典推荐系统升级版

  • 先做双塔/排序基线
  • 再加长序列建模或多兴趣召回
  • 补评测和线上化设计

项目 B:搜索 + LLM 重排系统

  • Query 理解
  • 检索 / 召回
  • LLM 重排或生成式回答
  • 指标对比与失败样例

项目 C:生成式推荐 / RL 推荐

  • 行为数据
  • 奖励设计
  • Bandit / RL 策略
  • 生成式推荐或策略优化

6. 面试里会怎么问

你大概率会遇到这几类问题混着来:

  • 推荐基础:AUC / GAUC / NDCG
  • 长序列与召回:MIND、ComiRec、SIM、HSTU
  • 生成式推荐:为什么不用传统排序、token 怎么设计
  • RL:PPO / GAE / DPO / GRPO
  • 多模态:图文特征怎么对齐
  • 系统:吞吐、延迟、特征更新、线上部署

所以这条线的本质不是“只会推荐算法”,而是:

推荐系统 + 大模型 + RL + 工程


7. 什么时候适合主投这条线

更适合你,如果你:

  • 不想把自己局限在纯聊天类 Agent
  • 对用户行为、排序、指标和实验更有兴趣
  • 希望保留一条对大厂搜推、广告、内容平台都通用的路线

如果你已经有 LLM 基础,再补这条线,往往比从零去追纯科研更有就业确定性。