跳转至

2025-2026 大厂真实面经题型地图

⚠️ 核验说明(2026-04-03):本页聚焦“公开可定位的面经来源”,优先使用能直接访问或稳定搜索到的公开帖子。由于公开面经天然存在回忆偏差、岗位差异和轮次差异,本页更适合做“高频题型地图”和“可追溯题源入口”,不应理解为官方题库。

本页用途:回答两个最现实的问题: 1. 现在大厂公开面经里到底在问什么? 2. 站内哪些教程已经覆盖了这些题,哪些还要补?

📎 如果你想看更细的公司级题目清单:继续读 29-2025-2026大厂公开面经题目全量索引


一、怎样才算“真实题目”

本页把“公开可追溯题目”定义为满足下面至少 3 条的公开来源:

  • 有明确公司名
  • 有明确岗位方向
  • 有明确轮次或流程信息
  • 有明确发布时间
  • 帖子里给出了具体题目,而不是泛泛说“问了八股”

来源优先级:

  1. 公开面经原帖,例如牛客公开 feed / discuss 页面
  2. 某公司某方向的面经汇总帖
  3. 中文社区经验贴,用来补趋势和补充追问方向

二、先给结论:2025-2026 公开面经的 8 个高频簇

从本轮核对到的公开面经看,最近两年最稳定的高频簇不是“背概念”,而是这 8 类:

  1. Transformer 基础升级版
  2. 不再只问“什么是 Self-Attention”,而是继续追到 RoPE / GQA / MQA / RMSNorm / SwiGLU / MoE
  3. 后训练与对齐
  4. LoRA / QLoRA / SFT / RLHF / PPO / DPO / GRPO / 奖励模型
  5. 推理服务与 GPU 利用
  6. KV Cache / PagedAttention / vLLM / Prefix Cache / 投机解码 / GPU 利用率
  7. RAG 生产化
  8. 切分 / 混合检索 / rerank / 表格 RAG / 缺证据排查 / GraphRAG
  9. Agent 与工具调用
  10. Function Calling / MCP / A2A / 记忆 / 多 Agent 状态管理 / 上下文共享
  11. 项目深挖
  12. 数据清洗 / 评测集设计 / 指标定义 / 故障与复盘 / 为什么这样做
  13. 开放题与系统题
  14. 代码生成评测 / Text2SQL / 智能体平台 / 多模态系统 / 训练平台
  15. 手写与编码
  16. 还在问,常见是 DP / tokenizer / 句向量聚合 / 基础数据结构

这意味着:只准备“八股是什么”,不准备“为什么这样设计、出问题怎么排、怎么做评测”,已经不够了。


三、按公司与岗位拆的真实题型

3.1 字节跳动

来源 1:字节大模型二面面经(2026-02-12)

  • 公开来源:牛客原帖
  • 岗位信号:大模型方向
  • 公开题目信号:
  • Transformer、Encoder-Decoder
  • Multi-Head Attention、QKV
  • GPT 和 BERT 结构差异
  • 位置编码
  • QLoRA 原理与量化类型
  • 多个不同长度句子如何表示成同长度 embedding
  • 算法题:三角形最短路径和(DP)

这说明什么

  • 字节面经里“基础结构 + 微调 + 表征 + 手写”是成组出现的
  • 不是单纯问大模型原理,通常会连到 embedding 和算法实现

站内对应刷题入口


3.2 阿里

来源 1:阿里大模型二面(2025-08-24)

  • 公开来源:牛客原帖
  • 公开题目信号:
  • decoder 里的 mask 是什么
  • 预训练分几个阶段
  • RoPE
  • attention / FFN 细节
  • 分类 loss 怎么写
  • embeddings 怎么迁移到推荐场景
  • RLHF / DPO / PPO
  • 奖励模型有没有必要
  • Qwen 系列改进点

来源 2:阿里系大模型面试高频问题统计(2025-04-28)

  • 公开来源:牛客汇总帖
  • 公开题目信号:
  • 最难的 RAG 是什么
  • 怎么做代码生成 evaluation
  • Agent / 函数调用
  • Text2SQL
  • 为什么 RAG 在金融场景很重要

这说明什么

  • 阿里面经很爱把 模型结构 -> 对齐训练 -> 场景迁移 -> 评测 串起来问
  • “奖励模型是否必要”“代码生成如何评测”这类开放题出现频率不低

站内对应刷题入口


3.3 腾讯

来源 1:腾讯大模型技术研究-自然语言处理(公开面经)

  • 公开来源:牛客原帖
  • 公开题目信号:
  • 推理加速 / 推理优化
  • RAG 检索到季度财报,但 rerank 后少一季度,怎么处理
  • 怎样组织训练数据
  • LoRA / PEFT
  • 分层微调
  • 分布式训练

这说明什么

  • 腾讯这类面经里很强调“出了线上问题怎么办”,而不是只问定义
  • 尤其是 表格/财报类 RAG 缺证据 这种问题,非常像真实生产场景追问

站内对应刷题入口


3.4 小红书

来源 1:小红书大模型应用算法一面(2025-12-30)

  • 公开来源:牛客原帖
  • 公开题目信号:
  • 为什么想做 LLM 生成内容评测
  • 开放式 LLM 回答怎么评测
  • 如何提升评测质量
  • 评价方向为什么重要

来源 2:小红书一面日常实习面经(2025-05-29)

  • 公开来源:牛客原帖
  • 公开题目信号:
  • llama2 和 qwen2.5
  • RAG 怎么做
  • 微调
  • 如何搭建一个 RAG 系统

这说明什么

  • 小红书公开面经里,评测 不再是边角料,而是主问题
  • 做生成式内容、社区内容和开放式问答的团队,越来越在意“如何评价输出质量”

站内对应刷题入口


3.5 百度

来源 1:百度 Agent 智能体研发日常实习一二面(2026-02-24)

  • 公开来源:牛客原帖
  • 公开题目信号:
  • 多 Agent 协作
  • 共享上下文 hash 冲突怎么办
  • 上下文压缩怎么做
  • 上下文存储怎么设计
  • 微调
  • 记忆机制

这说明什么

  • 百度这类 Agent 面经里,问题已经从“会不会做智能体”推进到“多智能体运行时怎么管理”
  • 共享上下文冲突 / 上下文压缩 / 存储设计 是很值得单独准备的追问

站内对应刷题入口


3.6 跨公司公共高频

来源 1:大模型 - 话题(2025-07-29)

  • 公开来源:牛客话题页
  • 公开题目信号:
  • 微调为什么比蒸馏难
  • 最难的 RAG 是什么
  • 怎样评价代码生成
  • Agent 系统设计 / 函数调用 / 工具选择
  • Text2SQL

来源 2:大模型面经每日总结(2026-02-05)

  • 公开来源:牛客原帖
  • 公开题目信号:
  • RoPE 和 sin-cos 的区别
  • GPT3 / LLaMA / ChatGLM 区别
  • MQA 与 GQA 的区别
  • GShard
  • 非 Transformer 架构模型的优势

这说明什么

  • 最近两年公开面经已经明显“后移”到架构与工程细节
  • 如果还只背 GPT vs BERT、RAG 是什么、Agent 是什么,准备深度是不够的

四、把这些真实题映射回本站题库

4.1 已经覆盖得比较好的

4.2 这轮重点补位的

4.3 仍然值得继续加强的高频追问

这几类题已经出现在公开面经里,但站内还可以继续加厚:

  • 表格 / 财报类 RAG 的缺证据排查
  • 多 Agent 共享上下文冲突与去重
  • 开放式 LLM 生成内容评测
  • GPU 利用率、训练监控和异常恢复

五、这页该怎么用

如果你准备的是 AI/LLM/Agent 岗位,建议这样刷:

  1. 先用本页确认最近两年的真实高频簇
  2. 再回到站内专题刷理论和系统设计
  3. 把每一类真实题都准备成:
  4. 1 分钟定义版
  5. 3 分钟工程版
  6. 5 分钟项目版

最有效的方式不是“再背更多题”,而是把真实高频题映射到你自己的项目、评测和事故案例里。


六、公开来源索引


最后更新日期: 2026-04-03