2025-2026 大厂真实面经题型地图¶
⚠️ 核验说明(2026-04-03):本页聚焦“公开可定位的面经来源”,优先使用能直接访问或稳定搜索到的公开帖子。由于公开面经天然存在回忆偏差、岗位差异和轮次差异,本页更适合做“高频题型地图”和“可追溯题源入口”,不应理解为官方题库。
✅ 本页用途:回答两个最现实的问题: 1. 现在大厂公开面经里到底在问什么? 2. 站内哪些教程已经覆盖了这些题,哪些还要补?
📎 如果你想看更细的公司级题目清单:继续读 29-2025-2026大厂公开面经题目全量索引。
一、怎样才算“真实题目”¶
本页把“公开可追溯题目”定义为满足下面至少 3 条的公开来源:
- 有明确公司名
- 有明确岗位方向
- 有明确轮次或流程信息
- 有明确发布时间
- 帖子里给出了具体题目,而不是泛泛说“问了八股”
来源优先级:
- 公开面经原帖,例如牛客公开 feed / discuss 页面
- 某公司某方向的面经汇总帖
- 中文社区经验贴,用来补趋势和补充追问方向
二、先给结论:2025-2026 公开面经的 8 个高频簇¶
从本轮核对到的公开面经看,最近两年最稳定的高频簇不是“背概念”,而是这 8 类:
- Transformer 基础升级版
- 不再只问“什么是 Self-Attention”,而是继续追到
RoPE / GQA / MQA / RMSNorm / SwiGLU / MoE - 后训练与对齐
LoRA / QLoRA / SFT / RLHF / PPO / DPO / GRPO / 奖励模型- 推理服务与 GPU 利用
KV Cache / PagedAttention / vLLM / Prefix Cache / 投机解码 / GPU 利用率- RAG 生产化
切分 / 混合检索 / rerank / 表格 RAG / 缺证据排查 / GraphRAG- Agent 与工具调用
Function Calling / MCP / A2A / 记忆 / 多 Agent 状态管理 / 上下文共享- 项目深挖
数据清洗 / 评测集设计 / 指标定义 / 故障与复盘 / 为什么这样做- 开放题与系统题
代码生成评测 / Text2SQL / 智能体平台 / 多模态系统 / 训练平台- 手写与编码
- 还在问,常见是
DP / tokenizer / 句向量聚合 / 基础数据结构
这意味着:只准备“八股是什么”,不准备“为什么这样设计、出问题怎么排、怎么做评测”,已经不够了。
三、按公司与岗位拆的真实题型¶
3.1 字节跳动¶
来源 1:字节大模型二面面经(2026-02-12)¶
- 公开来源:牛客原帖
- 岗位信号:大模型方向
- 公开题目信号:
- Transformer、Encoder-Decoder
- Multi-Head Attention、QKV
- GPT 和 BERT 结构差异
- 位置编码
- QLoRA 原理与量化类型
- 多个不同长度句子如何表示成同长度 embedding
- 算法题:三角形最短路径和(DP)
这说明什么¶
- 字节面经里“基础结构 + 微调 + 表征 + 手写”是成组出现的
- 不是单纯问大模型原理,通常会连到 embedding 和算法实现
站内对应刷题入口¶
3.2 阿里¶
来源 1:阿里大模型二面(2025-08-24)¶
- 公开来源:牛客原帖
- 公开题目信号:
- decoder 里的 mask 是什么
- 预训练分几个阶段
- RoPE
- attention / FFN 细节
- 分类 loss 怎么写
- embeddings 怎么迁移到推荐场景
- RLHF / DPO / PPO
- 奖励模型有没有必要
- Qwen 系列改进点
来源 2:阿里系大模型面试高频问题统计(2025-04-28)¶
- 公开来源:牛客汇总帖
- 公开题目信号:
- 最难的 RAG 是什么
- 怎么做代码生成 evaluation
- Agent / 函数调用
- Text2SQL
- 为什么 RAG 在金融场景很重要
这说明什么¶
- 阿里面经很爱把
模型结构 -> 对齐训练 -> 场景迁移 -> 评测串起来问 - “奖励模型是否必要”“代码生成如何评测”这类开放题出现频率不低
站内对应刷题入口¶
3.3 腾讯¶
来源 1:腾讯大模型技术研究-自然语言处理(公开面经)¶
- 公开来源:牛客原帖
- 公开题目信号:
- 推理加速 / 推理优化
- RAG 检索到季度财报,但 rerank 后少一季度,怎么处理
- 怎样组织训练数据
- LoRA / PEFT
- 分层微调
- 分布式训练
这说明什么¶
- 腾讯这类面经里很强调“出了线上问题怎么办”,而不是只问定义
- 尤其是
表格/财报类 RAG 缺证据这种问题,非常像真实生产场景追问
站内对应刷题入口¶
3.4 小红书¶
来源 1:小红书大模型应用算法一面(2025-12-30)¶
- 公开来源:牛客原帖
- 公开题目信号:
- 为什么想做 LLM 生成内容评测
- 开放式 LLM 回答怎么评测
- 如何提升评测质量
- 评价方向为什么重要
来源 2:小红书一面日常实习面经(2025-05-29)¶
- 公开来源:牛客原帖
- 公开题目信号:
- llama2 和 qwen2.5
- RAG 怎么做
- 微调
- 如何搭建一个 RAG 系统
这说明什么¶
- 小红书公开面经里,
评测不再是边角料,而是主问题 - 做生成式内容、社区内容和开放式问答的团队,越来越在意“如何评价输出质量”
站内对应刷题入口¶
3.5 百度¶
来源 1:百度 Agent 智能体研发日常实习一二面(2026-02-24)¶
- 公开来源:牛客原帖
- 公开题目信号:
- 多 Agent 协作
- 共享上下文 hash 冲突怎么办
- 上下文压缩怎么做
- 上下文存储怎么设计
- 微调
- 记忆机制
这说明什么¶
- 百度这类 Agent 面经里,问题已经从“会不会做智能体”推进到“多智能体运行时怎么管理”
共享上下文冲突 / 上下文压缩 / 存储设计是很值得单独准备的追问
站内对应刷题入口¶
3.6 跨公司公共高频¶
来源 1:大模型 - 话题(2025-07-29)¶
- 公开来源:牛客话题页
- 公开题目信号:
- 微调为什么比蒸馏难
- 最难的 RAG 是什么
- 怎样评价代码生成
- Agent 系统设计 / 函数调用 / 工具选择
- Text2SQL
来源 2:大模型面经每日总结(2026-02-05)¶
- 公开来源:牛客原帖
- 公开题目信号:
- RoPE 和 sin-cos 的区别
- GPT3 / LLaMA / ChatGLM 区别
- MQA 与 GQA 的区别
- GShard
- 非 Transformer 架构模型的优势
这说明什么¶
- 最近两年公开面经已经明显“后移”到架构与工程细节
- 如果还只背 GPT vs BERT、RAG 是什么、Agent 是什么,准备深度是不够的
四、把这些真实题映射回本站题库¶
4.1 已经覆盖得比较好的¶
Transformer / RoPE / GQA / MQA / MoE- 对应:07-Transformer架构面试题、22-大模型核心八股文
LoRA / QLoRA / RLHF / DPO / PPO / GRPO- 对应:08-预训练和微调面试题、LLM 应用面试题库
KV Cache / PagedAttention / vLLM / Prefix Caching / 投机解码- 对应:09-推理优化面试题、AI系统设计面试/04-LLM推理服务架构设计
Agent / MCP / A2A / GraphRAG- 对应:21-AI Agent与RAG面试专题、LLM 应用面试题库
4.2 这轮重点补位的¶
多模态系统设计- 已修复并重写:AI系统设计面试/05-多模态AI系统设计
真实面经与题源可追溯- 本页就是新增补位
题目真实性与标签解释- 见:28-题目真实性与来源维护说明
4.3 仍然值得继续加强的高频追问¶
这几类题已经出现在公开面经里,但站内还可以继续加厚:
- 表格 / 财报类 RAG 的缺证据排查
- 多 Agent 共享上下文冲突与去重
- 开放式 LLM 生成内容评测
- GPU 利用率、训练监控和异常恢复
五、这页该怎么用¶
如果你准备的是 AI/LLM/Agent 岗位,建议这样刷:
- 先用本页确认最近两年的真实高频簇
- 再回到站内专题刷理论和系统设计
- 把每一类真实题都准备成:
- 1 分钟定义版
- 3 分钟工程版
- 5 分钟项目版
最有效的方式不是“再背更多题”,而是把真实高频题映射到你自己的项目、评测和事故案例里。
六、公开来源索引¶
- 字节大模型二面面经(2026-02-12)
- 阿里大模型二面(2025-08-24)
- 阿里系大模型面试高频问题统计(2025-04-28)
- 腾讯大模型技术研究-自然语言处理(公开面经)
- 小红书大模型应用算法一面(2025-12-30)
- 小红书一面日常实习面经(2025-05-29)
- 百度Agent智能体研发日常实习一二面(2026-02-24)
- 大模型 - 话题(2025-07-29)
- 大模型面经每日总结(2026-02-05)
最后更新日期: 2026-04-03