跳转至

2025-2026 大厂公开面经题目全量索引

⚠️ 核验说明(2026-04-03):本页追求的是“公开互联网里可追溯的题目级证据尽可能全量”,不是声称拿到了所有公司的保密真题。凡是没有稳定公开来源支撑的内容,本页宁可写成“趋势”或“待补位”,也不写成“某厂必问原题”。

📎 配套阅读: - 27-2025-2026大厂真实面经题型地图 - 28-题目真实性与来源维护说明 - 30-中文平台大厂面经深挖与真实性分级表


一、先给结论:现在的题库还不算“题源级足够全”,这页就是补这个缺口

如果只看站内原先的 01-28 页,理论覆盖其实已经比较厚了:

  • Transformer / 微调 / 推理优化 / RAG / Agent / 多模态 / 系统设计 都有专题
  • 机器学习 / 深度学习 / 数学 / 算法 / 数据库 / 网络 / OS / Python / Java / HR 也都已经成体系

真正还不够“无死角”的地方,不是知识点不够,而是:

  1. 公司级题源索引还不够细
  2. 之前更偏“高频题型地图”,但还不是“尽可能细的公开题目清单”
  3. 跨平台证据分层还不够明确
  4. 牛客、知乎、小红书、博客、二次总结混在一起时,容易把趋势误写成真题
  5. 部分公司公开题源很多,部分公司公开题源很少
  6. 需要把“已经拿到题目级证据的公司”和“仍然偏缺口的公司”分开说

这页的目标,就是把这些问题补齐。

如果你想继续追问“这些题在中文平台上到底分别来自哪里、哪一条该算原帖、哪一条只能算趋势”,请继续看 30-中文平台大厂面经深挖与真实性分级表


二、本轮怎么收集:沿用“平台分开看”的方法,不把噪声混成真题

本轮审核采用的口径是:

A 级:题目级原帖

  • 牛客公开 feed / discuss / creation subject
  • 能看到明确公司、岗位、轮次、发布时间
  • 能提炼出具体问题或追问

B 级:公开汇总页 / 话题页 / 高质量总结

  • 牛客话题页、每日总结、跨公司汇总帖
  • 知乎高质量总结文
  • 可用于补公司覆盖和补追问方向

C 级:中文平台补趋势

  • 小红书、知乎问答、博客、短视频平台
  • 主要用来判断“最近哪些题在升温”
  • 不单独作为真题主证据

本轮尤其借鉴了中文平台研究里常见的一个重要方法:平台分开看

  • 在本轮样本里,牛客最适合做题目级证据主索引
  • 知乎更适合做二级汇总和补充理解
  • 小红书对“最近大家在讨论什么”有帮助,但公开检索稳定性较差,很多时候还需要登录后才能拿到更完整结果

所以本页的主骨架仍然以 牛客公开原帖和话题页 为主,知乎等只做补充。


三、截至 2026-03-28,按本轮公开样本能较稳定拿到题目级证据的公司覆盖

公司 / 平台 公开题源情况 公开证据强度(样本口径) 说明
字节跳动 题目级原帖可定位 结构、微调、embedding、手写都能看到
阿里 / 淘天 题目级原帖 + 汇总帖 模型结构、对齐训练、RAG、评测都较全
腾讯 题目级原帖可定位 基础原理、训练、多模态、幻觉治理较清楚
百度 题目级原帖 + Agent 向面经 LangGraph / Agent / 运行时 / 工程追问比较强
小红书 题目级原帖可定位 开放式评测、RAG、应用落地问题较多
快手 题目级原帖可定位 embedding、对比学习、RAG、LoRA、Agent
美团 题目级原帖可定位 Prompt / RAG / GraphRAG / 成本 / SQL / AI coding
京东 题目级原帖可定位 中高 Transformer、量化、RAG 评测、应用开发
滴滴 题目级原帖可定位 中高 Agent workflow、GraphRAG、多 Agent
华为 AI 应用 / AI 软开类公开面经可定位 AI 开发向题目有,纯大模型算法题源仍偏少
拼多多 / 同程等 更多出现在汇总页与二级来源 中低 岗位热度在上升,但稳定可定位原帖仍偏少

一句话结论:按本轮公开样本看,“公开题目级证据”已经覆盖到多数核心厂的部分岗位,但还远没到“所有公司所有轮次所有题”这种程度。

注:这里的“高 / 中高 / 中 / 中低”只表示公开来源的可追溯性和稳定度,不是对题目本身真伪做百分之百背书,也不是对公司整体面试难度的评分。


四、按公司拆开的公开题目索引

4.1 字节跳动

来源

公开题目 / 追问

  • Transformer 和 Encoder-Decoder 的区别
  • Multi-Head Attention 与 Q / K / V
  • GPT 和 BERT 结构差异
  • 位置编码
  • QLoRA 原理与量化类型
  • 多个不同长度句子如何表示成同长度 embedding
  • 手写题:三角形最短路径和

这组题说明什么

  • 字节不只是问“会不会背 Transformer”,而是会把 结构 -> 微调 -> 表征 -> 手写 串起来
  • embedding 聚合 这类问题说明它会继续追到工程表示层,而不是停在概念层

4.2 阿里 / 淘天

来源

公开题目 / 追问

  • decoder 里的 mask 是什么
  • 预训练分几个阶段
  • RoPE
  • attention / FFN 细节
  • 分类 loss 怎么写
  • embeddings 怎么迁移到推荐场景
  • RLHF / DPO / PPO
  • 奖励模型有没有必要
  • Qwen 系列改进点
  • 最难的 RAG 是什么
  • 怎么做代码生成 evaluation
  • Agent / 函数调用
  • Text2SQL
  • 为什么 RAG 在金融场景很重要

这组题说明什么

  • 阿里系问题特别爱把 模型结构 -> 对齐训练 -> 场景迁移 -> 评测 连成一条链
  • 奖励模型是否必要代码生成如何评测金融场景为什么要 RAG 这类开放题很像真实业务追问

4.3 腾讯

来源

公开题目 / 追问

  • 大模型基础原理
  • 大模型训练过程
  • 多模态模型
  • Prompt Engineering
  • 如何解决大模型幻觉
  • 推理加速 / 推理优化
  • RAG 检索到季度财报,但 rerank 后少一季度,怎么处理
  • 怎样组织训练数据
  • LoRA / PEFT
  • 分层微调
  • 分布式训练

这组题说明什么

  • 腾讯公开题目里,线上异常排查实际训练组织 的味道很重
  • 像“财报 rerank 后少一季度”这种题,已经明显超出纯概念问答,更接近生产问题复盘

4.4 百度

来源

公开题目 / 追问

  • LangGraph 里的 Smart Retrieval
  • sync 64 张表 怎么同步
  • 批处理如何做
  • workflow 和 agents
  • 为什么有的 LLM 喜欢回答单个词
  • 缺页异常
  • 二叉树后序遍历非递归
  • 多 Agent 协作
  • 共享上下文 hash 冲突怎么办
  • 上下文压缩怎么做
  • 上下文存储怎么设计
  • 微调
  • 记忆机制
  • PPO / DPO / 奖励模型
  • 强化学习在后训练里的作用

这组题说明什么

  • 百度公开题源里,Agent 运行时、上下文管理、工作流编排的权重非常高
  • 按公开样本看,LangGraph多 Agent 共享上下文记忆机制 已经不算冷门追问,而是能直接出现在面经里的题

4.5 小红书

来源

公开题目 / 追问

  • 为什么想做 LLM 生成内容评测
  • 开放式 LLM 回答怎么评测
  • 如何提升评测质量
  • 评价方向为什么重要
  • vLLM 解决了什么问题
  • RAG 效果怎么优化
  • 让流式 ASR 成为 agent 的一个 tool,你会怎么设计
  • 数据集产品相关项目深挖
  • Prompt 怎么设计
  • llama2 和 qwen2.5
  • 如何搭建一个 RAG 系统

这组题说明什么

  • 按目前公开样本,小红书相关岗位里,开放式评测 已经是较常见的主问题之一
  • 同时它也会把 评测 / 应用架构 / tool 设计 / RAG 优化 连在一起问

4.6 快手

来源

公开题目 / 追问

  • embedding 模型怎么训练
  • BGE 用的是什么 loss
  • 对比学习里正负样本怎么构造
  • RAG、LoRA、FlashAttention
  • MHA 的公式
  • MoE
  • decoder-only 模型的注意力
  • 为什么想做 Agent
  • 智能体工具调用怎么设计
  • 大模型常见幻觉问题
  • Agent、MCP
  • 怎么做代码评测

这组题说明什么

  • 快手一类岗位会把 embedding / 检索 / 对比学习 / Agent 混着问
  • 这意味着“只会 LLM 主干,不会检索和表征”会很吃亏

4.7 美团

来源

公开题目 / 追问

  • Prompt、RAG、GraphRAG、Agent
  • 训练 / 推理 / 微调成本怎么压
  • CUDA
  • DeepSeek、MoE、GRPO
  • AI coding
  • SQL
  • 项目深挖
  • 多轮追问业务理解和产品判断

这组题说明什么

  • 美团的公开题目非常像“应用落地和产品化”的综合面
  • 既问技术,也问成本,也问指标,也问 SQL 和业务理解

4.8 京东

来源

公开题目 / 追问

  • transformer 系列问题
  • 为什么要预训练
  • causal mask
  • 为什么要除以 sqrt(dk)
  • softmax
  • BERT 怎么训练
  • int8 和 int4 推理
  • 精度损失怎么处理
  • RAG 怎么评测
  • PagedAttention
  • MoE
  • DeepSeek
  • 推理优化

这组题说明什么

  • 京东公开题目比较像“基础原理 + 工程优化 + 应用评测”的组合
  • 量化精度损失RAG 评测 同时出现,说明它并不只盯着理论

4.9 滴滴

来源

公开题目 / 追问

  • Agent 框架是什么
  • Agent 怎么做 loop
  • Prompt 怎么和 tools 配合
  • GraphRAG 相比普通 RAG 多了什么
  • 多 Agent 怎么设计
  • 在真实项目里遇到过什么问题
  • Transformer
  • DeepSpeed
  • MoE
  • 位置编码
  • 量化和剪枝

这组题说明什么

  • 滴滴公开题目一边问 Agent 工作流,一边问传统大模型工程
  • GraphRAG 已经进入应用开发向面经的公开样本,不再只是论文概念

4.10 华为

来源

公开题目 / 追问

  • AI 应用开发项目深挖
  • Python 八股
  • is== 的区别
  • PyTorch 计算图
  • 遇到的困难
  • 回溯类手写题
  • 多模态大模型训练方法
  • 跨模态对齐
  • 数据预处理
  • 推理加速

这组题说明什么

  • 华为公开题源目前更偏 AI 应用开发 / AI 软开 / 大模型工程
  • 纯“大模型算法岗”的稳定公开题目还不如百度、阿里、腾讯那样丰富,所以这里要明确写成“已拿到部分题目级信号”,而不是“已经齐全”

五、跨公司重复出现的公开高频题池

下面这些题,不是某一家独有,而是 2025-2026 公开面经里反复出现的“公共题池”。

5.1 模型结构与基础原理

  • GPT 和 BERT 的结构差异
  • Encoder-Decoder 和 decoder-only 的区别
  • attention 为什么要除以 sqrt(dk)
  • causal mask 是什么
  • RoPE 和传统位置编码的差别
  • MQA / GQA / MHA 的区别
  • FFN / SwiGLU / RMSNorm 的作用
  • MoE 为什么能提效,代价是什么

5.2 微调、后训练与对齐

  • LoRA / QLoRA 原理
  • 微调和预训练的区别
  • RLHF / PPO / DPO / GRPO 的关系
  • 奖励模型有没有必要
  • 后训练为什么难,常见失败模式是什么
  • 微调怎么避免灾难性遗忘和“复读机”

5.3 推理优化与系统工程

  • vLLM 解决了什么问题
  • PagedAttention 是什么
  • FlashAttention 原理
  • int8 / int4 推理怎么权衡
  • 量化后的精度损失怎么排
  • 推理服务怎么提升 GPU 利用率
  • 推理加速有哪些常见手段

5.4 RAG 与知识系统

  • 如何从零搭一个 RAG 系统
  • RAG 效果怎么优化
  • 最难的 RAG 是什么
  • RAG 怎么做评测
  • 为什么 RAG 在金融 / 财报 / 表格场景重要
  • rerank 之后丢关键信息怎么办
  • GraphRAG 相比普通 RAG 多了什么
  • 表格 / 数据集 / 多源知识如何接入检索链路

5.5 Agent 与工作流

  • workflow 和 agent 的区别
  • Agent loop 怎么设计
  • Prompt 如何和工具调用配合
  • streaming ASR 成为 agent tool 怎么设计
  • 多 Agent 怎么协作
  • 多 Agent 共享上下文冲突怎么办
  • 上下文压缩和记忆存储怎么做
  • LangGraph / MCP / 函数调用适合解决什么问题

5.6 评测与业务落地

  • 开放式内容怎么评测
  • 如何提升 LLM 评测质量
  • 代码生成怎么做 evaluation
  • 业务指标和模型指标如何打通
  • 数据集产品 / 评测平台 / 批处理链路怎么设计

5.7 项目深挖与基础编码

  • 项目里为什么这样设计
  • 数据怎么构造
  • 批处理怎么做
  • sync 多张表怎么做
  • 缺页异常
  • 二叉树后序遍历非递归
  • DP / 回溯 / SQL

如果把上面这组题准备透,通常已经能覆盖最近公开面经里相当一部分实战面问法。


六、哪些公司和方向目前仍然不够“题目级完整”

这部分需要明确说明边界。

截至 2026-03-28,本轮还没有拿到足够稳定、足够细、足够新的题目级公开来源的方向主要包括:

  • 拼多多大模型 / Agent 题目级原帖
  • 同程等次一级互联网厂的大模型题目级原帖
  • 部分手机厂 / 车厂的大模型算法岗题目级原帖
  • 某些厂的三面 / 终面 / HR 面的连续全流程记录

这并不代表它们没有在问这些题,而是代表:

  • 公开帖子更少
  • 搜索更分散
  • 更多只出现在二级总结、知乎文章、小红书讨论或博客转述中

所以本页的处理方式是:

  • 有原帖就写成题目清单
  • 没有原帖但有汇总,就写成趋势
  • 只有模糊传闻,就先不写

七、对当前题库的审核结论

如果现在问“站内求职面试题库全不全、有没有包含真实题目”,更准确的回答应该是:

结论 1:理论题库已经比较完整

  • 基础理论、微调、推理优化、RAG、Agent、系统设计、数学、机器学习、深度学习、CS 基础都已有覆盖

结论 2:真实题目以前有,但还不够细

  • 27 页解决了“最近都在问什么”
  • 28 页解决了“这些来源怎么分级”
  • 本页 29 解决的是“尽可能把公开题目级证据补细”

结论 3:现在可以说“公开题源维度比之前更完整了”,但不能说“所有大厂所有题都拿到了”

  • 这是最实事求是的表述
  • 也是后续继续维护时最不容易失真的表述

八、建议怎么用这页

  1. 先读 27-2025-2026大厂真实面经题型地图,抓住优先级
  2. 再用本页看“不同公司最近到底在问哪些具体问题”
  3. 对照 21-AI Agent与RAG面试专题22-大模型核心八股文09-推理优化面试题 等专题补答案
  4. 最后把这些题改写成你自己的 1 分钟版 / 3 分钟版 / 5 分钟项目版

这样通常更高效,也更接近真正面试时的答题方式。


九、公开来源索引

A 级:题目级原帖 / 直接来源

B 级:公开汇总页 / 话题页 / 跨公司索引

C 级:补趋势的中文平台来源


最后更新日期: 2026-04-03