中文平台大厂面经深挖与真实性分级表¶
⚠️ 核验说明(2026-04-03):本页做的是“中文公开平台可追溯面经证据的尽可能深挖”,不是声称拿到了所有公司的全部保密真题。凡是题目级证据不够稳定的内容,统一降级为
B汇总或C趋势,不硬写成“某厂原题”。📎 配套阅读: - 27-2025-2026大厂真实面经题型地图 - 28-题目真实性与来源维护说明 - 29-2025-2026大厂公开面经题目全量索引
一、这页解决什么问题¶
上一页 29 的重点,是把公开互联网里已经拿到的题目级内容尽量铺开。
这一页 30 单独解决两个更细的问题:
- 专门按中文平台拆开看
- 重点扫:
牛客 / 知乎 / 小红书 / 脉脉 / B站 / 抖音 - 重点公司:
字节 / 腾讯 / 阿里 - 给新增题目逐条打真实性等级
A原帖:公开原帖、题目级可追溯B汇总:公开汇总、可辅助判断但不是最佳原始证据C趋势:平台热议、短视频/弱证据、只能当趋势补充
一句话结论先放前面:
- 牛客 仍然是中文平台里最稳定的
A原帖主要来源 - 知乎 更适合做
B汇总 - 抖音 偶尔能搜到带题目摘要的公开笔记,但整体仍应按
C趋势处理 - 小红书 / B站 / 脉脉 这轮公开检索拿到的稳定题目级证据少于牛客,不应该为了“平台全覆盖”强行抬级
二、本轮检索方法与判级标准¶
2.1 检索范围¶
- 检索日期:
2026-03-28 - 公司重点:字节、腾讯、阿里
- 平台重点:牛客、知乎、小红书、脉脉、B站、抖音
- 方法参考:延续仓库前几页的公开题源核验口径,并借鉴
C:\Users\Yanzh\Desktop\openclaw那套“中文平台分开看、证据分层看”的研究思路
2.2 真实性等级定义¶
| 级别 | 含义 | 进入标准 | 用法 |
|---|---|---|---|
A原帖 | 最高等级公开证据 | 公开原帖能定位到公司/岗位/轮次/时间,且能提炼具体题目 | 可直接进入题目清单 |
B汇总 | 次强证据 | 公开汇总帖、话题页、长文总结,能辅助确认高频题簇 | 用来补充方向与追问 |
C趋势 | 弱证据/趋势 | 短视频、弱可追溯笔记、平台热议、搜索摘要级线索 | 只用于判断“最近在升温什么” |
2.3 一个很重要的原则¶
同一题目如果同时出现 A / B / C 三级证据,最终按“最高等级证据”记。
比如:
Transformer / 位置编码 / QLoRA在字节牛客原帖里能看到,就记为A原帖- 同一题如果在知乎总结文里又出现,只能作为补充,不会把它从 A 降成 B
三、中文平台审核总表¶
| 平台 | 公开检索稳定性 | 题目级证据密度 | 本轮可用等级 | 最适合做什么 | 审核结论 |
|---|---|---|---|---|---|
| 牛客 | 高 | 高 | A原帖 / B汇总 | 找公司级、岗位级、轮次级原帖 | 本轮核心证据源 |
| 知乎 | 中 | 中 | B汇总 | 看长文总结、跨公司考点归纳 | 可补题簇,不宜单独冒充原帖 |
| 小红书 | 低到中 | 低 | C趋势 | 看讨论热度、面试体验、HR/流程感知 | 公开检索不稳定,直接题目证据偏少 |
| 脉脉 | 低 | 很低 | C趋势 或不纳入 | 看职场讨论和传闻线索 | 本轮未拿到稳定可复用公开题目页 |
| B站 | 中 | 低 | C趋势 | 看经验分享视频、方向热度 | 搜到的大多是模型新闻/产品视频,不是面试题 |
| 抖音 | 中 | 低到中 | C趋势 | 看短视频/笔记里的题目摘要和趋势 | 有少量题目摘要,但仍不适合抬到 A/B |
3.1 各平台代表性公开证据¶
- 牛客
- 字节大模型二面面经
- 腾讯-混元大模型面经
- 阿里大模型二面
- 知乎
- 说说我面试字节大模型算法工程师经历(包含面试真题)
- 阿里大模型算法工程师面试,被问麻了
- 24 家国内大模型面经及考点总结
- 抖音
- 面试字节大模型,RAG 面被问麻了
- 字节跳动模型评估实习生面试题
- 小红书 / 脉脉 / B站
- 本轮没有拿到足够稳定、足够细、足够公开的题目级链接,故只在“平台结论”里保留,不强行列成题目证据
四、重点公司深挖结论¶
4.1 字节:在本轮公开样本里,A 级原帖相对更丰富,RAG / 评测 / 微调 / 位置编码都比较实¶
公开高频题簇¶
- Transformer、Encoder-Decoder、GPT vs BERT
- 位置编码、RoPE、超长文本推理
- QLoRA、RLHF、模型评估
- RAG 数据处理、embedding、召回准确率、对比解码
- 项目深挖 + 手写题
字节真实性分级表¶
| 题目 / 题簇 | 平台 | 级别 | 证据链接 | 判定说明 |
|---|---|---|---|---|
| Transformer、Encoder-Decoder、QKV、GPT vs BERT、位置编码、QLoRA | 牛客 | A原帖 | 字节大模型二面面经 | 原帖直接列出题目,且有岗位与时间 |
| 多个不同长度句子如何转同长度 embedding;词向量如何表示句子 | 牛客 | A原帖 | 字节大模型二面面经 | 明确的场景题,不是泛泛八股 |
| RAG 数据处理、embedding 模型、RAG 优化、召回准确率、QLoRA 微调 | 牛客 | A原帖 | 字节大模型一面面经 | 直接可定位到大模型一面 |
| rerank、对比解码、LLaMA vs BERT、最长不重复子串 | 牛客 | A原帖 | 字节飞书大模型应用算法一面面经 | 题目与项目追问同时出现 |
| RoPE 变体、Sparse Attention、超长文本推理 | 牛客 | A原帖 | 字节大模型一面面经 | 题目颗粒度足够细,可定位 |
| RLHF 流程、LLM 评估指标、模型评估方式 | 牛客 | A原帖 | 字节大模型二面面经(持续记录) | 直接是面试题,不是转述摘要 |
| Transformer 基础、字节大模型算法实习问题整理 | 知乎 | B汇总 | 知乎:说说我面试字节大模型算法工程师经历 | 长文总结,适合补题簇,不如牛客原帖强 |
| RAG 相关问题正在被频繁追问 | 抖音 | C趋势 | 抖音:面试字节大模型,RAG 面被问麻了 | 公开可见,但更像短内容摘要,适合看趋势 |
| 模型评估、反馈机制、线上观测、过拟合识别 | 抖音 | C趋势 | 抖音:字节跳动模型评估实习生面试题 | 有题目清单,但稳定性和上下文不如 A 级 |
结论¶
字节这一组,可以较稳妥地观察到:
Transformer / 位置编码 / RAG / QLoRA / 评测都有 A 级公开原帖- 抖音上也能看到一些题目摘要,但目前更稳定的主要证据仍然还是牛客
4.2 腾讯:混元 / 对齐 / RLHF / DeepSpeed / 显存估算这条线较集中¶
公开高频题簇¶
- Qwen vs DeepSeek、MoE vs Dense
- LoRA vs 全量微调
- 大模型训练与推理流程
- SFT、RLHF、PPO、DPO、GRPO
DeepSpeed ZeRO-1/2/3、显存估算- 数据构造、数据清洗、数据配比
- 多头自注意力、括号生成、零钱兑换等编码题
腾讯真实性分级表¶
| 题目 / 题簇 | 平台 | 级别 | 证据链接 | 判定说明 |
|---|---|---|---|---|
| 大模型基础原理、训练过程、多模态、Prompt Engineering、幻觉治理、推理优化 | 牛客 | A原帖 | 腾讯大模型一二面面经 | 公司、岗位、轮次、题目都可定位 |
| RAG 检索季度财报但 rerank 后少一季度,怎么处理 | 牛客 | A原帖 | 腾讯大模型一二面面经 | 非常典型的真实业务追问 |
| Qwen vs DeepSeek、MoE vs Dense、LoRA vs full finetune、训练/推理流程、SFT vs RLHF | 牛客 | A原帖 | 腾讯-混元大模型面经 | 题目细节完整,属于原帖级别 |
| PPO / DPO / GRPO、多头自注意力、括号生成 | 牛客 | A原帖 | 腾讯-混元大模型面经 | 直接列到具体算法与代码题 |
DeepSpeed ZeRO-1/2/3、Qwen2-72B 显存估算、LoRA 初始化 | 牛客 | A原帖 | 腾讯-混元大模型面经 | 颗粒度很细,明显是实战面试题 |
| 数据构造、数据清洗、数据配比、SFT 之后为什么还要 RLHF、GRPO 相对 PPO 的改进 | 牛客 | A原帖 | 腾讯-混元大模型面经 | 三面信息足够完整,证据强 |
| 腾讯大模型技术研究 / 自然语言处理方向公开面经整理 | 牛客 | B汇总 | 腾讯大模型技术研究-自然语言处理(公开面经) | 属于公开汇总页,可补题簇但不如单条原帖强 |
| 多头注意力、Norm、并行训练、FlashAttention、数据配比、评测 | 知乎 | B汇总 | 知乎:24 家国内大模型面经及考点总结 | 更适合补腾讯这类“框架/训练”高频簇 |
结论¶
腾讯这一组的公开证据非常清楚:
- 混元 / 对齐 / RLHF / DeepSpeed / 显存估算 是近期公开样本里较集中的面试主线
- 即便不看任何二手博客,只看牛客公开原帖,也足以支持本轮判断
4.3 阿里:Qwen / RAG / 对齐 / 评测 / 场景落地题在公开样本里较密集¶
公开高频题簇¶
- decoder mask、RoPE、attention / FFN
- Qwen 结构、Qwen vs LLaMA / DeepSeek
- RLHF / DPO / PPO / 奖励模型
- RAG hardest part、对比解码、文档问答
- Agent / function calling、Text2SQL、代码评测
- 金融场景、推荐场景、项目落地追问
阿里真实性分级表¶
| 题目 / 题簇 | 平台 | 级别 | 证据链接 | 判定说明 |
|---|---|---|---|---|
| decoder mask、预训练阶段、RoPE、attention / FFN、分类 loss | 牛客 | A原帖 | 阿里大模型二面 | 原帖直接可见,题目级证据很强 |
| embeddings 迁移到推荐场景、RLHF / DPO / PPO、奖励模型有没有必要 | 牛客 | A原帖 | 阿里大模型二面 | 典型开放式实战追问 |
| Qwen 改进点、最难的 RAG、代码生成 evaluation、Agent / 函数调用、Text2SQL、金融 RAG | 牛客 | A原帖 | 大模型应用开发面经(含阿里) | 多家公司交叉原帖,但阿里侧问题明确 |
| 通义实验室文档问答 / RAG 项目、红包算法手写 | 牛客 | A原帖 | 阿里通义实验室 NLP 算法实习一面 | 轮次和问题可定位 |
| LoRA 微调原理、对比解码细节、RAG 项目深挖 | 牛客 | A原帖 | 阿里通义实验室 NLP 算法实习二面 | 题目比汇总帖更细,属于原帖 |
| 通义实验室暑期实习里的算法/工程题 | 牛客 | A原帖 | 阿里通义实验室暑期实习面试实录 | 虽偏工程,但是真实原帖 |
| 阿里系大模型高频问题统计 | 牛客 | B汇总 | 阿里系大模型面试高频问题统计 | 用来补“阿里常见追问方向”很合适 |
| 阿里大模型算法工程师面试,被问麻了 | 知乎 | B汇总 | 知乎:阿里大模型算法工程师面试,被问麻了 | 有参考价值,但仍按 B 处理更稳妥 |
| 通义 / Qwen / RAG / Agent / 对齐在跨公司总结中的高频出现 | 知乎 | B汇总 | 知乎:24 家国内大模型面经及考点总结 | 更适合做高频簇校验 |
结论¶
阿里这一组的特点相对明显:
- 不只问基础结构,更爱问 RAG / 对齐 / 评测 / 场景落地
Qwen、奖励模型、Text2SQL、代码评测、金融场景 RAG都已经在公开证据里出现过
五、这轮没有强行纳入题库主证据的平台与原因¶
5.1 小红书¶
本轮确实重点搜了小红书,但公开可复用证据不够强,主要问题有:
- 公开搜索结果不稳定
- 很多笔记需要登录后才能稳定展开
- 即便搜到,也往往是“面试感受 / HR 流程 / offer 对比”,不一定有完整题目
所以本轮对小红书的处理是:
- 承认它对趋势判断有价值
- 但不把它抬成 A/B 主证据
能公开稳定定位到的相关旁证,更多还是牛客原帖对小红书讨论的反向引用,例如:
5.2 脉脉¶
本轮对 site:maimai.cn + 公司 + 大模型 + 面试 做了单独检索,但结果非常弱:
- 没拿到足够稳定的公开题目页
- 没拿到适合长期维护的可复用链接
所以本轮结论非常明确:
- 脉脉可以继续关注
- 但截至 2026-03-28,不适合作为本站题库主证据源
5.3 B站¶
本轮搜到的 B 站结果,大多是:
- 模型发布
- 产品体验
- 行业新闻
- 泛面试经验视频
而不是“公司/岗位/轮次/题目齐全”的题目级证据。
因此 B 站目前更适合做:
- 行业热度观察
- 某些主题的学习补充
不适合承担“真实题目原帖库”的角色。
5.4 抖音¶
抖音比 B 站略好一点,因为偶尔能搜到直接带题目摘要的公开笔记,例如:
但总体上仍存在:
- 上下文不完整
- 视频/笔记内容较短
- 稳定可读性不如牛客
所以仍然统一按 C趋势 处理。
六、把三家公司合起来看,最近最像“公开样本高频”的题簇是什么¶
如果只看这轮中文平台深挖里证据等级最高的部分,2025-2026 公开面经高频题簇大致可以收敛成下面几组:
6.1 模型结构¶
- Transformer、Encoder-Decoder、decoder-only
- GPT / BERT / LLaMA / Qwen 差异
- QKV、MHA / GQA、位置编码、RoPE
6.2 微调与后训练¶
- LoRA / QLoRA
- SFT、RLHF、PPO、DPO、GRPO
- 奖励模型有没有必要
- 为什么 SFT 后还要做 RLHF
6.3 RAG 与应用工程¶
- RAG 数据处理
- embedding、召回准确率、rerank
- 对比解码、GraphRAG、财报/表格场景
- 文档问答、Text2SQL、金融场景
6.4 评测与业务落地¶
- LLM 如何评测
- 开放式回答如何评测
- 代码生成 evaluation
- 线上反馈与效果观测
6.5 工程细节¶
DeepSpeed ZeRO-1/2/3- 显存估算
- 推理优化
- 手写题 / 算法题 / SQL
七、本轮审核后的最终判断¶
结论 1:中文平台里,牛客仍然最值得优先投入时间¶
如果目标是“尽可能接近真实公开面经题目”,优先级应该是:
- 牛客
- 知乎
- 抖音
- 小红书 / B站 / 脉脉
结论 2:字节 / 腾讯 / 阿里这三家,目前能拿到一批较稳定的 A 级公开题目证据¶
尤其是:
- 字节:RAG / 评测 / 位置编码 / QLoRA
- 腾讯:混元 / 对齐 / RLHF / DeepSpeed / 显存估算
- 阿里:Qwen / RAG / 对齐 / 场景落地 / 评测
结论 3:不能把“平台都有讨论”误写成“所有平台都有原帖”¶
这点需要明确说明:
- 小红书、脉脉、B站本轮都没有提供与牛客同等级别的稳定题目证据
- 它们更适合做趋势信号,而不是题库主骨架
八、建议怎么使用这页¶
- 先看本页平台结论,知道该把时间花在哪些平台
- 再按公司看
A原帖,把字节 / 腾讯 / 阿里的题簇整理成自己的答案 - 然后用
B汇总看有没有漏掉的追问方向 - 最后只把
C趋势当“预警雷达”,不要当标准答案
这样准备,最不容易被平台噪声带偏。
最后更新日期: 2026-04-03