LLM-REVIEW
search
⌘Ctrlk
GitBook Assistant
GitBook 助手
工作中...思考中...
GitBook Assistant
晚上好

我在这里帮助您了解文档。

⌘Ctrli
AI 基于您的上下文question-circle
LLM-REVIEW
  • 首页
  • 数学字典
  • 技术笔记
    • 基础知识
    • 架构综述
    • 注意力机制
    • KV Cache
    • KV 压缩
    • KV 驱逐
    • 推理与解码
    • 分布式系统
    • 推理框架
    • 服务与成本
    • LLM 系统设计
    • CUDA 与性能
    • 调试与排障
    • 评测与分析
    • 多模态
    • 训练与对齐
    • RL 基础设施
    • 代码 / 算法速查
    • Source Reading
    • System Design
    • Tools
    • 前沿追踪
    • 复现与复盘
    • Nano Projects
  • 代码实现
  • Notebook 与 HTML
  • 模拟面试
  • 学习路线
  • 评测与复盘
  • 测试
gitbook由 GitBook 提供支持
block-quote在本页chevron-down
  1. 技术笔记

架构综述

关注主流大模型在注意力、MoE、位置编码和混合架构上的设计差异。

  • Transformer 核心组件arrow-up-right

  • 位置编码方案对比arrow-up-right

  • LLaMA 3 架构分析arrow-up-right

  • DeepSeek-V3 架构拆解arrow-up-right

  • Mixtral MoE 架构arrow-up-right

  • MoE 训练策略arrow-up-right

  • SSM 混合架构arrow-up-right

上一页基础知识chevron-left下一页注意力机制chevron-right

最后更新于13天前