相关文章
MarkDown基本语法之我的第一篇博客
一级标题
二级标题
三级标题
(#加空格表示标题,一个# 代表一级标题,两个#代表二级标题依此类推)
字体
Hello,World! (两个* *把字体包起来表示加粗)
Hello,World! (两个* 把字体包起来表示斜体)
Hello,Wor…
建站知识
2026/3/1 23:31:38
小递查查:一键智查快递,全场景物流管理效率革命
在电商爆发、物流高频的今天,快递查询与管理早已不是简单的“查个单号”,而是贯穿个人生活、电商经营、企业运转的核心效率环节。从网购达人的日常收寄,到电商卖家的千单管理,从企业行政的批量对账,到微商团队的售…
建站知识
2026/3/1 23:31:38
扩展中国剩余定理 ExCRT 总结
求解类似于下图的问题求法 数学归纳法实现 ExCRT
设前 \(k - 1\) 个方程的最小非负整数解为 \(x_0\),前 \(k - 1\) 个方程的模数的 \(\operatorname{lcm}\) 为 \(M\),则其通解为 \(X = x_0 + Mt\)。
对于第 \(k\) 个…
建站知识
2026/3/1 23:31:38
2.1 自注意力、位置编码与前馈网络:Transformer 三件套一次搞懂
2.1 自注意力、位置编码与前馈网络:Transformer 三件套一次搞懂 基于《大规模语言模型:从理论到实践(第2版)》第2章 大语言模型基础 爆款小标题:面试必考的 Transformer 核心,原书公式与直觉对照版 为什么这一节重要
Transformer 是现代大语言模型的骨架,而自注意力(S…
建站知识
2026/3/1 23:31:38
2.2 GPT、LLaMA 与 MOE:自回归模型与混合专家架构演进
2.2 GPT、LLaMA 与 MOE:自回归模型与混合专家架构演进基于《大规模语言模型:从理论到实践(第2版)》第2章 大语言模型基础爆款小标题:从 GPT 到 LLaMA 到 MOE,主流架构差异与选型一张表搞定为什么这一节重要…
建站知识
2026/3/1 23:31:38
1.1 大模型不是「大一点的 BERT」:定义、边界与能力从哪来
1.1 大模型不是「大一点的 BERT」:定义、边界与能力从哪来 基于《大规模语言模型:从理论到实践(第2版)》第1章 绪论 爆款小标题:搞懂 LLM 的三大定义与能力边界,面试和选型不再懵 为什么这一节重要
无论是面试、技术选型还是和产品经理对齐需求,第一个要回答的问题往往…
建站知识
2026/3/1 23:31:38

