张卿
2025-09-11
985
27
0
不同垂直行业对大模型的期待并不一样,有的重逻辑推理,有的重时序预测,还有的重多模态理解;这篇文章继续整理法律、能源、农业和文旅四个方向的选型建议。
张卿
2025-09-10
522
29
0
真正决定模型价值的不是榜单排名,而是它在具体行业里能不能解决真实问题;这篇文章先整理金融、医疗、制造和教育四个方向的选型建议。
张卿
2025-09-09
661
26
0
选型从来不是“谁最强就用谁”,而是要把任务目标、算力条件、部署方式和安全要求一起放进决策里;这篇文章先整理三类最核心的选型维度。
张卿
2025-09-08
790
27
0
如果说开源模型更强调生态和可控性,那么闭源模型通常更强调产品化、服务能力和商业闭环;这篇文章把笔记中提到的主流闭源模型集中整理,方便快速对比。
张卿
2025-09-07
737
19
0
这篇文章把当前笔记里提到的主流开源大模型整理成一篇独立文章,方便先快速建立“谁在做、各自擅长什么、适合哪些场景”的整体认知。
张卿
2025-09-06
614
10
0
GPU 对大模型的重要性,归根结底在于它更适合大规模并行矩阵运算,能够同时满足算力、显存带宽和浮点运算效率这三类需求。
张卿
2025-09-05
808
11
0
大模型并不是把知识像数据库那样存起来,而是把统计规律编码进参数里;因此理解训练数据、调用流程和后处理过程,是理解模型能力边界的关键。
张卿
2025-09-04
574
10
0
如果把 Transformer 看成一套流水线,那么编码器负责理解输入,解码器负责逐步生成输出,而两者之间通过注意力机制完成信息对齐。
张卿
2025-09-03
996
20
0
Transformer 之所以成为大模型的核心架构,关键在于它用自注意力解决了传统序列模型难并行、难建模长距离依赖的问题。
张卿
2025-09-02
823
16
0
理解大模型参数,关键不是死记一个数字,而是先建立“参数规模决定模型容量与能力边界”的直觉,再去看不同模型的大致量级。