相关文章
Qwen2.5-7B响应慢?注意力头数调优部署实战解决方案
Qwen2.5-7B响应慢?注意力头数调优部署实战解决方案 1. 问题背景与技术挑战
1.1 Qwen2.5-7B 模型简介
Qwen2.5 是阿里云最新发布的大型语言模型系列,覆盖从 0.5B 到 720B 参数的多个版本。其中 Qwen2.5-7B 是一个具备高性价比和广泛适用性的中等规模模型…
建站知识
2026/1/10 4:29:22
GLM-4.5V-FP8开源:轻松掌握多模态视觉推理
GLM-4.5V-FP8开源:轻松掌握多模态视觉推理 【免费下载链接】GLM-4.5V-FP8 项目地址: https://ai.gitcode.com/zai-org/GLM-4.5V-FP8
导语
智谱AI正式开源GLM-4.5V-FP8多模态大模型,以高效部署特性和强大视觉推理能力,为开发者提供探…
建站知识
2026/1/10 4:29:22
揭秘AHN黑科技:Qwen2.5轻松驾驭超长文本
揭秘AHN黑科技:Qwen2.5轻松驾驭超长文本 【免费下载链接】AHN-Mamba2-for-Qwen-2.5-Instruct-14B 项目地址: https://ai.gitcode.com/hf_mirrors/ByteDance-Seed/AHN-Mamba2-for-Qwen-2.5-Instruct-14B
导语:字节跳动最新发布的AHN(A…
建站知识
2026/1/11 7:34:39
GLM-Z1-9B:90亿参数开源小模型性能跃升
GLM-Z1-9B:90亿参数开源小模型性能跃升 【免费下载链接】GLM-4-9B-0414 项目地址: https://ai.gitcode.com/zai-org/GLM-4-9B-0414
导语:GLM系列最新推出的90亿参数开源模型GLM-Z1-9B-0414(简称GLM-Z1-9B)凭借深度强化学习…
建站知识
2026/1/10 4:19:22
Intern-S1-FP8:5万亿数据驱动的科学AI助手
Intern-S1-FP8:5万亿数据驱动的科学AI助手 【免费下载链接】Intern-S1-FP8 项目地址: https://ai.gitcode.com/InternLM/Intern-S1-FP8
导语: InternLM团队推出最新开源科学多模态模型Intern-S1-FP8,凭借5万亿 tokens 的海量训练数据…
建站知识
2026/1/10 4:19:22
腾讯混元开源翻译黑科技:33语互译WMT25狂揽30冠
腾讯混元开源翻译黑科技:33语互译WMT25狂揽30冠 【免费下载链接】Hunyuan-MT-Chimera-7B 腾讯混元Hunyuan-MT-Chimera-7B是业界首个开源翻译集成模型,支持33种语言互译(含5种中国少数民族语言)。在WMT25竞赛中,31个参赛…
建站知识
2026/1/10 4:19:22
Holo1.5-7B:让AI轻松操控电脑的开源神器
Holo1.5-7B:让AI轻松操控电脑的开源神器 【免费下载链接】Holo1.5-7B 项目地址: https://ai.gitcode.com/hf_mirrors/Hcompany/Holo1.5-7B
导语:H公司最新发布的Holo1.5-7B开源模型,以70亿参数规模实现了AI操控电脑的突破性进展&…
建站知识
2026/1/10 4:19:22
Magistral Small 1.1:24B参数推理效率新突破
Magistral Small 1.1:24B参数推理效率新突破 【免费下载链接】Magistral-Small-2507 项目地址: https://ai.gitcode.com/hf_mirrors/mistralai/Magistral-Small-2507
导语:Mistral AI推出Magistral Small 1.1模型,以24B参数实现高效推…
建站知识
2026/1/10 4:19:22

