打赏

相关文章

揭秘AHN黑科技:Qwen2.5轻松驾驭超长文本

揭秘AHN黑科技:Qwen2.5轻松驾驭超长文本 【免费下载链接】AHN-Mamba2-for-Qwen-2.5-Instruct-14B 项目地址: https://ai.gitcode.com/hf_mirrors/ByteDance-Seed/AHN-Mamba2-for-Qwen-2.5-Instruct-14B 导语:字节跳动最新发布的AHN(A…

GLM-Z1-9B:90亿参数开源小模型性能跃升

GLM-Z1-9B:90亿参数开源小模型性能跃升 【免费下载链接】GLM-4-9B-0414 项目地址: https://ai.gitcode.com/zai-org/GLM-4-9B-0414 导语:GLM系列最新推出的90亿参数开源模型GLM-Z1-9B-0414(简称GLM-Z1-9B)凭借深度强化学习…

Intern-S1-FP8:5万亿数据驱动的科学AI助手

Intern-S1-FP8:5万亿数据驱动的科学AI助手 【免费下载链接】Intern-S1-FP8 项目地址: https://ai.gitcode.com/InternLM/Intern-S1-FP8 导语: InternLM团队推出最新开源科学多模态模型Intern-S1-FP8,凭借5万亿 tokens 的海量训练数据…

腾讯混元开源翻译黑科技:33语互译WMT25狂揽30冠

腾讯混元开源翻译黑科技:33语互译WMT25狂揽30冠 【免费下载链接】Hunyuan-MT-Chimera-7B 腾讯混元Hunyuan-MT-Chimera-7B是业界首个开源翻译集成模型,支持33种语言互译(含5种中国少数民族语言)。在WMT25竞赛中,31个参赛…

Holo1.5-7B:让AI轻松操控电脑的开源神器

Holo1.5-7B:让AI轻松操控电脑的开源神器 【免费下载链接】Holo1.5-7B 项目地址: https://ai.gitcode.com/hf_mirrors/Hcompany/Holo1.5-7B 导语:H公司最新发布的Holo1.5-7B开源模型,以70亿参数规模实现了AI操控电脑的突破性进展&…

Magistral Small 1.1:24B参数推理效率新突破

Magistral Small 1.1:24B参数推理效率新突破 【免费下载链接】Magistral-Small-2507 项目地址: https://ai.gitcode.com/hf_mirrors/mistralai/Magistral-Small-2507 导语:Mistral AI推出Magistral Small 1.1模型,以24B参数实现高效推…

Google EmbeddingGemma:300M参数多语言嵌入新工具

Google EmbeddingGemma:300M参数多语言嵌入新工具 【免费下载链接】embeddinggemma-300m-qat-q4_0-unquantized 项目地址: https://ai.gitcode.com/hf_mirrors/unsloth/embeddinggemma-300m-qat-q4_0-unquantized 导语 Google DeepMind推出EmbeddingGemma&…

Magistral-Small-1.2:24B多模态推理模型升级指南

Magistral-Small-1.2:24B多模态推理模型升级指南 【免费下载链接】Magistral-Small-2509-FP8-Dynamic 项目地址: https://ai.gitcode.com/hf_mirrors/unsloth/Magistral-Small-2509-FP8-Dynamic 导语 Mistral AI推出Magistral-Small-1.2(24B参数…

手机版浏览

扫一扫体验

微信公众账号

微信扫一扫加关注

返回
顶部