首页 · 快讯 · 正文

六大权威榜单开源冠军!通义代码模型开源2天下载量破25万

1115日消息,阿里云两天前开源的通义代码模型Qwen2.5-Coder,在Big Code Models、SAFIM、EvalPlus、BigCodeBench、Aider、TabbyML等六大权威榜单上取得了开源最佳成绩,最强开源代码大模型再次得到印证。据了解,Qwen2.5-Coder受全球开发者热捧,开源仅仅2天,模型下载量即突破25万,登上Hugging Face趋势榜榜首及Github趋势榜单。

Qwen2.5-Coder共开源6个主流模型尺寸,包含0.5B、1.5B、3B、7B、14B、32B等版本,每个尺寸都开源了Base和Instruct模型,所有版本模型都取得了同尺寸下的业界最佳性能效果。

在全面考察模型的代码生成能力的EvalPlus榜单上,Qwen2.5-Coder-32B-Instruct模型拿下开源第一名;在评估复杂编程任务能力的BigCodeBench排行榜上,32B-Instruct模型刷新开源模型最佳成绩;在考察代码修复能力的Aider大模型榜单中,32B-Instruct模型揽获开源冠军。

Qwen2.5-Coder-32B-Instruct拿下EvalPlus榜单上开源第一名

在全球主流AI大模型开源社区Hugging Face的Big Code Models Leaderboard榜上,通义开源代码模型在前五名里占据三席,32B-Instruct模型排名第一,32B-Base模型排名第二;32B-Base模型还拿下语法感知填空(SAFIM)排行榜总榜冠军,其代码修复及补全能力被认为是开源闭源所有模型的最佳。此外,在考察20B规模以下模型的TabbyML榜单中,Qwen2.5-Coder-14B取得了所有模型的第一。

Hugging Face的Big Code Models Leaderboard总榜冠军,Top5里通义占据3席

甫一发布,Qwen2.5-Coder就引爆了全球开源社区,32B-Instrcut模型直接登顶Hugging Face社区趋势榜单冠军,并登上Github趋势榜单,GitHub Star数直线飙升接近2000。据不完全统计,开源仅两日,Qwen2.5-Coder系列模型在魔搭社区ModelScopeHuggingFace、Ollama等平台下载量突破25万次,创造了专业模型开源的全球新纪录。

Qwen2.5-Coder-32B-Instrcut模型登顶Hugging Face社区趋势榜单

开源社区开发者们对Qwen2.5-Coder全系列开源赞不绝口,他们在各大平台上踊跃分享一手体验和感受,称赞32B-Instruct“神级表现”,“效果比GPT-4o、Claude Sonnet甚至o1都好!”,夸奖Qwen2.5-Coder是“带开发的神兵利器”、“改变了AI编程的游戏规则”。

开发者评论截图