1月27日凌晨,阿里云通义开源支持100万Tokens上下文的Qwen2.5-1M模型,推出7B及14B两个尺寸,均在处理长文本任务中稳定超越GPT-4o-mini;同时开源推理框架,在处理百万级别长文本输入时可实现近7倍的提速。

百万Tokens长文本,可换算成10本长篇小说、150小时演讲稿或3万行代码。两个月前,Qwen2.5-Turbo升级了百万Tokens的上下文输入能力。如今,开源社区可基于全新的Qwen2.5-1M系列模型,进行长篇小说或多篇学术论文的解析,或是探索仓库级代码的分析和升级。