界面新闻记者 | 伍洋宇
界面新闻编辑 | 文姝琪
“小模型”战况突然变得激烈起来,无法做到便宜又好用的公司恐怕要掉队了。
7月19日,OpenAI突然官宣并上线了一款“小模型”GPT-4o mini,被团队描述为最智能、最实惠的模型,其性能和价格均已赶超GPT-3.5 Turbo。
作为直观对比,GPT-4o mini输入价格为15美分/百万Tokens,输出价格为60美分/百万Tokens。而曾被视为OpenAI内部最轻量级且高性价比的GPT-3.5 Turbo,其输入价格为50美分/百万Tokens,输出价格为150美分/百万Tokens。
至此,OpenAI“小模型”API价格再降至少60%。
性能方面,该模型支持128K上下文输入以及16K输出。OpenAI的基准测试显示,除了GPT-3.5 Turbo,它的性能还超过了Claude 3 Haiku和Gemini 1.5 Flash这两种之前最便宜、最好的模型。
GPT-4o mini的高性能来源于GPT-4o,这是OpenAI目前最快、最强大的旗舰大模型。OpenAI在5月的一次直播活动中发布了GPT-4o,“o”代表omni(全能的),寓意了该模型对多模态的注重。彼时,团队表示GPT-4o对音频、视频和文本等多模态理解与生成功能进行了改进,能够以更高的速度和质量处理50种不同的语言。
目前,GPT-4o mini API接口已开放,支持文本和视觉,未来还将融入文本、图像、视频和音频的输入和输出。它将于当地时间周四向ChatGPT的免费用户、ChatGPT Plus和团队订阅者开放,ChatGPT企业用户将于下周开放。
GPT-4o mini发布后,山姆·奥特曼在推特上发文为自家产品站台,“通往智能的成本,便宜到不值得计量。”他概括了GPT-4o mini最直观的特点:便宜的价格,MMLU(Massive Multitask Language Understanding/大规模多任务语言理解)得分82%,性能超快。
山姆几乎不遗余力强调这一点。他在另一条推文中写道,早在2022年,世界上最好的模型是text-davinci-003,它比GPT-4o mini差得多,但成本要贵上100多倍。
性能提升与成本下降正是OpenAI在当前研发进展中所强调的。公司在一份新闻稿中表示,“在过去的几年里,我们见证了人工智能的显著进步,同时也见证了成本的大幅降低。我们致力于在提高模型性能的同时继续降低成本。”
公司设想未来,模型将无缝集成到每个应用程序和每个网站上。以GPT-4o mini为代表的“小模型”将为开发人员更高效、更经济地构建和扩展强大的AI应用铺平道路。“人工智能的未来将变得更容易获得、更可靠,并嵌入到我们的日常数字体验中。”
通过提效降本促进大模型服务普及,已经成为大模型公司的共识。
今年上半年以来国内掀起的API价格战正是这个趋势的缩影。而除了大模型推理成本的逐年自然下降,以压缩和蒸馏等技术思路做“小模型”也是其中一个重要方向,海外的Mistral AI以及国内的DeepSeek、面壁智能都有相应成果产出。
这一方面是为了推动开发者先用起来,另一方面也是落地端侧设备的必要历程。在这一点上,三星和苹果两大厂商已经在今年显示出了野心,智能硬件或将成为大模型最好的落地场景之一。
这意味着,在下一阶段,通用大模型公司不仅要按照Scaling Law(规模法则)继续推进大模型的智能提升,更要掌握把模型做小的能力,以覆盖更多用户和应用场景。这又将是另一个能力维度的极限较量。