huanzhijin LV
发表于 前天 08:09
今天,OpenAI正式发布了新一代大模型GPT-4.1,涵盖 GPT-4.1、GPT-4.1 mini 和 GPT-4.1 nano 三款子模型,所有版本均需通过 API 接口调用。
笔者在这里看到了几个重要的特性。其他特性,全网都介绍的非常清楚了。
- 长文本理解:GPT-4.1 系列支持 100 万个 token 的上下文窗口,是 GPT-4o 的 8 倍。在 Long Context Evals 长文本测试中,GPT-4.1 系列的三个模型均能够在语料库的任何深度找到目标文本,即使在长达 100 万 tokens 的上下文中,也能准确地定位目标。
- 多模态处理:在视频 MME 基准测试中,GPT 4.1 对 30 到 60 分钟无字幕视频进行理解并回答多项选择题,取得 72% 的成绩,达到当前最佳水平,在视频内容理解上实现重大突破。此外,相较于 GPT-4o,新模型在图像 - 语音 - 文本实时转换延迟降低 63%,尤其在医疗影像标注、工业图纸协同编辑等专业场景中表现突出。
- 价格香:GPT-4.1: 输入 $2.00 / 输出 $8.00 (每百万Token),官方称比GPT-4o的中位数查询成本低26%。GPT-4.1 mini: 输入 $0.40 / 输出 $1.60,在性能接近甚至超越GPT-4o的同时,成本和延迟大幅降低。GPT-4.1 nano: 输入 $0.10 / 输出 $0.40,成为OpenAI有史以来最便宜、最快速的模型,且同样支持1M上下文。
从我们的视角看,Open AI 为开发者和相关从业者提供,可靠且经济的基础设施。这就更缩小了比如google ,DS等开源模型以及需要部署的成本;考验大模型除了表现效果,技术参数;还有使用成本。 |
|