全球主流大模型的上下文长度和max output token,有output 8k,6k和12k的你敢信吗?
时间 :2025-01-20
作者 :
来源:
浏览 :
分类 :AI知识分享
全球主流大模型的上下文长度和maxoutputtoken序号模型名字厂家上下文长度maxoutputtoken备注1o1-mini及其变种模型openai128k4k2o1-preview及其变种模型openai128k4k3gpt-4o及其变种模型openai128k4k4gpt-4及其变种模型openai8-32k4k5gpt-4o-mini及其变种openai128k4k6claude-3.5及其变种openai200k4k7Moonshot-v1-32K月之暗面32k4kMoonshot-v1-128K月之暗面128k4k8deepseekv3深度求索64k8k9Doubao-pro字节跳动256k4k10Doubao-lite-32k字节跳动32k4k11Doubao-lite-128k字节跳动128k4k12GLM-4及其变种智谱华章8k4k13GLM-Zero-Preview智谱华章16k12k这个倒反天罡的模型,总长度才16k,输出就到了12k14GLM-4-Plus智谱华章128K4k15hunyuan-large-longcontext腾讯混元128k6k16hun
增加一个token的输出,算力是指数级的。不要小看,从4k output到8k output到成本指数级增加! |
全球主流大模型的上下文长度和max output token |
序号 | 模型名字 | 厂家 | 上下文长度 | max output token | 备注 |
1 | o1及其变种 | open | 200k | 100k | 最强模型,没有之一 |
2 | o1-mini及其变种模型 | | 128k | 64k |
|
3 | o1-preview及其变种模型 | openai | 128k | 32k |
|
4 | gpt-4o及其变种模型 | openai | 128k | 4k |
|
5 | gpt-4及其变种模型 | openai | 8-32k | 4k |
|
6 | gpt-4o-mini 及其变种 | openai | 128k | 4k |
|
7 | claude-3.5及其变种 | openai | 200k | 4k |
|
8 | Moonshot-v1-32K | 月之暗面 | 32k | 4k |
|
9 | Moonshot-v1-128K | 月之暗面 | 128k | 4k |
|
10 | deepseek v3 | 深度求索 | 64k | 8k |
|
11 | Doubao-pro | 字节跳动 | 256k | 4k |
|
12 | Doubao-lite-32k | 字节跳动 | 32k | 4k |
|
13 | Doubao-lite-128k | 字节跳动 | 128k | 4k |
|
14 | GLM-4及其变种 | 智谱华章 | 8k | 4k |
|
15 | GLM-Zero-Preview | 智谱华章 | 16k | 12k | 这个倒反天罡的模型,总长度才16k,输出就到了12k |
16 | GLM-4-Plus | 智谱华章 | 128K | 4k |
|
17 | hunyuan-large-longcontext | 腾讯混元 | 128k | 6k |
|
18 | hunyuan-large | 腾讯混元 | 28k | 4k |
|
19 | hunyuan-turbo及其变种 | 腾讯混元 | 28k | 4k |
|
20 | 通义千问-Turbo | 阿里巴巴 | 1000k | 4k |
|
21 | Qwen-Long | 阿里巴巴 | 1000k | 4k |
|
22 | 通义千问-Plus | 阿里巴巴 | 128k | 4k |
|
23 | 通义千问-Max | 阿里巴巴 | 32k | 2k |
|