ChatGPT是一个用户输入自然语言( Prompt:提示语 )问题,输出自然语言答案( Completion:结论)的搜索引擎。目前ChatGPT支持上百种自然语言的输入和输出,同时也支持几十种编程语言的输入和输出。
ChatGPT使用Unicode 编码来统一理解自然语言、代码、emoji表情。Unicode是一种字符编码标准,它给世界上几乎所有的字符都分配了一个唯一的数字标识。你可以把它看作是一本全球通用的字符字典,用来为不同语言、符号和表情等提供一个统一的编码方式。对于简体中文来说,根据Unicode编码方式的不同,一个汉字占用空间在一到四字节之间。
ChatGPT是使用Token来处理以及训练文本。Token是文本输入后经过Unicode编码转换,然后再经过BPF编码转换后的最小单位。BPE 是一种用于自然语言处理的子词标记化方法,可以将文本切分为一个个更小的可复用的单元或标记。通常1000个Token约等于750个英文单词或者400~500个汉字。也就是说1个汉字占用2个Token左右。
接下来,我们看下目前ChatGPT的对外API定价表:
GPT4定价
GPT3定价
从以上表格,我们可以得到以下信息:
gpt3.5的输入输出价格都是一致,一千个汉字大约需要 0.002(千Token单价) * 7.1(汇率) * 2 (一个汉字两个Token) = 0.0284元人民币
gpt4的输出价格是输入价格的两倍,gpt4-32k版本的价格是 gpt4-8k的两倍。对于gpt4-8k,一千个汉字大约需要 0.06(千Token单价) * 7.1(汇率) * 2 (一个汉字两个Token) = 0.852元人民币。对于gpt4-32k,一千个汉字大约需要 0.852(gpt4-8k一千个汉字价格) * 2 = 1.704元人民币。
gpt4-8k的价格是gpt3价格的 30 倍,gpt4-32k的价格是gpt3价格是60倍。使用体验最好的gpt4-32k的话,平均一次较为完整问题就需要两块钱。
从以上分析可以看出,目前人们基本实现gpt3.5自由,无法实现gpt4自由。但是如果你购买了ChatGPT Plus的20美刀月订阅会员,你每隔三个小时可以使用25次gpt4-8k,一天算12个小时的有效使用时间,可以使用 25 * 4 = 100次问答。可以看出OpenAI对于自己的ChatGPT的定价是比对外API的定价便宜很多。也可以看出OpenAI不希望其他企业在ChatGPT这个领域跟自己竞争,希望其他企业利用gpt4的能力赋能各行各业。对于企业来说,gpt3肯定是不满足要求的,但是高昂的gpt4成本,会让很多企业谨慎购买企业API服务。
为什么gpt4的服务这么贵?高端GPU的紧缺。目前OpenAI主要使用的是微软Azure的云服务,微软主要采购的是nvidia(英伟达)的GPU。当前(2023年6月),英伟达的GPU供不应求。有能力提供类似英伟达GPU算力的供应商目前只有英伟达一家,英伟达差不多垄断了高端GPU的80%市场。因为美国对中国高级GPU的禁令,英伟达只能向中国供货阉割版的A800 GPU,在缺少中国各大厂商的强劲购买力下,GPU还是无法满足美国本土大厂的要求。
高端GPU紧缺导致gpt4的价格居高不下,限制了OpenAI的能力赋能各行各业。回顾历史,如果有10%的利润,资本就会保证到处被使用;有20%的利润,资本就能活跃起来;有50%的利润,资本就会铤而走险;为了100%的利润,资本就敢践踏一切人间法律。有巨大利润就会有无数的人盯着,老牌GPU厂商(AMD之类)、互联网大厂(谷歌、微软、亚马逊)一定会铆足马力研发对标英伟达GPU的产品。
所以,当前的gpt4高价格不会维持多久,半年时间就会发生很多变化。明年(2024年)初,随着GPU的供应以及算力提升,gpt4的价格肯定会有一个很大的下降。黄仁勋(英伟达总裁)仿照CPU发展的摩尔定律,提出了”黄氏定律“: GPU将推动AI性能实现逐年翻倍。相信GPU也将像CPU发展的黄金50年一样,迎来发展黄金时代。人工智能在GPU的进步下,也将带领全人类迈入人工智能的新时代。
免责声明
本文内容(图片、文章)翻译/转载自国内外资讯/自媒体平台。文中内容不代表本站立场,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除。