ChatGPT 凌晨重磅更新!新增函数调用,4 倍上下文长度,还更便宜了。
ChatGPT 突然更新!
-
在 Chat Completions API 中增加了新的函数调用能力
-
更新了 GPT-4 和 GPT-3.5-Turbo 版本,可操控性更强
-
为 GPT-3.5-Turbo 增加了 16k 的上下文长度
-
嵌入模型成本降低 75%
-
GPT-3.5-Turbo 的输入 token 成本降低 25%
-
公布了 GPT-3.5-Turbo-0301 和 GPT-4-0314 模型的淘汰时间表
其中备受关注的应该就是新的函数调用能力,GPT-4 和 GPT-3.5-Turbo 两个模型的升级,以及各种降成本。
对此,推特网友「宝玉」表示,OpenAI 这次更新的函数调用功能,本质上是让 API 直接支持了 Agent 或者 Plugin。
函数调用
现在,开发者现在可以向 GPT-4-0613 和 GPT-3.5-turbo-0613 描述函数,并让模型智能地选择输出包含调用这些函数的参数的 JSON 对象。
这是一种更可靠地将 GPT 的功能与外部工具和 API 相连的新方法。
这些模型已经过微调,既能检测到何时需要调用函数,又能用符合函数签名的 JSON 来进行响应。
函数调用允许开发者更可靠地从模型中获得结构化的数据。
比如,开发者可以创建一个聊天机器人,通过调用外部工具来回答问题。
具体来说,可以将诸如「给 Anya 发邮件,看她下周五是否想喝咖啡」这样的查询转换为 send_email 这样的函数调用。
或者将「波士顿的天气如何?」转换为 get_current_weather 。
此外,开发者还能将自然语言转换为 API 调用或者数据库查询。
比如,将「谁是我这个月的十大客户?」转换为内部 API 调用,即为:get_customers_by_revenue 。
又或者把「Acme, Inc.上个月有多少订单?」转换成 SQL 查询,即为:sql_query 。
此外,还允许开发者从文本中提取结构化数据。
只需定义一个名为 extract_people_data 的函数,就能提取维基百科文章中提到的所有人物。
以前用户需要在 Prompt 里加一堆描述才能支持 Agent,而现在就简单多了,只要在 API 请求的时候,传入一个 functions 参数即可。
functions 参数实际上就类似于用户要指定的 Agent。
注意,这里可以是不止一个 function,function 是一个对象,还可以加上名称、描述(description)、参数(parameters)等等。
然后,返回的结果就包含了如下结构化的内容:
function_call:调用的函数名,和用户传入的函数名称一致
arguments:JSON 格式的参数值,包含了用户调用函数需要的参数名称和值。
比如说:
"function_call": "name": "get_current_weather", "arguments": " "location": "Boston, MA""
国外网友表示,function 最大的价值就是解决了 GPT 返回数据结构化的问题,不再需要用户输入复杂的 prompt。
第一步:OpenAI API
第二步:第三方 API
第三步:OpenAI API
模型升级GPT-4
GPT-4-0613 的主要更新就是上面提到的全新函数调用功能。
而 GPT-4-32k-0613 的更新,除了包含 GPT-4-0613 的所有更新内容以外,还新增加了更长的上下文长度,从而能更好地理解更长篇幅的文本。
OpenAI 表示,未来几周内,将会有更多目前在等待名单上的人可以开始使用 GPT-4.
GPT-3.5 Turbo
GPT-3.5-turbo-0613 的更新中具备与 GPT-4 相同的函数调用功能,并通过系统信息提供了更高的可控性。
这两个特性将使开发者能够更有效地引导 GPT 模型生成的回复。
GPT-3.5-turbo-16k 相较于 GPT-3.5-turbo 拥有 4 倍的上下文长度,但成本是前者的两倍。
每 1000 个 token 输入的费用为 0.003 美元,每 1000 个输出 token 的费用为 0.004 美元。
16k 的上下文长度意味着该模型现在能够在单次对话中支持约 20 页长度的文本。
同时,OpenAI 表示,新模型将于 6.27 正式上线,而旧模型将于今年 9.13 后无法再次访问。
价格更低
最后,OpenAI 发布的价格降低的新消息也让不少用户为之一动。
text-embedding-ada-002 是 OpenAI 最受欢迎的嵌入模型。今天我们将成本降低了 75%,每 1,000 个 token 费用为 0.0001 美元。
而作为最受欢迎的聊天模型 ——GPT-3.5-turbo,其输入的 token 费用降低了 25%。
开发者现在能以 0.0015 美元 / 1000 个输入 token 的价格使用该模型,每 1000 个输出 token 费用为 0.002 美元,相当于每美元大约能使用 700 页。
GPT-3.5-turbo-16k 的定价为 0.003 美元 / 每 1000 个输入 token,而每 1000 个输出 token 费用为 0.004 美元。
参考资料: