OpenAI官方在2023.06.13发布了ChatGPT API层面的重磅升级

网站建设 2024-12-03 09:19www.1681989.com免费网站

OpenAI在2023年6月13日进行了API的重大升级,带来了一系列激动人心的改变。

在这次更新中,Chat Completions API支持了开发者自定义的函数调用,这意味着你可以结合ChatGPT的智能对话能力与自定义函数的功能,实现更多创新的应用。他们也更新了gpt-4和gpt-3.5-turbo模型,进一步提升了性能。特别是gpt-3.5-turbo模型的上下文长度扩展到了16K,使得用户可以更自由地表达自己的想法。除此之外,embedding model的使用成本降低了75%,gpt-3.5-turbo模型的input token成本也降低了25%,这无疑为开发者带来了更大的便利。

值得注意的是,OpenAI将在2023年9月13日下线gpt-3.5-turbo-0301、gpt-4-0314和gpt-4-32k-0314模型,之后的调用将无法使用这些模型。所有模型都严格遵循2023年3月1日发布的隐私和安全规定,用户通过API发送和接收的数据不会用于OpenAI大模型的训练,用户可以放心使用。

现在,让我们通过一个具体的例子来看看如何结合ChatGPT和自定义函数获取实时天气信息。假设我们想知道Boston的当前天气情况。用户向ChatGPT提问。ChatGPT会生成一个自定义函数的实参值,这个值会作为我们的函数输入。然后,我们调用自定义函数获取Boston的实时天气数据。接下来,我们将函数的结果和对话记录一起发送给ChatGPT进行汇总,最后返回汇总的结论给用户。

具体的操作步骤如下:用户提问“What's the weather like in Boston right now?” 然后通过API接口向OpenAI发送请求。在请求中,我们指定了使用的模型和消息内容,同时包含了自定义函数的定义和参数。一旦收到ChatGPT的响应,如果返回结果中的function_call有值,就表示我们需要调用自定义函数get_current_weather,并且ChatGPT已经为我们生成了函数的参数值。我们根据这个参数值调用函数,获取Boston的实时天气信息,并结合ChatGPT的对话能力,将结果汇总并返回给用户。

第一步,我们向ChatGPT提出疑问:“波士顿的天气怎么样?”这个问题就像一颗石子投入平静的湖面,激起涟漪,引发智能对话系统的探索之旅。

第二步,我们的智能助手迅速响应,它像一个专业的天气侦探,通过调用“get_current_weather”这个自定义函数,向天气API发送请求,获取波士顿的实时天气信息。这个过程就像发送一个精准的探询信号,等待天气的回音。不一会儿,函数返回了结果:“温度22度,单位:摄氏度,天气情况:晴朗”。

第三步,智能助手将这些重要信息连同对话记录一起发送给ChatGPT。ChatGPT如同一个聪明的编织者,将这些散落的珠玑串联起来,形成完整的答案:“波士顿的天气预报是:天气晴朗,温度22摄氏度。”这个答案既简洁明了,又包含了所有关键信息。

整个过程的核心在于ChatGPT的智能判断:它知道何时需要调用自定义函数来获取更详细的信息,并能够将这些信息以清晰、准确、吸引人的方式呈现给用户。这就像一场智能的舞蹈,每个步骤都精准无误,最终呈现出完美的结果。新模型特性及更新】

随着技术的不断进步,OpenAI的最新模型也迎来了令人瞩目的更新。这些新模型不仅在性能上有所提升,而且使用更为便捷。

一、GPT系列的新模型

GPT-4系列的新模型,包括gpt-4-0613和gpt-4-32k-0613,现在支持函数调用,这无疑为开发者带来了极大的便利。开发者可以直接调用自定义函数获取所需结果,无疑大大提高了工作效率。而GPT-3.5 Turbo系列的新模型,如gpt-3.5-turbo-0613,同样新增了函数调用的支持。对于接下来的几周,OpenAI将全力审批GPT-4 API的等待列表申请,让开发者能尽快体验到GPT-4的强大能力。

二、旧模型的升级与下线时间

从2023年6月13日开始,OpenAI将开始升级生产环境的旧模型,包括gpt-4、gpt-4-32k和gpt-3.5-turbo模型到最新版本。预计从2023年6月27日开始,开发者就可以使用到升级后的模型。若开发者选择继续使用旧版本模型,需在model参数中指定特定版本,如gpt-3.5-turbo-0301,gpt-4-0314或gpt-4-32k-0314。但请注意,这些旧模型将在2023年9月13日下线,后续调用将会请求失败。

三、价格优化

OpenAI此次更新也带来了好消息——成本降低了!对于Embedding模型中的text-embedding-ada-002,现在的成本降低为0.0001美金/1K token,成本下降了75%。而对于GPT-3.5 Turbo模型,其input token的成本也降低了25%,每1K input token的费用为0.0015美金。而对于gpt-3.5-turbo-16k模型,其收费情况为每1K input token 0.003美金和每K output token 0.004美金。

无论是新模型的特性还是价格的优化,都体现了OpenAI不断追求技术进步、满足开发者需求的决心。让我们共同期待这些新模型在未来的表现,相信会给开发者带来更加出色的体验。

Copyright © 2016-2025 www.1681989.com 推火网 版权所有 Power by