草稿:GPT-4 Turbo
您所提交的草稿仍需改善。在2024年1月27日由Newbamboo (留言)审阅。
如何改善您的草稿
|
原作者 | OpenAI |
---|---|
開發者 | OpenAI |
首次发布 | 2023年11月6日 |
源代码库 | 闭源 |
取代 | GPT-4 |
语言 | 67种语言 |
类型 | 多模态模型 |
许可协议 | 专有 |
数据截至 | 2022年11月 |
生成型预训练变换模型 4 Turbo(英语:Generative Pre-trained Transformer 4 Turbo,简称GPT-4 Turbo,gpt-4-1106-preview)是由 OpenAI 在其首届 DevDay 开发者日(11月6日)上推出[1],其新的大语言模型表现得更为聪明,文本处理上限更高,价格更为便宜[1][2][3]。
能力[编辑]
上下文[编辑]
与普通的 GPT-4 相比,GPT-4 Turbo 支持 128k 的上下文,输入价格比 GPT-4 便宜了约三倍[2][1],速率限制翻倍[1][4]。此外,还更新了知识库,将其内容更新到2023年4月[1][3][4]。 得益于 128K token 的上下文长度,GPT-4 Turbo 能够处理相当于 365 页书的文本内容,而不会丢失信息[5]。这在实际应用中有意义,比如复杂对话的对话状态管理、处理大型文档等等。尤其是对长文本的处理,普通模型容易出现遗忘的问题,而 GPT-4 Turbo 可以更准确地处理标记,能够更好地跟踪和理解长篇章节[5]。
多模态[编辑]
GPT-4 Turbo 也表现出了出色的适应性和多元化的应用能力[3][4],使用 Code Interpreter 能够执行 Python 代码,完成数据分析、生成图形和图表、处理多种格式的文件、迭代运行代码来解决具有挑战性的代码和数学问题等操作。
其次,OpenAI 在此次更新中还为 GPT-4 Turbo 模型新增了关于视觉的处理能力(gpt-4-1106-vision-preview)以及 DALL·E 3 文生图(Text to image)模型,可以使用自然语言生成图像[1]。增强了模型与用户的交互体验,使模型可以理解和生成视觉内容,跨越了纯文字的界限。
理解能力[编辑]
此外,GPT-4 Turbo更好地理解用户的问题,并针对用户问题做出更准确的回答[3]。它可以更深入地分析问题,并对问答进行深度优化,提供更准确、上下文相关的回答[5]。
使用[编辑]
ChatGPT Plus[编辑]
GPT-4 Turbo(gpt-4-1106-preview)、 GPT-4V(gpt-4-1106-vision-preview)、DALL·E 3 均可通过 API 和 ChatGPT Plus 用户使用。
参见[编辑]
參考資料[编辑]
- ^ 1.0 1.1 1.2 1.3 1.4 1.5 New models and developer products announced at DevDay. openai.com. [2024-01-23] (美国英语).
- ^ 2.0 2.1 Pricing. openai.com. [2024-01-23] (美国英语).
- ^ 3.0 3.1 3.2 3.3 用过GPT-4 Turbo以后,我们再也回不去了-36氪. 36kr.com. 2023-11-08 [2024-01-23].
- ^ 4.0 4.1 4.2 OpenAI 推出 GPT-4 Turbo:支持 128k 上下文,集成 DALL・E 3,号称“比上代便宜 2/3” - IT之家. www.ithome.com. [2024-01-23].
- ^ 5.0 5.1 5.2 GPT-4 Turbo:自 ChatGPT 首次亮相以来最具里程碑意义的更新! | HackerNoon. hackernoon.com. [2024-01-23] (英语).
|