ChatGPT正式发布API,所有企业都可以接入

时间:2023-03-03 15:08:00

总部位于旧金山的初创公司 OpenAI 开发的聊天机器人 ChatGPT 简直太火爆了。截至去年 12 月,月活跃用户估计超过 1 亿人,它让人工智能飞入寻常百姓家。今年,刚刚过去两个月,与它相关的消息还是不断,分布式实验室做过系列的报道。
但是作为一家企业,怎么盈利是一个关乎生死的问题。先是在2月2日,OpenAI推出了高级会员服务 ChatGPT Plus,收费是每月20美元,订阅者可获得比免费版本更稳定、更快的服务,及尝试新功能和优化的优先权。
而后,上周,它又开始向 B 端用户售卖 Model instance,起售价 26 万 4 千美元一年。今天,OpenAI 更进一步,正式开放其 API,允许任何企业在其应用程序、网站、产品和服务中集成 ChatGPT 技术。价格也相当便宜,每 1000 token 0.002 美元,比 GPT-3.5 模型便宜了 10 倍。
到现在,它的商业模式基本清晰。通过 Plus 会员向普通的 C 端用户收费,通过 API 服务中小企业,通过 Model instance 服务中大型企业。逻辑清晰,听说接下来的动作是开源 GPT 模型。

#01

具体信息


开放API 一直是我们的计划。” 这是 OpenAI 总裁兼董事长Greg Brockman 的说法。他昨天下午在 ChatGPT API 发布之前通过视频电话和媒体进行了交谈。
Brockman 表示,ChatGPT API 由 OpenAI 广受欢迎的 ChatGPT 背后的相同 AI 模型提供支持,该模型被称为 “gpt-3.5-turbo”。GPT-3.5 是 OpenAI 目前通过其 API 套件提供的最强大的文本生成模型;“turbo” 指的是 GPT-3.5 的优化版本,它的响应速度更快,OpenAI 一直在为 ChatGPT 低调地测试它。
Brockman 声称该 API 可以推动一系列体验,包括 “非聊天” 应用程序。Snap、Quizlet、Instacart 和 Shopify 是其早期使用者。目前 API 价格为每 1,000 个 token(令牌) 0.002 美元。根据 OpenAI 官网的解释,token 可以理解为一个一个非结构化的单词,而 1000 个 token 大概对应 750 个词。这个价格也要比目前的 GPT 3.5 模型便宜 90%。
“最初开发 gpt-3.5-turbo 的动机可能是为了降低 ChatGPT 的高昂计算成本。” OpenAI CEO Sam Altman 曾表示,ChatGPT 的开销是 “极高的”,预估每次聊天需要几美分的计算成本。
Brockman 表示 gpt-3.5-turbo 在其他方面也有改进。

#02

应用案例

“如果你正在构建一个 AI 驱动的导师,你永远不希望导师只给学生一个答案。你希望它总是能解释并帮助他们学习——这是那种可以使用 API 构建的系统的一个例子,”Brockman 说。“我们认为这将会使 API 更加可用和易用。”
ChatGPT API 是一个强大的工具,支持许多不同的应用。例如,它可以用于构建个性化购物推荐助手(如 Shopify 所做的那样)以及创建聊天机器人(如 My AI 和 Snapchat+ 的最新机器人)。另外,Instacart 也利用了 ChatGPT API 来创建一个即将推出的收费站,名为 Ask Instacart,让客户可以通过该站点查询食品并获得 “可购买” 的伙伴的回复。此外,Quizlet 推出了 Q-Chat 虚拟导师功能,也是利用了该 API 的功能。
根据报道,Instacart 首席架构师 JJ Zhuang 表示杂货店购物是很费神的一件事,需要考虑多种因素,例如预算、健康和营养、个人口味、季节性、烹饪技巧、准备时间和食谱需求。如果 AI 可以承担这些事情,将可以帮助那些负责杂货店购物、膳食计划和将食物摆上餐桌的家庭成员,并在一定程度上让购物变得有趣。据悉,Instacart 已经与 OpenAI 的 ChatGPT 集成,将在其应用程序中实现这一点。

#03

可能存在的问题

然而,那些一直密切关注 ChatGPT 传奇的人可能想知道它发布的时机是否成熟——确实如此。
早期,用户能够提示 ChatGPT 以种族主义和性别歧视的方式回答问题,这反映了 ChatGPT 最初接受训练时所依据的有偏见的数据。(ChatGPT 的训练数据包括广泛的互联网内容,即电子书、Reddit 帖子和*文章。)ChatGPT 还会在不公开的情况下编造事实,这种现象在 AI 中被称为幻觉。
ChatGPT——以及类似的系统——也容易受到基于提示的攻击,或恶意的对抗性提示,使他们执行不属于其原始目标的任务。Reddit 上的整个社区都在寻找“越狱”ChatGPT 并绕过 OpenAI 实施的任何保护措施的方法。在一个不太令人反感的例子中,初创公司 Scale AI 的一名员工能够让 ChatGPT 泄露其内部技术运作的信息。
毫无疑问,品牌不想成为十字准线。Brockman 坚称他们不会。为什么这样?他说,原因之一是后端的持续改进——在某些情况下是以牺牲肯尼亚合同工为代价的。但是 Brockman 强调了一种新的(并且争议较小的)方法,OpenAI 称之为聊天标记语言或 ChatML。ChatML 将文本作为消息序列和元数据提供给 ChatGPT API。这与标准的 ChatGPT 不同,后者使用表示为一系列标记的原始文本。(例如,“fantastic” 这个词将被拆分为 “fan”、“tas” 和 “tic” 等标记。)
例如,给定提示 “我 30 岁生日有哪些有趣的派对创意?” 开发人员可以选择在该提示后附加一个额外的提示,例如 “你是一个有趣的对话聊天机器人,旨在帮助用户解决他们提出的问题。你应该用有趣的方式如实回答!” 或 “你是一个机器人”,然后让 ChatGPT API 处理它。Brockman 表示,这些说明有助于更好地定制和过滤 ChatGPT 模型的响应。
“我们正在转向更高级别的 API。如果你有一个更结构化的方式来表示系统的输入,你说,“这是来自开发人员” 或 “这是来自用户”……我应该期望,作为开发人员,你实际上可以更健壮 [使用 ChatML] 来对抗这些类型的即时攻击,”Brockman 说。
另一个可以防止意外的变化是更频繁的模型更新。随着 gpt-3.5-turbo 的发布,开发人员将默认自动升级到 OpenAI 的最新稳定模型,Brockman 说,从 gpt-3.5-turbo-0301(今天发布)开始。不过,如果开发人员愿意,他们可以选择继续使用旧模型,这可能会在某种程度上抵消其优势。

#04

专用容量

Brockman 指出,无论他们是否选择更新到最新版本,一些客户——主要是预算相对较大的大型企业——将通过引入专用容量计划对系统性能进行更深入的控制。本月早些时候披露的文档中首次详细介绍了 OpenAI 的专用容量计划,该计划于今天推出,让客户支付计算基础设施的分配费用以运行 OpenAI 模型——例如 gpt-3.5-turbo。顺便说一下,后端是 Azure。
除了对实例负载的“完全控制”,通常情况下 OpenAI API 的调用发生在共享计算资源上。专用容量使客户能够启用更长的上下文限制等功能。上下文限制是指在生成额外文本之前模型需要考虑的文本量。更长的上下文限制意味着模型能够 “记住” 更多的文本。虽然更高的上下文限制可能无法解决所有的偏差和毒性问题,但它们可能会导致像 gpt-3.5-turbo 这样的模型产生更少的幻觉。
鉴于 OpenAI 在获得微软数十亿美元的投资后扭亏为盈的压力越来越大,这不足为奇。
推荐阅读:
  • 《Twitter裁80%的工程师,公司照常运转?》
  • 《从源代码构建一个极简的Linux操作系统》