算力还是不够!OpenAI 自曝发展受到 GPU 限制

时间:2023-06-02 10:41:03     来源:太平洋电脑网

5.29 日,OpenAI 的 CEO-Sam Altman 在一次采访中,透露了 OpenAI 当下遇到的问题与未来 1-2 年内的发展计划。

OpenAI 目前受到 GPU 算力限制

在采访中,一个普遍的主题是 OpenAI 目前极其受到 GPU 算力的限制,这延迟了许多短期计划的实现。最大的客户抱怨是 API 的可靠性和速度,同时还不能向更多用户推出更长的 32k 上下文,Sam 承认了他们的担忧,并解释说这个问题的大部分原因是由于 GPU 短缺造成的。

精调 API(更加个性化与专业化的)目前也受到 GPU 可用性的瓶颈限制。他们还没有使用像适配器或 LoRa 这样的高效微调方法,因此微调非常计算密集,需要耗费大量的计算资源来运行和管理,但更好的微调支持将来会出现。当前的 OpenAI 提供 API 的分类与价格

GPT-4 的迅速版 750 个单词约为 0.03 美金(2 毛钱)


【资料图】

目前 OpenAI 的云计算服务是由微软的 Azure 云来支持,突如其来的 Ai 热潮,让服务器长期处于满负载的状态,同时算力开始出现紧张,但伴随 NVIDIA 高性能服务器级别的算力卡,比如 H100/GXH200 等产品发布;应用,相信 GPU 算力在未来一段时间内可以逐渐被平衡。

专用容量提供也受到 GPU 算力的限制。OpenAI 还将向客户提供专用容量,为客户提供模型的私有版本(如企业版)。要访问此服务,客户必须愿意预付 100,000 美元(约合 68.7 万人民币)

OpenAI 的近期路线图

2023 年:

更便宜、更快的 GPT-4- 这是 OpenAI 的首要任务。总的来说,OpenAI 的目标是尽可能地降低 "Ai 的成本 ",因此他们将努力继续随着时间的推移降低普通用户与 API 使用的成本。

在未来,Ai 智能助手可能会伴随我们日常的工作生活的每一处丨 Midjourney

更长的上下文窗口 - 在不久的将来,高达 100 万个字符的上下文窗口是可能的。(写小说的时代来临)

Midjourney

精调 API 将扩展到最新的模型,但具体形式将根据开发人员实际需要来确定。

有状态的 API- 当调用聊天 API 时,必须不断地通过相同的对话历史记录并不断支付相同的标记。将来会有一个记住对话历史的版本。

2024 年:

多模态(包含语音识别、图像识别、视频识别等)这是 GPT-4 发布的一部分,但在更多 GPU 算力上线之前无法扩展到所有用户。

GPT-4 发布时提及的图片识别能力,仍未开放

OpenAI 除了 ChatGPT 之外,不会发布更多的竞争产品

相当多的开发者表示,当 OpenAI 可能会发布与他们竞争的产品时,他们对使用 OpenAI API 进行构建感到紧张。Sam 说 OpenAI 除了 ChatGPT 之外,不会发布更多的竞争产品。他说,有许多伟大的平台公司都有一个杀手级应用程序,而 ChatGPT 将允许他们成为自己产品的客户,从而使 API 更好。ChatGPT 的愿景是成为一个超级智能的工作助手,但还有许多其他 GPT 用例 OpenAI 不会涉及。

需要监管,但开源也很重要

尽管 Sam 呼吁对未来 Ai 模型进行监管,但他认为现有模型并不危险,认为监管或禁止它们将是一个巨大的错误。他重申了他对开源的重要性的信念,并表示 OpenAI 正在考虑开源 GPT-3。他们还没有开源的部分原因是他对有多少个人和公司有能力托管和提供大型 LLM 持怀疑态度。 ( 担心有人使用开源后的 GPT-3 干坏事)

扩展定律仍然有效

OpenAI 的内部数据表明,模型性能的扩展定律仍然有效,而且使模型更大仍将产生更好的性能。但由于 OpenAI 在几年内已经使模型变得大了数百万倍,继续保持这样的扩展速度将不可持续。这并不意味着 OpenAI 不会继续努力使模型更大,只是表示它们可能每年只会增加两到三倍的大小,而不会呈几个数量级的增长。

标签:

最新文章推荐

X 关闭

X 关闭

热点资讯