OpenAI 的 Assistant 通常可以通过以下方式使用:
总体而言,OpenAI 的 Assistant 的使用方式相对直接,但也需要根据具体需求和场景进行合理运用,并注意其可能存在的局限性。
在了解AI Agent之前,我们先考虑一个场景:我们要写一本20万字的关于人工智能最新技术的书在没有大模型之前,我们一般会按照如下流程第一步:先使用搜索引擎搜索一些相关书籍和信息进行阅读,为我们打开思路第二步:形成本书的大纲,并且考虑清楚每一章节要编写的内容第三步:针对每一个章节进行内容的编写,在编写过程中可能会调整文章的大纲第四步:在编写后面章节的时候可能会忘记前面写的内容,需要去翻阅前面已经写的内容第五步:文章初步完成之后,我们可能会找相关专业人士帮忙修改最后:经过几番调整之后,书籍最终成型在大模型出现之后,我们可能会这样使用:请你帮忙生成一篇20万字的关于人工智能最新技术的书这个时候我们会发现AI写出来的书根本就无法阅读,是大模型的能力不行么?不仅仅因为这个,相比于第一种写书的方式,第二种方式明显缺少了几个环节没有办法使用Google获取最新的外部信息(大模型的训练数据是有日期限制的)没有对整个事情进行规划(比如先写大纲,再编写每个章节,然后和别人讨论,最后成文)大模型没有记忆的能力,由于上下文(脑容量)的限制,无法一次性完成20万字的文章,会造成前言不搭后语的现象而AI Agent就是为了解决这个问题。AI Agent是应用了大模型(LLM)能力的Agent。以GPT为代表的大模型的出现,将Agent的能力提高到了前所未有的高度。AI Agent又被称为智能体。OpenAI的Lilian Weng将以LLM为驱动的AI Agent,形式化为如下的公式:
GPTs怎么做的?其实很大程度就是OpenAI的Assistant API加个简单得有点简陋的前端。(PS:现在有了OpenAI Assistant API后,你发现加个UI就可以很轻松的复刻OpenAI上线的大部分功能。)那么语音对话呢?你会发现就是换了一个prompt,告诉GPT尽量生成短的内容,不要轻易生成列表和代码。语音合成用TTS API,识别用whisper API(可能有针对上下文的优化),结束。这些选择看上去非常暴力,而且会给OpenAI增加开销(长的prompt会明显增大开销),但是OpenAI仍然选择这么做,因为这让OpenAI将大部分精力都花在模型本身的研发上,同时这也是OpenAI的方法论的极致体现,我们下面会提到。这种方法论让OpenAI追求一个大的通用的模型,避免一切定制和特化,就像最近Sam说的一样,希望GPT-5的出现能让模型微调失去意义;这样OpenAI就变成了完完全全的SaaS服务。
我希望未来的模型可以更符合人们心中一个助理或者同事的形象,可以和它们分享日常工作,而不是仅仅提出一个问题就完了。这个助手还可以跟进我们的长期项目,对相关的每个细节了如指掌,甚至能主动提建议。我们没准还可以让它帮忙提醒关键时间节点,跟进进展。现在的模型还普遍缺乏主动性,我希望以后的模型能够从现在单纯的一次性问答,类似搜索引擎的用法,转变为能和模型一起合作完成整个项目。在这种合作中,模型能够了解我们负责的所有事物,主动提出建议,或者在后台运行。Dwarkesh Pa tel:你觉得你的工作什么时候会被取代?John Schulman:取代我的工作吗?可能五年吧。