做 GPTs 的原因主要有以下几点:
也许从从业者角度来看,身边每天都充斥着各种AI的信息,身边每个人都在聊AI,但实际上放眼整个社会来看,这个群体体量还非常非常小。大多数人甚至连真正的OpenAI都没有用过,更不用谈如何正确地使用。的确AIGC门槛不高,但如果让大多数用户直接去面对大模型,最多的对话可能就是“你好”,“你是谁”,“给我讲个笑话”。无了...为什么Character.ai(虚拟角色)的数据却居高不下?从本质看区别,差异在于Character.ai很明确地创造了一个具体的角色,我就是谁,我就是干嘛的。不要让用户去想,这可能是大多数做产品的人都听过的一句话。那这个事情谁来做呢,模型厂家做么,还是应用平台来做,都做不了。只有那些先行者们来做,也就是GPTs的创作者们。平台需要场景去反哺产品,也需要先行者们去先富带动后富,而先富的人,也要获取利益,平台则来提供能力和工具,这才是一件双赢的事情。最终形成一个共存的生态。
很多人都是以BeBeGPTs站长的身份认识的我,但实际上我在很早的时候就开始做LLMs应用了,只不过是ToB的产品。在我们当时项目立项的时候,我就提出了GPTs的概念,实际上我们做的很多东西,都算比较早的,从RAG,到Team,到FakeJsonMode,到tools,到Agent。我做产品做了十年,从B到G到C,大大小小也经历了很多项目,有大成有小成也有成不了的。后来转了AI产品,我一直觉得自己是非常适合做这个事情的,懂技术懂产品懂业务有经验,但同样我还是碰到了问题,我找不到落脚点,想法非常好,但是用户都在观望。AI技术的跃迁对于大多数人来说来的太快了!我激情昂扬地跟大家描述这个事情的时候,更多的人是不解跟质疑。没办法,这场仗,应该是场持久战,而现在,才刚刚开始。后来,我混入到各种各样的群里面去结交各种各样的朋友,跟他们聊业务,聊技术,吹牛逼,甚至还免费给镜像站的开发者当产品经理,免费给一些企业老板做咨询。我给当时的状态总结了一下:GAP(断档)。懂技术的人,他不懂业务;熟悉业务的大多数人,他又没概念,毕竟敢第一个吃螃蟹的,还是少数。别说客户了,当时我们的技术Leader,甚至也因为我想找个人来写Langchain而跟我吵了好几次,你一个产品,不要干预技术,所以没办法,我们用Java又造了很多轮子,也浪费了很多时间。在前几天硅星人对话智谱CEO张鹏的报道中,也给出了了同样的观点。铺垫了这麽多,回过头来说GPTs。作为从业者,我们也时时刻刻在关注行业动态和各种数据。
这是我在23年11月做的第一个GPTs【麦克阿瑟的素数】。这是一个可以帮用户判断数字是否为质数的无聊GPT应用。即便已经使用过了很多AI产品,我依旧对第一次使用GPTs的感觉记忆犹新。从点子到产品这是GPTs的创建界面,左侧对话,右侧调试。我发现GPTs也可以使用代码解释器,一个无聊的念头从我的脑中显现:做一个质数判别应用吧,既可以考考大模型的记忆力,遇到大数字还能考考他的代码能力第一版,纯靠模型自身判断是否为质数。遇到大数字时,模型会无从下手第二版,告诉模型无法判断时,调用代码解释器,写代码解决第三版,大质数在整数序列中分布稀疏,用户很难蒙到一个大质数;于是增加了计算最近的两个质数第四版,大质数判断太无聊了,于是增加麦克阿瑟点评功能这是最终的效果👇GPTs的奥义GPTs到底是干啥的?它到底解决了一个什么问题?直觉判断,OPENAI一定在海量用户的聊天中发现了一个事实:普通用户说的那点三言两语,大模型根本明白不了他们要干啥这不是一个单纯的技术问题,而是一个产品问题。当前的大模型就是需要用高质量Prompt去驱动,而且Prompt中很大一部分就得是用户的上下文信息。但是人类有记忆,大模型却没有。所以,普通用户一上来就称兄道弟,大模型却满脸懵逼。GPTs的解法是,通过对话引导方式,逐步获取用户信息,再由大模型根据对话信息生成更优质的Prompt。GPTs把普通用户生产高质量Prompt的过程,拆解为以一轮对话为最小单元任务的重复。基于对话引导,解决了用户说什么的问题基于对话循环,解决了低门槛生成高质量Prompt的问题用简单原子通过迭代去拟合复杂任务,这不就是万物法则吗?