搭建 AI 工作流可以从以下几个方面入手:
那怎么搭建出这样的一套AI工作流呢?在讨论这个问题之前,得先知道搭建AI工作流,我们需要具备哪些能力呢?我把这个能力分为了三个层级,分别是熟悉各种AI工具、编写提示词、搭建AI智能体。[heading3]3.1.1熟悉各种AI工具[content]首先第一层,就是要熟悉各种各样的AI工具。在AI工作流里,不同的环节可能需要用到不同的工具,还是拿文章举例。写标题,可以用ChatGPT;但是写文章的话,就得用Claude了,因为claude的写作能力比ChatGPT强很多。而检查文本中的错别字和病句呢,可以用秘塔写作猫的AI纠错功能。熟悉各种AI工具,就是入门AI工作流的第一步,我们需要去了解多个不同AI工具的特点和用途,根据具体的某一项细分任务,去选择合适这个任务的AI工具。[heading3]3.1.2编写提示词[content]第二层,是要学会写提示词,因为这决定了你是否能用好这些工具。我们刚刚说了写标题,可以用ChatGPT;写文章,可以用Claude;但具体怎么让AI去写呢,这需要我们有一定的提示词能力,我们才能让AI写出好的内容。因为提示词,就是要搭建起人和AI之间的"沟通桥梁",我们得用AI听得懂的语言,清晰地说明你的需求、任务的内容和步骤,让AI明白你要它做什么,怎么做。
搭建AI工作流其实也有一套简单易行的工作流,我们可以从最基础的开始,一步步来。[heading3]3.2.1找到一个工作场景[content]选择一个你比较熟悉的工作场景,比如说,写文章、做PPT,随便哪个你经常做的工作都行。[heading3]3.2.2拆解工作流程[content]因为是你熟悉的工作场景,所以你肯定能把这个工作拆解成几个小步骤,如果暂时想不清楚,可以先把整个流程在脑海中或纸上过一遍。就比如刚刚说的写文章,可以拆成选题、写稿、改稿、写标题这几步。[heading3]3.2.3给每一个步骤嵌入工具[content]针对每个小步骤,想想有没有AI工具可以帮上忙,如果你想不到的话,别自己闷头去想,去找一下别人是怎么做的?我们遇到的大多数问题,别人都遇到过并很好地解决了,所以你只需要找到别人是怎么解决这个问题的就可以了。注意,要灵活选择最优解,不要为了AI而AI。通过局部最优解,来达到全局最优解。我们的目的是提高工作效率,而不是提高工作的含AI量。
打开Comfyui界面后,右键点击界面,即可找到Comfyui LLM party的目录,你既可以如下图一样,学习如何手动连接这些节点,从而实现一个最简单的AI女友工作流,也可以直接将[工具调用对比实验](https://github.com/heshengtao/comfyui_LLM_party/blob/main/workflow/%E6%8F%90%E7%A4%BA%E8%AF%8D%E5%B7%A5%E7%A8%8B%E8%8E%B7%E5%BE%97%E5%B7%A5%E5%85%B7%E8%B0%83%E7%94%A8%E5%AF%B9%E6%AF%94%E5%AE%9E%E9%AA%8C.json)工作流文件拖拽到Comfyui界面中一键复刻我的提示词工程实验。[heading2]4、启动ollama[content]从ollama的github仓库找到对应版本并下载:启动ollama后,在cmd中输入ollama run gemma2将自动下载gemma2模型到本地并启动。将ollama的默认base URL=http://127.0.0.1:11434/v1/以及api_key=ollama填入LLM加载器节点即可调用ollama中的模型进行实验。[heading2]5、常见报错及解决方案[content]1.如果ollama连接不上,很可能是代理服务器的问题,请将你的127.0.0.1:11434添加到不使用代理服务器的列表中。