Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

在coze上实现notebookllm

Answer

以下是关于在 Coze 上实现 NotebookLLM 的相关信息:

  • LLM 作为知识问答工具有缺陷,如无法实时获取最新信息、存在“幻觉”问题、无法给出准确引用来源等。搜索引擎虽体验不够简便直接,但加上 LLM 可能带来更优信息检索体验。
  • 在生成标题、导语、大纲时,因为涉及文本理解与创作,这是 LLM 节点的工作,需要对其进行配置。为减少 token 消耗和节省模型调度费用,在满足预期情况下,应尽量减少大模型处理环节。经过实测,豆包·function call 32k 模型能在一轮对话中稳定生成相关内容。每个大模型节点配置项丰富,入门用户主要关注一些方面,如在“标题、导语、大纲”节点中,希望 LLM 接收原文信息后一次性生成所需内容,还需视实际情况调大模型的最大回复长度,并设计填入用户提示词。
Content generated by AI large model, please carefully verify (powered by aily)

References

艾木: 我用Coze手搓了一个极简版Perplexity(基本可以替代Google搜索)

1.首先,LLM的一个很大的缺陷是它无法实时获取最新的信息。它能获取的信息就是预训练时输入的信息,这些信息有一个截断日期,这个日期之后的信息它一概不知(至少无法从模型内部获取到)。而搜索引擎可以获取到更加实时的信息。2.LLM有“幻觉”问题。在缺少相关事实信息的情况下,它就会编造。更严重的是,它很擅长编造,经常编得跟真的一样。而搜索引擎可以检索出相关的信息,这些信息可以作为LLM“推理”的依据。3.LLM无法给出准确的引用来源。LLM吸收了整个互联网的信息,当它回答问题的时候,你会感觉它的回复好像是参考了互联网上的某个地方的内容,但是它无法告诉你它具体引用或者改编的是哪里的内容,因为LLM已经把整个互联网的信息作了词元(token)级别的融合。LLM无法给出引用来源间接带来一个严重问题是,你无法去到信息源,去自己做验证。而搜索引擎可以给予准确的信息源。以上种种问题,决定了LLM本身作为一个知识问答工具是完全不合格的。而搜索引擎的问题则是体验上不够简便、不够直接。搜索引擎返回的信息是一堆链接和文本片段(很多时候还有广告干扰),这种呈现形式是比较原始的,还需要人去做进一步处理。给搜索引擎加上LLM,或许可以带来更优的信息检索体验。Perplexity[4]就是基于这个思路搞出来的产品,目前其估值已经超过5亿美元了,它的目标是要取代Google搜索。这个思路本身没有什么新鲜的,OpenAI早在21年就研究过了[5],后来也有研究者作了进一步的验证[3]。这个思路的技术实现也不复杂,贾扬清大佬用了不到500行Python代码就实现了一个基础版[6]。

一泽Eze:万字实践教程,全面入门 Coze 工作流|用 Coze 打造 AI 精读专家智能体,复刻 10 万粉公众号的创作生产力

在生成标题、导语、大纲时,因为只涉及文本理解与文本创作,很明显这是LLM节点的工作,所以我们需要对LLM节点进行配置。可能你在1.2分解子任务那个章节就想问:为什么不把“标题、导语、大纲”拆得更细,比如分成生成标题、生成导语和生成大纲3个子任务?——因为LLM是按输入/输出的字符数量来消耗token,在满足预期的情况下,更少的大模型处理环节,能有效减少token消耗,在实际投产时节省模型调度费用。经过实测,豆包·function call 32k模型,已经能在一轮对话中稳定地生成这三项内容了。每个大模型节点的配置项很丰富,对于入门用户来说,主要关注:在“标题、导语、大纲”节点中,我们希望LLM能够从开始节点,接收到原文信息,经过处理后,一次性把我们需要的中文标题、中文导语、英文标题、英文阅读大纲生成输出。所以设置如下:另外,为了保证大模型能够处理足够长的内容,需要视实际情况调大模型的最大回复长度:最后,根据1.3设计每个子任务的执行方法中的内容模块要求,设计并填入以下用户提示词(本文主要讨论工作流的设置,就不论述这个提示词具体是如何设计的了,感兴趣的可以单独和我聊):

一泽Eze:万字实践教程,全面入门 Coze 工作流|用 Coze 打造 AI 精读专家智能体,复刻 10 万粉公众号的创作生产力

在生成标题、导语、大纲时,因为只涉及文本理解与文本创作,很明显这是LLM节点的工作,所以我们需要对LLM节点进行配置。可能你在1.2分解子任务那个章节就想问:为什么不把“标题、导语、大纲”拆得更细,比如分成生成标题、生成导语和生成大纲3个子任务?——因为LLM是按输入/输出的字符数量来消耗token,在满足预期的情况下,更少的大模型处理环节,能有效减少token消耗,在实际投产时节省模型调度费用。经过实测,豆包·function call 32k模型,已经能在一轮对话中稳定地生成这三项内容了。每个大模型节点的配置项很丰富,对于入门用户来说,主要关注:在“标题、导语、大纲”节点中,我们希望LLM能够从开始节点,接收到原文信息,经过处理后,一次性把我们需要的中文标题、中文导语、英文标题、英文阅读大纲生成输出。所以设置如下:另外,为了保证大模型能够处理足够长的内容,需要视实际情况调大模型的最大回复长度:最后,根据1.3设计每个子任务的执行方法中的内容模块要求,设计并填入以下用户提示词(本文主要讨论工作流的设置,就不论述这个提示词具体是如何设计的了,感兴趣的可以单独和我聊):

Others are asking
coze的输入中如何引用变量
在 Coze 的输入中引用变量的方式如下: 在大模型节点的提示词中,支持使用{{variable}}引用输入参数。变量用{{}}来包裹,这里的变量就是前面输入的内容,如果变量名正确,会显示成蓝色。 在文本处理节点中,有两种工作模式。字符串拼接模式下,可以用{{变量名}},{{变量名.子变量名}},{{变量名}}的方式引用变量。如果直接引用一个数组类型的变量,默认会用逗号把数组中的内容连接起来,也可以指定只要数组中的某一项。字符串分隔模式下,用特定的分隔符(比如"||"、"////"或"")把一段文字拆分成多个小段。 在阅读导图的插件节点配置中,确定输入时,在输入区,该插件仅需设置{{query_text}}变量,格式是 string 字符串。只需要引用“标题、导语、大纲”节点的{{enTreeMind}}变量即可。
2025-03-26
coze怎么引用变量
在 Coze 中引用变量的方法如下: 1. 对于利用大语言模型生成文本内容的节点,在提示词中支持使用{{variable}}引用输入参数。提示词本身也可通过 Coze 来写,系统做了设定,变量用{{}}包裹,变量名正确时会显示成蓝色。系统提示词和用户提示词大部分情况下差异不大,可把完整逻辑放在系统提示词里,变量相关内容放在用户提示词里。 2. 在变量节点的使用中: 第一步,在 Bot 的页面创建一个变量的名字。 第二步,在工作流中设置变量的值。变量一般在工作流中使用,首先要创建工作流。工作流中的变量节点有给变量设置值和从变量中获取值两个作用。 第三步,在工作流中获取变量的值。 3. 在文本处理节点中,有两种工作模式: 字符串拼接模式:把多段文字按照指定顺序组合成一段完整文字。在这个模式下,可以用{{变量名}},{{变量名.子变量名}},{{变量名}}的方式引用变量。如果直接引用一个数组类型的变量,默认会用逗号把数组中的内容连接起来,也可以指定只要数组中的某一项。 字符串分隔模式:用特定分隔符把一段文字拆分成多个小段。
2025-03-26
如何用coze创建工作流 采集生成视频号内容
以下是使用 Coze 创建工作流采集生成视频号内容的步骤: 1. 安装 Coze Scraper 扩展程序至浏览器,完成安装后可手动采集要上传到扣子知识库的内容。更多关于知识库的内容,详情请参考。 登录。 在左侧菜单栏,选择一个工作区。 在工作区内,单击知识库页签。 创建一个知识库或点击一个已存在的知识库。 在知识库页面,单击新增单元。 在文本格式页签下,选择在线数据,然后单击下一步。 单击手动采集,然后在弹出的页面点击权限授予完成授权。 在弹出的页面输入要采集内容的网址,然后单击确认。 在弹出的页面上,点击页面下方文本标注按钮,开始标注要提取的内容,然后单击文本框上方的文本或链接按钮。 单击查看数据查看已采集的内容,确认无误后再点击完成并采集。 2. 创建工作流: 登录到您的 Coze 账户,导航至个人空间页面。 在个人空间页面上,点击“工作流”按钮,系统会展示之前创建的工作流列表。 在页面的右上角,点击“创建工作流”按钮,打开创建工作流的界面。 在创建工作流的页面上,填写工作流的名称(必须使用英文字符)和描述(一段简洁的文本,帮助模型理解工作流的功能和用途以及触发情境)。 完成必填项后,系统将自动跳转到工作流的编辑页面,其中预设并配置了开始节点和结束节点。开始节点是用户输入内容的起点,结束节点是收尾角色,无论工作流中进行了哪些操作,最终都必须通过结束节点来完成。系统强制要求在工作流的最后步骤中包含结束节点,只有当整个流程的最终动作指向结束节点时,工作流才能够进行试运行和正式发布。 在工作流编辑页面的左侧,有组件库,包括大模型组件(用于执行复杂的数据处理任务)、代码组件(允许运行自定义代码段)、消息组件(用于发送或接收消息)、数据库组件(与数据库交互,执行查询或更新操作)、选择器组件(用于在工作流中进行条件判断和分支选择)。
2025-03-25
WaytoAGI coze 共享空间
WaytoAGI 是一个致力于人工智能(AI)学习的中文知识库和社区平台。 社区介绍: 汇集上千个人工智能网站和工具,提供最新的 AI 工具、应用、智能体和行业资讯。 提供丰富学习资源,包括文章、教程、工具推荐及行业资讯等。 定期组织实践活动,如视频挑战赛、模型创作大赛等。 引领并推广开放共享的知识体系,倡导共学共创,孵化了 AI 春晚、离谱村等大型共创项目。 在没有任何推广的情况下,一年时间已有超过 100 万用户和超千万次的访问量。 目标是让每个人的学习过程少走弯路,让更多的人因 AI 而强大。 目前合作过的公司/产品包括阿里云、通义千问、淘宝、智谱、支付宝、豆包、火山引擎、marscode、coze 等。 从基础案例入门: 三分钟捏 Bot: 登录控制台:登录扣子控制台(coze.cn),使用手机号或抖音注册/登录。 在我的空间创建 Agent:在扣子主页左上角点击“创建 Bot”,选择空间名称为“个人空间”、Bot 名称为“第一个 Bot”并确认。如需使用其他空间,先创建后选择;Bot 名称可自定义。 编写 Prompt:填写 Prompt,即想要创建的 Bot 功能说明,第一次可用简短词语作为提示词。 优化 Prompt:点击“优化”进行优化。 设置开场白及其他环节。 发布到多平台&使用。 进阶之路: 15 分钟:查看其他 Bot 获取灵感。 1 小时:找到和自己兴趣、工作方向等结合的 Bot 深入沟通,阅读相关文章。 一周:了解基础组件,寻找不错的扣子借鉴复制,加入 Agent 共学小组,尝试在群里问第一个问题。 一个月:合理安排时间,参与 WaytoAGI Agent 共学计划,自己创建 Agent 并分享经历心得。 在 WaytoAGI 的支持:包括文档资源、交流群、活动。 此外,大圣提供了胎教级教程:万字长文带你使用 Coze 打造企业级知识库,相关活动及链接如下: coze 官方活动正在进行中奖金丰厚: 参赛作品提交页:https://bytedance.larkoffice.com/share/base/form/shrcnH7yDl3oqOiQeQ2LTFnByXe 渠道选择 WaytoAGI,提交后记录到。 扣子专业版注册链接:https://zjsms.com/iAfQNK4U/ 参考模板:https://www.coze.cn/template 线下路演报名:https://bytedance.larkoffice.com/share/base/form/shrcnhJdt1EZXicuO23kVzeOved 大圣的个人宝藏:
2025-03-25
coze
以下是关于 Coze 的相关信息: 重磅更新:Coze 可以接入抖音评论区,帮您自动回复用户的评论。若想快速上手,可参考视频。若不了解 Coze 是什么,可参考文章。 安装 Coze Scraper: 通过应用商店安装: 1. 打开 Chrome 浏览器。 2. 点击在 Chrome 应用商店中打开 Coze Scrapper 扩展程序。 3. 单击添加至 Chrome。 4. 在弹出的页面,单击添加扩展程序。 本地安装: 1. 单击下载安装包,然后解压下载的文件。 2. 打开 Chrome 浏览器。 3. 在浏览器中输入 chrome://extensions 打开扩展程序页面,确认开发者模式处于打开状态。 4. 点击加载已解压的扩展程序,选择已解压的文件夹。 Coze 记账管家: 什么是 COZE:字节跳动旗下子公司推出的 AI Agent 构建工具,允许用户在无编程知识的基础上,使用自然语言和拖拽等方式构建 Agent;目前 coze 可以白嫖海量的大模型免费使用,有丰富的插件生态。 什么是记账管家:基于 COZE 平台的能力搭建的一个记账应用;您可以直接和 coze 说您今天的收入或者支出情况,coze 会自动帮您记账,同时帮您计算出账户余额。每一笔记账记录都不会丢失,下次来记账管家还记得您的历史记账记录。点击以下卡片体验记账管家。
2025-03-25
有coze硬件的案例吗
以下是一些关于 Coze 硬件的案例: 1. 一泽 Eze:用 Coze 打造 AI 精读专家智能体,复刻 10 万粉公众号的创作生产力。 分步构建和测试 Agent 功能:首先进入 Coze,点击「个人空间工作流创建工作流」,打开创建工作流的弹窗。根据弹窗要求,自定义工作流信息。点击确认后完成工作流的新建。左侧「选择节点」模块中,实际用上的有插件、大模型、代码。按照流程图,在编辑面板中拖入对应的 LLM 大模型、插件、代码节点,即可完成工作流框架的搭建。 2. 90 分钟从 0 开始打造你的第一个 Coze 应用:证件照 2025 年 1 月 18 日副本。 智能纪要:Code AI 应用开发教学,背景是智能体开发从最初的 chatbot 只有对话框,到有了更多交互方式,因用户需求扣子推出了 AI 应用,其低代码或零代码的工作流等场景做得较好。 3. 大雨:【场景驱动】企业的哪些重复性任务,最适合用 Coze 循环节点来解决? 案例展示:出海品牌设计师。早起智能体的逻辑通过工作流承载,比如让 AI 出图以后,希望在它的基础上再修改,直到满意为止,这种情况没有循环节点,整个工作流会非常复杂。从这个案例可以明显感受到,在智能体的交互上,循环节点的出现,带来极大的可能性。部分工作流的截图体现出 Coze 在实际业务场景上,具有非常巨大的商业价值。
2025-03-25
notebookllm
NotebookLM 是谷歌推出的一款工具,具有以下特点和用途: 有人称它为笔记工具,有人说它是 AI 学习工具,还有人认为它是播客生成器。 只要上传文档、音频或感兴趣的网页链接,如 YouTube 等,就能轻松生成专业的播客。播客中两个主持人的对话生动自然,包含各种人类的语气和行为。 是 Google AI Lab 开发的笔记应用,基于 Gemini 1.5 Pro 的长文本理解和多模态能力。用户可通过上传文件或链接快速生成笔记和音频内容,适合教育和研究等场景。尽管产品界面设计一般,但其强大的文本理解能力在处理复杂内容时表现突出。支持协作,适合整理公众号文章、编写书稿等多种用途。 体验地址:https://notebooklm.google/
2025-03-22
notebookllm
NotebookLM 是谷歌推出的一款工具,具有以下特点和用途: 有人称它为笔记工具、AI 学习工具或播客生成器。 只要上传文档、音频或网页链接(如 YouTube 等),就能生成专业的播客,其中主持人对话生动自然,包含各种人类语气和行为。 可以将公众号文章等内容变成双人对谈播客。 是 Google AI Lab 开发的笔记应用,基于 Gemini 1.5 Pro 的长文本理解和多模态能力。 用户可通过上传文件或链接快速生成笔记和音频内容,适合教育和研究等场景。 支持协作,适合整理公众号文章、编写书稿等多种用途。 体验地址:https://notebooklm.google/
2025-02-19
我是一位程序开发小白,不会用代码开发程序。我现在有一台安装Window 11操作系统的笔记本电脑,配置为14代i7CPU、32G内存、1TB硬盘、1张RTX4070显卡。我想部署一套本地的大模型+智能体+知识库。我要怎么样才能实现无代码部署,请列出详细的安装步骤。
以下是为您提供的无代码部署本地大模型、智能体和知识库的详细安装步骤: 1. 硬件评估:您的笔记本电脑配置为 14 代 i7 CPU、32G 内存、1TB 硬盘、1 张 RTX4070 显卡,基本满足部署要求。但需要注意,运行内存最低 32GB,越高越好,最低配可能会经常爆显存。建议将软件和模型部署在 SSD(固态硬盘)上,以提高加载模型的速度。 2. 选择合适的部署工具:ComfyUI 是一个相对配置要求较低、系统资源占用少、出图速度快的工具。它最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以,但速度极慢。SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。 3. 安装准备:如果您的电脑能顺畅清晰地玩 3A 游戏,那么运行相关部署工具一般也没问题。 4. 预算和需求:根据您的需求和预算来选择合适的配置。例如,如果有做 AIGC 视频、建模渲染和炼丹(lora)的需求,可能需要更高的配置。 请注意,以上步骤仅为参考,实际部署过程可能会因具体情况而有所不同。
2025-03-26
对口型有哪些工具可以实现
以下是一些可以实现对口型的工具: 1. 可灵:目前在线 AI 视频工具里对口型功能比较简单效果又强。使用步骤包括将原图转为 5 秒的视频并延长一次达到 10 秒,从想使用的歌里切出 10 秒片段,使用延长到 10 秒的视频,点击对口型,通过「上传本地配音」来上传刚才切出来的片段。 2. 剪映:可将输入的文本转换成系统自带的各种成品音色。 3. HeyGen:操作简单且支持的时间足够长。步骤为在 Heygen 里上传图片作为 Photo Avatar,点击上传音频,上传自己想使用的歌曲/片段即可。 4. DubbingX:也是一款不错的工具。
2025-03-26
我是一个没有技术背景且对AI感兴趣的互联网产品经理,目标是希望理解AI的实现原理并且能够跟开发算法工程师沟通交流,请给我举出AI模型或者机器学习的分类吧。
以下是 AI 模型和机器学习的分类: 1. AI(人工智能):是一个广泛的概念,旨在使计算机系统能够模拟人类智能。 2. 机器学习:是人工智能的一个子领域,让计算机通过数据学习来提高性能。包括以下几种类型: 监督学习:使用有标签的训练数据,算法学习输入和输出之间的映射关系,包括分类和回归任务。 无监督学习:学习的数据没有标签,算法自主发现规律,经典任务如聚类。 强化学习:从反馈中学习,以最大化奖励或最小化损失,类似训练小狗。 3. 深度学习:是机器学习的一个子领域,模拟人脑创建人工神经网络处理数据,包含多个处理层,在图像识别、语音识别和自然语言处理等任务中表现出色。 4. 大语言模型:是深度学习在自然语言处理领域的应用,目标是理解和生成人类语言,如 ChatGPT、文心一言等。同时具有生成式 AI 的特点,能够生成文本、图像、音频和视频等内容。 2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它基于自注意力机制处理序列数据,不依赖循环神经网络或卷积神经网络。生成式 AI 生成的内容称为 AIGC。
2025-03-26
ten可以安装在电脑里,然后电脑上可以看视频进行实时翻译吗?这个功能可以怎么去实现?
目前 Ten 不太明确是指何种具体的软件或工具。一般来说,如果您想在电脑上实现观看视频实时翻译的功能,可以考虑使用以下几种常见的方法: 1. 利用浏览器插件:例如谷歌浏览器的某些翻译插件,能够在您观看在线视频时提供翻译服务。 2. 专业的翻译软件:部分专业的翻译软件具备屏幕取词和实时翻译视频的功能。 3. 操作系统自带的功能:某些操作系统可能提供了相关的辅助功能来实现类似的效果。 但需要注意的是,不同的方法可能在翻译的准确性、支持的语言种类以及适用的视频平台等方面存在差异。
2025-03-25
我想搭建个人rag知识库,实现本地化部署,可以调用本地大模型去分析知识库的内容进行解答
以下是搭建个人 rag 知识库并实现本地化部署,调用本地大模型分析知识库内容进行解答的详细步骤: 一、通过 Open WebUI 使用大模型 1. 访问相关网址,使用邮箱注册账号。 2. 登陆成功后,Open WebUI 一般有两种使用方式,包括聊天对话和 RAG 能力(让模型根据文档内容回答问题,这是构建知识库的基础之一)。 3. 如果要求不高,此时已搭建本地大模型,并通过 Web UI 实现与大模型对话。ChatGPT 访问速度快且回答效果好的原因在于其服务器配置高、训练参数多、数据更优及训练算法更好。 二、本地知识库进阶 1. 若要更灵活掌控知识库,需使用额外软件 AnythingLLM,其包含 Open WebUI 的所有能力,并额外支持选择文本嵌入模型和向量数据库。 2. 安装地址:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。 3. 在 AnythingLLM 中有 Workspace 的概念,可创建独有 Workspace 与其他项目数据隔离。首先创建工作空间,然后上传文档并在工作空间中进行文本嵌入,选择对话模式(包括 Chat 模式和 Query 模式),最后进行测试对话。 三、RAG 是什么 利用大模型搭建知识库是 RAG 技术的应用。在进行本地知识库搭建实操前,需对 RAG 有大概了解。RAG 应用可抽象为 5 个过程: 1. 文档加载:从多种来源加载文档,LangChain 提供 100 多种不同的文档加载器,包括非结构化、结构化数据及代码等。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或“文档片”。 3. 存储:涉及将切分好的文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。 4. 检索:通过检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示生成更合理的答案。 文本加载器是将用户提供的文本加载到内存中,便于后续处理。
2025-03-25
我需要在一个软件上实现自动化抢单流程,并在抢单成功后自动在软件中添加备注信息。要求是点击频率不能太高。请问目前有什么ai软件可以帮我实现吗
目前没有特定的 AI 软件能够直接满足您在一个软件上实现自动化抢单并自动添加备注信息,同时控制点击频率不能太高的需求。通常这类需求可能需要通过编程和定制化开发来实现,利用相关的编程语言和工具,根据具体软件的接口和规则进行开发。
2025-03-24