Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

vidu有哪些使用场景

Answer

Vidu 的使用场景包括:

  • 动漫创作:具有动漫风格,能实现万物二次元化。
  • 角色控制:可控制角色在任意场景做出任何动作,并保持角色的一致性。
  • 视频生成:能精准理解镜头、文字、动作,生成稳定且质量高的视频,具有影视级的画面和特效,一键直出大片质感。
  • 艺术创想:帮助实现个人的艺术创想,丰富准确的提示词对创作至关重要。
  • 交通领域:如自动驾驶,提高交通安全性和效率;优化交通信号灯和交通流量,缓解交通拥堵。
  • 物流配送:用于优化物流路线和配送计划,降低运输成本,如无人机送货。
  • 教育领域:用于个性化学习,为每个学生提供定制化的学习体验。
  • 农业领域:分析农田数据,提高农作物的产量和质量。
  • 娱乐领域:开发虚拟现实和增强现实体验。
  • 能源领域:优化能源的使用,提高能源效率。

需要注意的是,以上内容由 AI 大模型生成,请仔细甄别。

Content generated by AI large model, please carefully verify (powered by aily)

References

问:请问 AI 有哪些应用场景?

自动驾驶:AI可以用于开发自动驾驶汽车,提高交通安全性和效率。交通管理:AI可以用于优化交通信号灯和交通流量,缓解交通拥堵。物流和配送:AI可以用于优化物流路线和配送计划,降低运输成本。无人机送货:AI可以用于无人机送货,将货物快速送达偏远地区。6.其他应用场景:教育:AI可以用于个性化学习,为每个学生提供定制化的学习体验。农业:AI可以用于分析农田数据,提高农作物的产量和质量。娱乐:AI可以用于开发虚拟现实和增强现实体验。能源:AI可以用于优化能源的使用,提高能源效率。人工智能的应用场景还在不断扩展,未来人工智能将对我们的生活产生更加深远的影响。内容由AI大模型生成,请仔细甄别

视频模型:Vidu

🌎 Vidu全球上线|注册即刻体验🔍 Web端访问:https://www.vidu.studio/⚡️极速生成,实测30秒最快推理速度🤩动漫风格,万物皆可二次元💃🏻角色可控,任意场景、任何动作,角色保持一致🎥精准理解,镜头、文字、动作,理解更准、生成更稳🎬大片质感,影视级画面和特效一键直出🦄 Vidu一下,想象跃然眼前~我们希望Vidu的无限可能,可以帮助实现您的个人艺术创想。为了保证更好地画面效果,丰富而准确的提示词对于将要创作的视频至关重要。本指南提供了基本示例结构、关键词以及风格化提示技巧,以帮助您更好地呈现创意灵感。请谨记,这些示例仅仅只是起点,您可以自由探索和创新,发挥自己天马行空的想象。

Vidu大家测试

🌎 Vidu全球上线|注册即刻体验🔍 Web端访问:https://www.vidu.studio/⚡️极速生成,实测30秒最快推理速度🤩动漫风格,万物皆可二次元💃🏻角色可控,任意场景、任何动作,角色保持一致🎥精准理解,镜头、文字、动作,理解更准、生成更稳🎬大片质感,影视级画面和特效一键直出🦄 Vidu一下,想象跃然眼前~[heading1][Vidu提示词指南](https://pkocx4o26p.feishu.cn/docx/M4[heading1]如何使用“文生视频”?[content][文生.mov](https://bytedance.feishu.cn/space/api/box/stream/download/all/NsCXbzJr4o71E9x7knRckeFmnIe?allow_redirect=1)[heading1]如何使用“图生视频(用作起始帧)”?[content][图生-1.mov](https://bytedance.feishu.cn/space/api/box/stream/download/all/RMCjbWU6NoRccjxJYJncijzSnXb?allow_redirect=1)[heading1]如何使用“参考人物角色生成视频”?[content][图生-2.mov](https://bytedance.feishu.cn/space/api/box/stream/download/all/YFfQbRdw9oCKGXxfvrNcQD6unHf?allow_redirect=1)

Others are asking
vidu如何使用
Vidu 的使用方法如下: 访问 Web 端:https://www.vidu.studio/ 极速生成,实测 30 秒最快推理速度 具有动漫风格,万物皆可二次元 角色可控,任意场景、任何动作,角色保持一致 精准理解,镜头、文字、动作,理解更准、生成更稳 大片质感,影视级画面和特效一键直出 关于如何使用“文生视频”“图生视频(用作起始帧)”“参考人物角色生成视频”,您可以参考以下链接获取相关视频: 为了保证更好地画面效果,丰富而准确的提示词对于将要创作的视频至关重要。本指南提供了基本示例结构、关键词以及风格化提示技巧,以帮助您更好地呈现创意灵感。请谨记,这些示例仅仅只是起点,您可以自由探索和创新,发挥自己天马行空的想象。
2025-01-19
vidu是什么
Vidu 是一款视频模型,已全球上线,注册即可体验。您可以通过 Web 端访问:https://www.vidu.studio/ 。它具有以下特点: 极速生成,实测 30 秒最快推理速度。 动漫风格,万物皆可二次元。 角色可控,任意场景、任何动作,角色保持一致。 精准理解,镜头、文字、动作,理解更准、生成更稳。 大片质感,影视级画面和特效一键直出。 Vidu 还提供了提示词指南,链接为:https://pkocx4o26p.feishu.cn/docx/M4I1dx5fVofxoexn4ELcMfN4nNc?from=from_copylink 。 以“Teddy bear/泰迪熊”为主角进行风格化的效果演示,通过关键词的使用,帮助实现多种电影风格以及拍摄方式的呈现,更好地完成个人的视频生成需求。基础提示词:A melancholic teddy bear,dressed in rugged attire with a widebrimmed hat and a bandolier,gazes at the camera,its lips trembling slightly as it exhales a puff of smoke.The warm glow of its cigarette illuminates its face,casting shadows that emphasize its somber mood.Its paws rest on the porch railing in a relaxed pose,but its button eyes betray a deeper sadness.As it slowly turns its head to the left,its gaze shifts to the distant horizon,lost in thought.The lighting is low,with cool blue tones contrasting the warm light from the cigarette,enhancing the mood of quiet reflection.The setting,a porch with wooden panels and a window behind it,completes the Western ambiance,capturing a moment of introspective solitude amidst the vast,open landscape. 风格化提示词:In classical romantic movie style(电影风格/拍摄方式/媒介),a melancholic teddy bear,dressed in rugged Western attire with a widebrimmed hat and a bandolier,gazes at the camera,its lips trembling slightly as it exhales a puff of smoke.The warm glow of its cigarette illuminates its face,casting shadows that emphasize its somber mood.Its paws rest on the porch railing in a relaxed pose,but its button eyes betray a deeper sadness.As it slowly turns its head to the left,its gaze shifts to the distant horizon,lost in thought.The lighting is soft,with a blend of pink and golden hues from a setting sun,enhancing a romantic atmosphere.The setting,a porch with wooden panels and a window behind it,completes the Western ambiance,capturing a moment of introspective solitude amidst the vast,open landscape.
2024-08-05
中小学AI教育场景 生成式 全息
以下是关于中小学 AI 教育场景生成式的相关内容: 北京市新英才学校在中小学 AI 教育方面进行了积极探索。跨学科项目老师带着学生用 AIGC 做学校地图桌游,英语老师在 AIGC 帮助下备课和授课,生物和信息科技老师合作带着学生训练 AI 模型以识别植物。数字与科学中心 EdTech 跨学科小组组长魏一然深入参与其中。 在英语课上,对于初中以上学生,一开始更多是老师带着使用 AIGC 工具,由学生提出 prompt,老师引导。例如在研究学校食堂食物浪费问题时,老师带着学生与 ChatGPT 对话获取信息,还让 ChatGPT 生成单词解释和例句,加工生词生成题目、游戏或文章帮助学生复习单词。在社交媒体的英语辩论课上,尝试让学生自主使用 AIGC 工具做辩论准备。 教育科技长期以来在有效性和规模之间权衡,而有了 AI 这种状况不再存在。现在可以大规模部署个性化学习计划,为每个用户提供“口袋里的老师”。像 Speak、Quazel、Lingostar 已在做实时交流并给予反馈的语言教学。Photomath、Mathly 指导学生解决数学问题,PeopleAI、Historical Figures 通过模拟与杰出人物聊天教授历史。学生在作业中也利用 Grammarly、Orchard、Lex 等工具提升写作水平,处理其他形式内容的产品如 Tome、Beautiful.ai 协助创建演示文稿。
2025-02-17
AI Agent 或者 工作流, 落地的场景
以下是 AI Agent 或工作流的一些落地场景: Long horizon task 长期任务执行:Agent 能像称职的项目经理,分解大任务为小步骤,保持目标导向并适时调整策略。 多模态理解:Agent 能同时理解文字、图像、声音等多种交流方式,全方位感知世界和任务上下文。 记忆与行动:通过先进的记忆机制,Agent 能积累经验,记住对话、操作步骤和效果,行动更精准高效。 自适应学习:从每次交互中吸取经验,不断完善策略,实现“智慧成长”。 在技术层面,有两条技术路线:以自主决策为核心的 LLM 控制流和以工作流(Workflow)编排为重点的工具集成系统。Anthropic 提出的 MCP(Model Context Protocol)提供了通用接口协议,将外部资源抽象为“上下文提供者”,便于模型与外部世界交互。 工作流驱动的 Agent 搭建,简单情况分为 3 个步骤:规划,包括制定任务关键方法、总结目标与执行形式、分解子任务等;实施,在 Coze 上搭建框架并分步构建和测试功能;完善,全面评估并优化效果。 典型例子如利用 Kimi Chat 进行网页搜索和总结分析。 包括 Agent 自行规划任务执行的工作流路径,适用于简单或线性流程。 多 Agent 协作,如吴恩达通过开源项目 ChatDev 举例,让大语言模型扮演不同角色共同开发应用或复杂程序。 OpenAI 研究主管 Lilian Weng 提出 Agent 的基础架构为“Agent=LLM+规划+记忆+工具使用”,规划包括子目标分解、反思与改进。
2025-02-15
给我5个midjourney确保场景一致性的Sample提示词
以下是 5 个 Midjourney 确保场景一致性的 Sample 提示词: 1. Scifi movie scene. In the silverwhite space environment, from the overtheshoulder lens on the right side of the man with short hair and navy blue jumpsuit, a transparent virtual screen appeared on the wall in front of him. Behind there is the silhouette of another female employee with long blue hair, operating another screen. Rendered in a C4D style inspired by Unreal Engine, with high resolution and rich detail. sref url cref url ar 16:9 style raw sw 30 cw 100 2. In a magical forest, a fairy with colorful wings is sitting on a huge mushroom. The sunlight filters through the leaves, creating dappled patterns on the ground. cref https://my.image.host/fairy.jpg s 800 3. On a sandy beach at sunset, a couple is walking hand in hand, leaving footprints in the sand. The ocean waves crash gently in the background. cref https://my.image.host/couple.jpg ar 9:16 4. In a medieval castle courtyard, a knight in shining armor is training with a sword. The flags are fluttering in the wind. cref https://my.image.host/knight.jpg s 700 5. At a busy city street corner, a street musician is playing a guitar, surrounded by a crowd of people. The buildings are towering in the background. cref https://my.image.host/musician.jpg ar 4:3
2025-02-14
现在个人应用场景下最新的产品是什么
在个人应用场景下,最新的产品包括以下方面: 个人实操案例: 产品使用场景:为本篇文章配图,通过不同提示词生成搞笑图片等。 产品开发场景:搭建 AI 访谈 bot,以了解做 AI 朋友的访谈意愿和产出内容质量水平;对内容推荐机制感兴趣,希望 bot 具备内容推荐能力。实现方案有简单和复杂之分,复杂方案需考虑用户识别、记录存储入库可查看等问题,在扣子搭建 bot 时存在工作流触发不成功导致访谈记录未成功存储入库的情况。由于要发布到公众号作为订阅号助手,目前部署的是扣子版本,回复关键词【元器】可体验元器版本。 AIGC 落地应用: 筛选出 5 大应用场景、17 个细分方向、40+大模型案例。 使用场景分为改善大模型产品的使用体验、助力用户工作流、细分场景独立实用工具、AI 社区、Chatbot 五个方向。 产品形态分为插件(Chat GPT/Chrome 等)、辅助现有产品能力、深度结合 LLM 能力的独立网站&应用、AI 社区四种。目前产品大多分布在 PC 端。
2025-02-11
药品零售上市企业如何接入DeepSeek?应用场景有哪些?
目前没有关于药品零售上市企业接入 DeepSeek 以及其应用场景的相关内容。但一般来说,企业接入新的技术或系统需要进行充分的前期调研和规划。对于药品零售上市企业接入 DeepSeek,可能需要考虑与自身业务流程的匹配度、数据安全和合规性等方面。应用场景可能包括但不限于药品库存管理的优化、客户需求预测、销售趋势分析等,具体还需根据企业的实际情况和 DeepSeek 的功能特点来确定。
2025-02-11
给一段文字和场景描述,如何生成图文
以下是关于根据文字和场景描述生成图文的方法: 对于儿童绘本制作: 描述故事场景:利用 ChatGPT 或者自行构思一段适合画绘本的故事,分为场景 1/2/3/...,用一句包含环境、人物、动作的话描述每个场景。例如,故事名《Lily 的奇妙之旅》,场景 1 是“Lily 来到一个阳光明媚的森林,跳过清澈的小溪,愉快玩耍。在路上结识了一只友善的棕熊,她们成为了旅伴。” 生成场景图片:确定 prompt,包括场景和风格(一套绘本中风格词语不要改变)。为了使得熊和人物有更好的互动感,生成场景时也包括人物主角。如场景 2 的 prompt 是“Walking in a mysterious cave with glittering gems,little girl Lily wearing a yellow floral skirt,her friend brown bear,dim,dreamlike,super high details,HDsmooth,by Jon Burgerman,s 400niji 5style expressivear 3:4”。抠图时,由于只需要得到一张场景图像,使用 mj 的 region vary 工具将小女孩完全框选,在提示词中完全删除 Lily 的描述词,依次得到各个场景的图像。 对于将小说做成视频: 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 此外,还有一些创意工具的操作指引: 文生图:仅需输入文本描述,即可一键生成图片素材。操作指引为输入文本描述(关键词或场景描述等)——选择模型(注意 FLUX 模型不可商用)————开始生成——下载。 AI 翻译:支持多语种文本翻译,翻译结果实时准确。操作指引为输入原始文本——选择翻译的目标语言——开始生成。 TikTok 风格数字人:适配 TikTok 媒体平台的数字人形象上线,100+数字人模板可供选择。操作指引为输入口播文案——选择数字人角色——点击开始生成,视频默认输出语言和输入文案语言保持一致,默认尺寸为 9:16 竖版。 多场景数字人口播配音:支持生成不同场景下(室内、户外、站姿、坐姿等)的数字人口播视频。操作指引为输入口播文案——选择数字人角色和场景——选择输出类型——点击开始生成,视频默认输出语言和输入文案语言保持一致。 音频驱动多场景数字人:支持音频和场景数字人一键合成,快速生成数字人口播视频。操作指引为上传音频链接——选择数字人角色和场景——选择输出类型——点击开始生成,音频文件支持 MP3 和 WAV 格式,文件大小上限 5M。
2025-02-10
你会使用DeepSeek来回答问题吗
DeepSeek 是一款具有独特特点和优势的深度推理模型。其核心是推理型大模型,与指令型大模型不同,不需要用户提供详细步骤指令,而是通过理解用户真实需求和场景来提供答案。它能够理解用户用“人话”表达的需求,无需用户学习特定提示词模板。在回答问题时能够进行深度思考,并非简单罗列信息。还可以模仿不同作家的文风进行写作,适用于多种文体和场景。 DeepSeek R1 不同于先前的普通模型,如 ChatGPT4、Claude 3.5 sonnet、豆包、通义等,它与 OpenAI 现在最先进的模型 o1、o3 同属基于强化学习 RL 的推理模型。在回答用户问题前,R1 会先进行“自问自答”式的推理思考,以提升最终回答的质量。这种“自问自答”并非简单自言自语,而是模拟人类的深度思考。从用户初始问题出发,唤醒所需推理逻辑与知识,进行多步推导,为最终回答提供更完备的思考准备。DeepSeek R1 的“聪明”源于其独特的“教育方式”,在其他 AI 模型还在接受“填鸭式教育”时,它已率先进入“自学成才”新阶段。 更多提示词技巧请查看 。
2025-02-17
有没有lora怎么使用的教程
以下是关于 Lora 使用的教程: 1. 港风胶片 Lora 模型使用方法: 方法 1:利用上一期活动图片反推工作流,使用唯美港风图片进行反推提示词,在大模型后接一个墨悠_胶片 Lora。上一期活动链接:。胶片 Lora 链接:https://www.liblib.art/modelinfo/e16a07d8be544e82b1cd14c37e217119?from=personal_page 方法 2:利用抱脸的 joycaption 图片反推提示词,然后在哩布上跑 flux 文生图工作流。 joycaption 链接(需要魔法):https://huggingface.co/spaces/fancyfeast/joycaptionprealpha 文生图工作流: 在哩布上跑文生图:https://www.liblib.art/modelinfo/e16a07d8be544e82b1cd14c37e217119?from=personal_page 2. Comfyui SDXLLightning 中 Lora 的使用: SDXLLightning 是字节跳动推出的高速文本生成图像模型,包含完整的 UNet 和 LoRA 检查点。用户可以使用 Diffusers 和 ComfyUI 等框架进行配置。模型地址:https://huggingface.co/ByteDance/SDXLLightning/tree/main 。 实际使用时,拿 Lora 的使用来做介绍,使用方法和平常的 Lora 用法一样,但需要注意 CFG 值需要调小,一般设置为 1,另外步数设置根据使用的 Lora 步数为准。 3. Stable Diffusion 中 Lora 的使用: 当想要生成多张同一张脸的照片时,需要用到 Lora 模型。Lora 可以固定照片的特征,如人物特征、动作特征、照片风格。 点击“生成”下面的第三个按钮,弹出新的选项框,找到 Lora,就会出现下载保存到电脑的 Lora 模型。 点击要用的 Lora,会自动添加到关键词的文本框里面。Lora 可以叠加使用,但建议新手不要使用太多 Lora,每个 Lora 后面的数字用于调整权重,一般只会降低权重。 选择 Lora 时,要根据最开始想要生成的照片类型来选择,比如想生成真人模特,对应的 Lora 也要选用真人模特。
2025-02-17
我应该如何使用AI帮助自己的学习?
以下是使用 AI 帮助自己学习的方法: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛(比如图像、音乐、视频等),根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,通过实践巩固知识,尝试使用各种产品做出自己的作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 通过与这些 AI 产品的对话,获得对 AI 在实际应用中表现的第一手体验,并激发对 AI 潜力的认识。 此外,使用 AI 进行英语学习和数学学习可以这样做: 英语学习: 利用 AI 写作助手(如 Grammarly)进行英语写作和语法纠错,改进英语表达和写作能力。 使用语音识别应用(如 Call Annie)进行口语练习和发音纠正,让 AI 提供实时反馈和建议。 使用自适应学习平台(如 Duolingo)利用 AI 技术为您量身定制学习计划,提供个性化的英语学习内容和练习。 利用智能对话机器人(如 ChatGPT)进行英语会话练习和对话模拟,提高交流能力和语感。 数学学习: 使用自适应学习系统(如 Khan Academy)结合 AI 技术为您提供个性化的数学学习路径和练习题,根据您的能力和需求进行精准推荐。 利用智能题库和作业辅助工具(如 Photomath)通过图像识别和数学推理技术为您提供数学问题的解答和解题步骤。 使用虚拟教学助手(如 Socratic)利用 AI 技术为您解答数学问题、提供教学视频和答疑服务,帮助您理解和掌握数学知识。 参与交互式学习平台(如 Wolfram Alpha)的数学学习课程和实践项目,利用 AI 技术进行数学建模和问题求解。 需要注意的是,因为 AI 可能会产生幻觉,所以对于关键数据要根据其他来源仔细检查。同时,内容由 AI 大模型生成,请仔细甄别。
2025-02-17
使用COZE搭建智能体的步骤
使用 COZE 搭建智能体的步骤如下: 1. 梳理手捏 AI Agent 的思路: 在上篇文章中提到过 Prompt 工程的必备能力,即通过逻辑思考,从知识经验中抽象表达出关键方法与要求,这一理念同样适用于在 Coze 中创建 AI Agent。 搭建工作流驱动的 Agent 简单情况可分为 3 个步骤: 规划:制定任务的关键方法,包括总结任务目标与执行形式,将任务分解为可管理的子任务,确立逻辑顺序和依赖关系,设计每个子任务的执行方法。 实施:分步构建和测试 Agent 功能。 完善:全面评估并优化 Agent 效果。 2. 分步构建和测试 Agent 功能: 首先进入 Coze,点击「个人空间 工作流 创建工作流」,打开创建工作流的弹窗。 根据弹窗要求,自定义工作流信息。 点击确认后完成工作流的新建,可以看到整个编辑视图与功能。 其中,左侧「选择节点」模块中,根据子任务需要,实际用上的有: 插件:提供一系列能力工具,拓展 Agent 的能力边界。本案例涉及的思维导图、英文音频,因为无法通过 LLM 生成,就需要依赖插件来实现。 大模型:调用 LLM,实现各项文本内容的生成。本案例的中文翻译、英文大纲、单词注释等都依赖大模型节点。 代码:支持编写简单的 Python、JS 脚本,对数据进行处理。 而编辑面板中的开始节点、结束节点,则分别对应分解子任务流程图中的原文输入和结果输出环节。 接下来,按照流程图,在编辑面板中拖入对应的 LLM 大模型、插件、代码节点,即可完成工作流框架的搭建。 3. 全面评估并优化 Agent 效果: 整体试运行 Agent,识别功能和性能的卡点。 通过反复测试和迭代,优化至达到预期水平。
2025-02-17
使用什么工具搭建智能体
搭建智能体可以使用以下工具和方法: 1. 在品牌卖点提炼中: 按照市场营销逻辑组织智能体结构,包括品牌卖点定义与分类助手、品牌卖点提炼六步法、STP 市场分析助手、用户画像分析助手、触点收集助手等。 还可使用一些未在结构中体现但有效的分析工具,如用户需求分析的 KANO 助手、营销六层转化漏斗分析、超级转化率六要素。 2. 使用 Coze 在微信里搭建机器人: 需要字节旗下的 Coze AI 智能机器人工具。 要有微信公众号订阅号或服务号的管理权。 3. 用扣子搭建智能体: 扣子平台上有多种类型的插件,如看新闻、规划旅行、提高办公效率、理解图片内容等的 API,还可自定义插件。 工作流就像可视化拼图游戏,可将插件、大语言模型、代码块等功能组合,由多个小块块(节点)组成,包括开始和结束的小块块,不同小块块可能需要不同信息才能工作。 还可使用知识库。
2025-02-17
使用飞书机器人(如Coze智能体)自动抓取外部链接(如网页、公众号文章),通过多维表格存储为“稍后读”清单,并自动提取关键信息(标题、摘要、标签)
以下是使用飞书机器人(如 Coze 智能体)自动抓取外部链接(如网页、公众号文章),通过多维表格存储为“稍后读”清单,并自动提取关键信息(标题、摘要、标签)的相关内容: 前期准备: 1. 简化“收集”: 实现跨平台收集功能,支持电脑(web 端)、安卓、iOS 多端操作。 输入一个 URL 即可完成收集,借鉴微信文件传输助手的方式,通过聊天窗口输入更符合用户习惯。 2. 自动化“整理入库”: 系统在入库时自动整理每条内容的关键信息,包括标题、摘要、作者、发布平台、发布日期、收集时间和阅读状态。 阅读清单支持跨平台查看。 3. 智能“选择”推荐: 根据当前收藏记录和用户阅读兴趣进行相关性匹配,生成阅读计划。 使用步骤: 1. 设置稍后读存储地址: 首次使用,访问。 点击「更多创建副本」,然后复制新表格的分享链接。 将新链接发送到智能体对话中。 还可以发送“查询存储位置”、“修改存储位置”来更换飞书多维表格链接,调整稍后读存储位置。 2. 收藏待阅读的页面链接: 在对话中输入需要收藏的页面链接,第一次使用会要求授权共享数据,授权通过后再次输入即可完成收藏。 目前部分页面链接可能小概率保存失败。 3. 智能推荐想看的内容: 在对话中发送“我想看 xx”、“xx 内容”,即可按个人兴趣推荐阅读计划。 通过飞书机器人与 Coze 搭建的智能体进行对话,在聊天窗口中完成链接输入和阅读计划输出,由 Coze 调用大模型、插件完成内容的整理、推荐,利用飞书多维表格存储和管理稍后读数据,理论上无需开发任何插件、APP,就能实现跨平台的稍后读收集与智能阅读计划的推荐。部署完成后,您可以在电脑、手机端通过飞书机器人与稍后读助手进行对话,也可以直接在 Coze 商店中与 bot 进行对话,如果部署到微信服务号、订阅号,还可以通过这些渠道调用 bot。
2025-02-16