Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

有哪些入门级的搭建工作流术语

Answer

以下是一些入门级的搭建工作流术语及相关内容:

  • 在典型应用场景中,入门级场景可能仅添加一个节点来构建简单工作流。例如,使用获取新闻插件构建一个获取新闻列表的工作流;使用大模型节点接收并处理用户问题等。
  • 端口设置方法:通过神秘代码让所有联网操作应用指定端口,端口号一般在代理选项中,将其填入相关代码,在 CMD 中复制粘贴代码回车,无反应即成功,需安装 Git。
  • 工作流搭建过程:从零开始搭建工作流,如加载 checkpoint loader、prompt 等节点,按颜色连接,未连接会报错,连接后填写提示词即可生成图像。
  • 工作流原理讲解:以做菜为例,空的 latent 是锅,代表图片大小;模型是食材,正反向提示词是菜谱,VE 是调料,按颜色连接各部分。
  • 使用他人工作流:从工作流网站下载 json 文件,拖入相关界面,若有爆红说明有节点未安装,可在 manager 中安装缺失节点。
  • 工作流本地与在线使用方法:介绍了工作流在本地和在线的使用步骤,如安装、处理报错、放置模型文件等。
  • 解决工作流依赖冲突:讲解了通过修改 cast NODE 里的 requirements 来解决依赖冲突的方法。
  • 网页版工具的使用:指出很多工具都有网页版,本地没有工具时可用网页版。

涉及的应用领域包括大摩托车商业应用、学会 AI 工具、自主搭建工作流、生图制作、视频制作、AI 设计创作、3D 动画、建筑方案图、个人应用、人物一致性出视频、设计工作流、各种实践应用、工作流的设计思路、家装和游戏设计、商业和生活、娱乐、综合应用、实现个人想法、游戏美术全流程等。

Content generated by AI large model, please carefully verify (powered by aily)

References

|大摩托车||商业应用||-|-|-||流云||学会AI工具,赶上时代||Mr.X||自主搭建工作流||辉||想做批量,可以省人工成本,框架式的效果,应用于生图,制作视频||Luke||生图为主,给自己叠技能buff,最后希望落地变现||秦箫||视频||赫||Ai设计创作||赛博娜娜||3D动画||水御舟(琪)||建筑方案图||老王||个人||Dade||人物一致性,出视频||ice(发光版)||设计工作流,希望给工作上、生活助力。||醒不醒还行哈||出图、做视频等各种实践应用||三六||工作流的设计思路||爱思考的乌鸦||做视频||Vivi||家装、游戏设计||sunkey||商业和生活||Mar1us||娱乐||蜂老六||综合应用||维纳Vina||实现一些个人的想法||比莉||游戏美术全流程|

蓝衣剑客:四万字长文带你通学扣子

在典型应用场景中,入门级场景可能仅添加一个节点来构建简单工作流。例如,使用获取新闻插件构建一个获取新闻列表的工作流;使用大模型节点接收并处理用户问题等。更进阶的场景则通过多个节点组合构建逻辑较复杂的工作流。例如,在搜索并获取指定信息详情的场景中,先通过插件能力进行关键词搜索、然后通过代码节点过滤指定信息、最后通过插件能力获取信息详情;或者在通过条件判断识别用户意图的场景中,通过大模型节点处理用户消息,并将消息分类后通过条件节点分别处理不同类型的消息。这些详细配置教程提供了实际操作指南以帮助理解和应用各种功能。

娜乌斯嘉AIGC商业片制作 2024年11月1日 - 智能纪要

[heading2]总结关于工作流搭建及相关操作的讲解端口设置方法:通过神秘代码让所有联网操作应用指定端口,端口号一般在代理选项中,将其填入相关代码,在CMD中复制粘贴代码回车,无反应即成功,需安装Git。工作流搭建过程:从零开始搭建工作流,如加载checkpoint loader、prompt等节点,按颜色连接,未连接会报错,连接后填写提示词即可生成图像。工作流原理讲解:以做菜为例,空的latent是锅,代表图片大小;模型是食材,正反向提示词是菜谱,VE是调料,按颜色连接各部分。使用他人工作流:从工作流网站下载json文件,拖入相关界面,若有爆红说明有节点未安装,可在manager中安装缺失节点。工作流使用与视频创作活动工作流本地与在线使用方法:介绍了工作流在本地和在线的使用步骤,如安装、处理报错、放置模型文件等。视频创作活动及奖励:提及了Hyper的video battle视频挑战赛和伊利的视频生态创新大赛,包括活动主题、要求和丰厚奖励。解决工作流依赖冲突:讲解了通过修改cast NODE里的requirements来解决依赖冲突的方法。网页版工具的使用:指出很多工具都有网页版,本地没有工具时可用网页版。

Others are asking
入门级介绍
以下是关于入门级的介绍: 在 AI 产品经理方面,入门级能通过 WaytoAGI 等开源网站或一些课程了解 AI 的概念,使用 AI 产品并尝试动手实践应用搭建,对应的画像可能是喜欢听小宇宙 APP 的播客或浏览 AI 相关的文章。 在搭建微信机器人方面,入门级如 Stuart 的教程,教你用最简单的方式搭建微信机器人,网速好的话一个小时能搞定。
2025-03-20
物流公司信息系统管理员给同事讲解大模型入门级使用,帮忙推荐一些经验
以下是为物流公司信息系统管理员推荐的大模型入门经验: 一、什么是大模型 通俗来讲,大模型是通过输入大量语料,让计算机获得类似人类的“思考”能力,能够理解自然语言,并进行文本生成、推理问答、对话、文档摘要等工作。 可以用“上学参加工作”这件事来类比大模型的训练和使用过程: 1. 找学校:训练大模型需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练自己的大模型。 2. 确定教材:大模型需要的数据量特别多,几千亿序列(Token)的输入基本是标配。 3. 找老师:即用合适的算法讲述“书本”中的内容,让大模型能够更好理解 Token 之间的关系。 4. 就业指导:为了让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,正式干活,比如进行翻译、问答等,在大模型里称之为推导(infer)。 在大模型中,Token 被视为模型处理和生成的文本单位,可以代表单个字符、单词、子单词,甚至更大的语言单位,具体取决于所使用的分词方法(Tokenization)。Token 是原始文本数据与大模型可以使用的数字表示之间的桥梁。在将输入进行分词时,会对其进行数字化,形成一个词汇表。 二、数字化与 Embedding 数字化便于计算机处理,但为了让计算机理解 Token 之间的联系,还需要把 Token 表示成稠密矩阵向量,这个过程称之为 embedding。常见的算法有: 1. 基于统计: Word2Vec,通过上下文统计信息学习词向量。 GloVe,基于词共现统计信息学习词向量。 2. 基于深度网络: CNN,使用卷积网络获得图像或文本向量。 RNN/LSTM,利用序列模型获得文本向量。 3. 基于神经网络: BERT,基于 Transformer 和掩码语言建模(Masked LM)进行词向量预训练。 Doc2Vec,使用神经网络获得文本序列的向量。 以 Transform 为代表的大模型采用自注意力(Selfattention)机制来学习不同 token 之间的依赖关系,生成高质量 embedding。 大模型的“大”,指的是用于表达 token 之间关系的参数多,主要是指模型中的权重(weight)与偏置(bias),例如 GPT3 拥有 1750 亿参数,其中权重数量达到了这一量级,而词汇表 token 数只有 5 万左右。 参考:
2025-02-11
可以介绍下AGI的知识体系吗,从入门级开始
以下是为您介绍的 AGI 知识体系入门级内容: 首先,推荐您从以下几个方面开始了解: 1. 记忆相关基础知识,如 AI 的历史、基本术语、重要人物、方法和原理等。您可以通过以下链接获取详细信息: 其次,您可以先试用提示词练手,参加相关的 battle 活动,如 prompt battle、video battle 等,与大神交流。还可以关注最新活动,如 AI 春晚、AIPO 项目等,感兴趣的话可以报名参与执行导演、平面设计、商务统筹或运营等工作。 另外,“通往 AGI 之路”不仅是开源的 AI 知识库,更是连接 AI 学习者、实践者、创新者的社区,基于无边界组织完成了 AI 春晚、“离谱村”短片等共创项目。 市面上的【野菩萨的 AIGC 资深课】由工信部下属单位【人民邮电出版社】开设,是为数不多的值得推荐的 AI 课程之一,也是全网技术更新最快的课程!课程内容涵盖 AI 绘画、视听语言和 ChatGPT 等多个体系的知识。无论您是 AI 初学者还是进阶者,这门课程都能满足您的学习需求。您可以扫码添加菩萨老师助理,了解更多信息。
2024-11-23
搭建可以自主决策规划和行动的agent
搭建可以自主决策规划和行动的 agent 通常涉及以下几个方面: 一、Agent 的概念 Agent 是一种能够在环境中自主感知、思考并采取行动的实体。可以将其想象成一个具有特定目标和行为能力的智能角色,能根据环境变化做出相应决策和反应。 二、LLM Agent LLM Agent 是结合大型语言模型(LLM)和自主智能体(Agent)特性的系统,能够利用大型语言模型的自然语言处理能力,理解用户输入,并在此基础上进行智能决策和行动。 三、LLM Agent 的组成部分 1. 规划(Planning) 定义:规划是 Agent 的思维模型,负责将复杂任务分解成可执行的子任务,并评估这些子任务的执行策略。 实现方式:通过使用大型语言模型的提示工程(如 ReAct、CoT 推理模式)来实现精准任务拆解和分步解决。 2. 记忆(Memory) 定义:记忆即信息存储与回忆,包括短期记忆和长期记忆。 实现方式:短期记忆用于存储对话上下文,支持多轮对话;长期记忆存储用户特征和业务数据,通常通过向量数据库等技术实现快速存取。 3. 工具(Tools) 定义:工具是 Agent 感知环境、执行决策的辅助手段,如 API 调用、插件扩展等。 实现方式:通过接入外部工具(如 API、插件)扩展 Agent 的能力,例如使用插件解析文档、生成图像等。 4. 行动(Action) 定义:行动是 Agent 将规划和记忆转换为具体输出的过程,包括与外部环境的互动或工具调用。 实现方式:根据规划和记忆执行具体行动,如智能客服回复、查询天气预报、AI 机器人抓起物体等。 四、Anthropic 的建议 随着 LLM 在几个关键能力上的成熟,如理解复杂输入、进行推理和规划、可靠使用工具以及从错误中恢复,智能体开始在生产环境中涌现。智能体通过与人类用户的命令或交互式对话开始工作。一旦任务明确,智能体就会独立进行规划和操作,必要时会向人类寻求更多信息或判断。 在执行过程中,智能体需要在每个步骤从环境中获取“基准事实”(如工具调用结果或代码执行情况)以评估其进展。智能体可以在检查点或遇到障碍时暂停等待人类反馈。任务通常在完成时终止,但也常常包含停止条件(如最大迭代次数)以保持控制。 智能体适用于难以或无法预测所需步骤数量的开放性问题,且无法硬编码固定路径的场景。但智能体的自主性意味着更高的成本和潜在的错误累积。建议在沙盒环境中进行广泛测试,并设置适当的防护措施。 五、实例探究 Generative Agents 是一个有趣的实验,其中 25 个虚拟角色,每个角色都由 LLM 支持的 Agents 控制,在沙盒环境中生活和交互,其灵感来自《模拟人生》。生成 Agents 的设计将 LLM 与记忆、规划和反射机制相结合,使 Agents 能够根据过去的经验进行行为,并与其他 Agents 进行交互。 记忆流是一个长期记忆模块(外部数据库),用自然语言记录智能体经验的完整列表。检索模型会根据相关性、新近度和重要性,呈现上下文以告知 Agents 的行为。反射机制随着时间的推移将记忆合成更高层次的推论,并指导智能体未来的行为。规划与反应将反思和环境信息转化为行动,规划本质上是为了优化当前与时间的可信度。
2025-03-21
搭建个人知识库
搭建个人知识库主要包括以下几个方面: RAG 技术: 利用大模型的能力搭建知识库是 RAG 技术的应用。在进行本地知识库搭建实操前,需先了解 RAG。大模型训练数据有截止日期,当需要依靠不在训练集中的数据时,主要通过检索增强生成 RAG 实现。RAG 应用包括文档加载(从多种来源加载文档,如 PDF 等)、文本分割(把文档切分为指定大小的块)、存储(将切分好的文档块嵌入并转换为向量形式存储到向量数据库)、检索(通过检索算法找到与输入问题相似的嵌入片)、输出(把问题及检索出的嵌入片提交给 LLM 生成答案)。 基于 GPT API 搭建: 涉及给 GPT 输入定制化知识,但 GPT3.5 一次交互支持的 Token 有限。为处理大量领域知识,OpenAI 提供了 embedding API 解决方案。embeddings 是浮点数字的向量,向量间距离衡量关联性,小距离表示高关联度。 本地知识库进阶: 若要更灵活掌控知识库,可使用额外软件 AnythingLLM,其包含 Open WebUI 的能力并额外支持选择文本嵌入模型和向量数据库。安装地址为 https://useanything.com/download ,安装完成后进入配置页面,主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。AnythingLLM 中有 Workspace 概念,可创建独有 Workspace 与其他项目数据隔离,包括创建工作空间、上传文档并嵌入、选择对话模式(Chat 模式综合给出答案,Query 模式仅依靠文档数据),配置完成后可进行测试对话。
2025-03-21
怎么搭建小程序AI平台
搭建小程序 AI 平台可以参考以下步骤: 1. 在扣子平台搭建: 创建一个 Bot: 系统默认创建个人团队,团队内创建的资源无法分享给其他成员,也可创建或加入其他团队,更多信息参考。 进入团队空间后,默认打开 Bots 页面。 在 Bots 页面,单击创建 Bot。 输入 Bot 名称和介绍,然后单击图标旁边的生成图标,自动生成一个头像,最后单击确认。 编写提示词:在 Bot 配置页面的人设与回复逻辑面板中输入内容,提示越清晰越好,可单击优化让大语言模型优化为结构化内容,更多详细信息参考。 2. 零基础模板化搭建 AI 微信聊天机器人: 容器编排模板是一种配置文件,定义了如何在 Docker 中部署和管理多个容器。通过编排模板,您可以一键部署复杂的应用环境,而不需要手动配置每个容器的细节。 配置多个前缀(如“bot”、“@bot”)可以确保只有在特定情况下机器人才会回复,避免在群聊或私聊中频繁干扰。 如果扫码登录失败,可以尝试以下步骤: 重启 Docker 容器:在宝塔面板中找到对应的容器,点击“重启”。 检查网络连接:确保服务器和微信客户端都能正常访问互联网。 重新扫描二维码:等待容器重新启动后,重新扫描日志中生成的二维码。 极简未来平台的收费按使用量计算,对于一般用户来说费用相对低廉,还提供每天签到免费领取积分的福利。 3. 安仔:不用黑魔法,小白也能做一个对接 GPT 大模型的微信聊天机器人: 配置极简未来(Link.AI)平台:按照官方教程走,补充学习:https://docs.linkai.tech/platform/quickstart 。 生成 API Key 用于后续功能对接:地址为 https://linkai.tech/console/interface ,点击创建 API Key 并记住。
2025-03-20
搭建agent
以下是关于搭建 Agent 的相关信息: 在 Coze 上搭建工作流框架,设定每个节点的逻辑关系: 首先进入 Coze,点击「个人空间工作流创建工作流」,打开创建工作流的弹窗。 根据弹窗要求,自定义工作流信息。 点击确认后完成工作流的新建,可以看到整个编辑视图与功能。 左侧「选择节点」模块中,根据子任务需要,实际用上的有: 插件:提供一系列能力工具,拓展 Agent 的能力边界。 大模型:调用 LLM,实现各项文本内容的生成。 代码:支持编写简单的 Python、JS 脚本,对数据进行处理。 编辑面板中的开始节点、结束节点,分别对应分解子任务流程图中的原文输入和结果输出环节。 按照流程图,在编辑面板中拖入对应的 LLM 大模型、插件、代码节点,即可完成工作流框架的搭建。 搭建工作流驱动的 Agent 的步骤: 规划:制定任务的关键方法,包括总结任务目标与执行形式,将任务分解为可管理的子任务,确立逻辑顺序和依赖关系,设计每个子任务的执行方法。 实施:分步构建和测试 Agent 功能,在 Coze 上搭建工作流框架,设定每个节点的逻辑关系,详细配置子任务节点,并验证每个子任务的可用性。 完善:全面评估并优化 Agent 效果,整体试运行 Agent,识别功能和性能的卡点,通过反复测试和迭代,优化至达到预期水平。 一些 Agent 构建平台: Coze:新一代的一站式 AI Bot 开发平台,集成丰富插件工具,适用于构建各类问答 Bot。 Mircosoft 的 Copilot Studio:主要功能包括外挂数据、定义流程、调用 API 和操作,以及将 Copilot 部署到各种渠道。 文心智能体:百度推出的基于文心大模型的智能体平台,支持开发者打造产品能力。 MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识,以及访问第三方数据和服务或执行工作流。 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于多种场景,提供多种成熟模板。 钉钉 AI 超级助理:依托钉钉强大的场景和数据优势,在处理高频工作场景方面表现出色。
2025-03-19
企业内自主搭建RAG应该怎么做?
企业内自主搭建 RAG 可以参考以下步骤: 1. 导入依赖库:加载所需的库和模块,如 feedparse 用于解析 RSS 订阅源,ollama 用于在 python 程序中跑大模型,使用前需确保 ollama 服务已开启并下载好模型。 2. 从订阅源获取内容:通过特定函数从指定的 RSS 订阅 url 提取内容,若需接收多个 url 可稍作改动。然后用专门的文本拆分器将长文本拆分成较小的块,并附带相关元数据,如标题、发布日期和链接,最终合并成列表返回,用于后续处理或提取。 3. 为文档内容生成向量:使用文本向量模型 bgem3,从 hf 下载好模型后放置在指定路径,通过函数利用 FAISS 创建高效的向量存储。 同时,企业在构建有效的 RAG 系统时,需要考虑以下因素: 1. 数据安全性:若有需求,需私有化部署,并考虑硬件成本。 2. 数据集的复杂度和数量级:复杂数据集会带来高昂的文档清洗、解析和分割成本,大数据量级会带来存储成本上升。 3. 回答质量的要求:对回答质量要求越高,需要越复杂的检索算法以及更强大的 LLM,会带来算力成本。 4. 数据的更新频率:频繁的数据更新可能需要高昂的维护成本。 此外,还需了解 RAG 的相关概念和优势: 1. 大语言模型存在输出结果不可预测、知识有截止日期、无法满足实际业务需求等问题,如知识局限性、幻觉问题、数据安全性等,而 RAG 是解决这些问题的有效方案。 2. RAG 可以让大模型从权威的、预先确定的知识来源中检索、组织相关信息,更好地控制生成的文本输出,用户也能深入了解 LLM 生成最终结果的过程。 3. RAG 可与微调结合使用,RAG 类似于为模型提供教科书,适用于特定的询问或信息检索任务,微调则适用于模型需要复制特定结构、样式或格式的情况。
2025-03-19
我想知道如何用dify搭建rag工作流
要使用 Dify 搭建 RAG 工作流,首先需要在“工程化框架”选择部分了解 Dify 。然后使用 Dify 推出的“工作流”功能将流程设计和提示词进行落地。具体来说,要建立整体工作流程,但此流程可能缺少知识检索环节。您可以通过延申阅读获取更多信息:Dify——工作流:https://docs.dify.ai/v/zhhans/guides/workflow/introduce 。另外,还有案例提到让 Manus 创建一个需要上传文件的 Dify 工作流,如根据上传的多篇文章写一个脱口秀段子,并制作美观、使用简便的网页来使用这个工作流,最后将此工作流的 api 接入进去,各功能与网页 UI 按钮一一对应,直到上线部署可供使用。
2025-03-18
AI术语
以下是一些常见的 AI 术语: Forward Prediction:前向预测 Forward Reaction Prediction:前向反应预测 Fuzzy Logic:模糊逻辑 Fuzzy Neural Networks:模糊神经网络 GaBased Approaches:基于遗传算法的方法 Garbage In, Garbage Out:无用数据入、无用数据出 GasPhase Networks:气相网络 Gaussian Kernels:高斯核 GaussianType Structure Descriptors:高斯型结构描述符 General Intelligence:通用智能 Generalized Gradient Approximation:广义梯度近似 DataDriven Spectral Analysis:数据驱动的光谱分析 DataMining:数据挖掘 Database:数据库 DE Algorithm:差分进化算法 Deeplift:DeepLift 模型 Dendrogram:树状图 Density Functional Theory:密度泛函理论 DensityBased Spatial Clustering Of Applications With Noise:DBSCAN 密度聚类 Descriptor:描述符 DFT Calculations:DFT 计算 Dice Similarity:戴斯相似度 Differential Evolution:差分进化 Parametric Case:有参情况 Parametric Density Estimation:参数密度估计 Parametric Model:参数化模型 Parametric ReLU:参数化修正线性单元/参数化整流线性单元 Parse Tree:解析树 PartOfSpeech Tagging:词性标注 Partial Derivative:偏导数 Partially Observable Markov Decision Processes:部分可观测马尔可夫决策过程 Particle Swarm Optimization:粒子群优化算法 Partition:划分 Partition Function:配分函数
2025-02-18
大模型相关术语中,参数和Token分别指什么?
在大模型相关术语中: 参数:主要指模型中的权重(weight)与偏置(bias),大模型的“大”通常体现在用于表达 token 之间关系的参数数量众多,例如 GPT3 拥有 1750 亿参数,其中权重数量达到了这一量级。 Token:大模型有着自己的语言体系,Token 是其语言体系中的最小单元。人类语言发送给大模型时,会先被转换为大模型的语言,这种转换的基本单位就是 Token。不同厂商的大模型对 Token 的定义可能不同,以中文为例,通常 1 Token 约等于 1 2 个汉字。大模型的收费计算方法以及对输入输出长度的限制,通常都是以 Token 为单位计量的。Token 可以代表单个字符、单词、子单词,甚至更大的语言单位,具体取决于所使用的分词方法(Tokenization),在将输入进行分词时,会对其进行数字化,形成一个词汇表。
2025-02-13
我想要做一个ai工具,针对电子元器件行业,我来提供专业术语翻译的知识库和固定描述语句翻译方法,希望上传中文PDF后,可以下载一个翻译好的PDF,0编程基础应该怎么做呢
对于您这种没有编程基础但想要制作针对电子元器件行业的 AI 工具来实现中文 PDF 上传并下载翻译好的 PDF 的需求,以下是一些建议: 首先,您需要学习一些基本的 AI 概念和技术知识,了解自然语言处理(NLP)的基本原理。 其次,可以考虑使用现有的无代码或低代码 AI 开发平台。这些平台通常具有可视化的界面和易于操作的工具,能够帮助您在不编写代码的情况下构建简单的 AI 应用。 然后,针对您的专业术语翻译需求,需要对电子元器件行业的术语进行系统整理和分类,建立一个清晰的术语库。 同时,确定固定描述语句的翻译规则和方法,并将其转化为可在 AI 工具中应用的逻辑。 在实施过程中,要不断测试和优化您的工具,以确保翻译的准确性和质量。 总之,虽然没有编程基础会增加一定的难度,但通过合理利用现有资源和持续学习,您是有可能实现这个目标的。
2025-01-04
我想要做一个ai工具,针对电子元器件行业,我来提供专业术语翻译的知识库和固定描述语句翻译方法,希望上传中文PDF后,可以下载一个翻译好的PDF
目前针对您想要针对电子元器件行业制作一个能上传中文 PDF 并下载翻译好的 PDF 的 AI 工具的需求,暂时没有相关的现成内容和方法。但您可以考虑以下步骤来实现这一目标: 1. 数据准备:收集和整理电子元器件行业的专业术语、固定描述语句以及对应的翻译,构建一个丰富准确的知识库。 2. 选择合适的技术:例如自然语言处理技术和机器翻译算法,以实现对中文 PDF 的翻译。 3. 开发工具界面:设计一个用户友好的界面,方便用户上传中文 PDF 和下载翻译后的 PDF。 4. 测试和优化:对工具进行充分的测试,根据测试结果不断优化翻译的准确性和工具的性能。 这是一个较为复杂的项目,需要一定的技术和资源投入,但如果成功实现,将为电子元器件行业带来很大的便利。
2025-01-04
Sd文生图的专业术语有哪些
以下是一些关于 SD 文生图的专业术语: 1. 内容型提示词:主要用于描述想要的画面,如“1 个女孩,黑发,长发,校服,向上看,短袖,粉红色的花,户外,白天,蓝色的天空,云,阳光,上身,侧面”。 2. 标准化提示词:例如“,drawing,paintbrush”。 3. 权重:通过括号和特定数值来增加提示词的权重,权重越高在画面中体现越充分,提示词的先后顺序也会影响权重。 4. 反向提示词:告诉 AI 不要的内容,如“NSFw,”。 5. 采样迭代步数:指 AI 绘画去噪的次数,步数越高绘画越清晰,但绘画速度越慢,通常数值控制在 20 40 之间较好。 6. 采样方法:AI 生成图像时的特定算法,常用的有“Euler a;DPM++2S a Karras;DPM++2M Karras;DPM++SDE Karras;DDIM”。 7. 比例:尺寸并非越大越好,模型练图通常按 512x512 的框架绘制,高宽比尽量在这个数值附近。高清修复可放大图像倍率,高宽比主要控制画面比例。
2024-12-16
ai的历史,基本术语,重要人物,方法和原理灯等
以下是关于 AI 的相关知识: AI 的历史: 最初,查尔斯·巴贝奇发明了计算机,用于按照一套明确定义的程序来对数字进行运算。现代计算机虽更先进,但仍遵循相同的受控计算理念。 基本术语: 您可以通过特定链接(https://ywh1bkansf.feishu.cn/wiki/PFXnwBTsEiGwGGk2QQFcdTWrnlb?table=tbltvr7KExCt7Jpw&view=vewjxk9tDu )了解。 重要人物: 相关信息可参考(https://ywh1bkansf.feishu.cn/wiki/PFXnwBTsEiGwGGk2QQFcdTWrnlb?table=tblLtN12KuvP5reO&view=vewuvGBXhd )。 方法和原理: 详情见(https://ywh1bkansf.feishu.cn/wiki/PFXnwBTsEiGwGGk2QQFcdTWrnlb?table=tblolGx2mprs1EQz&view=vewx5ROYtl )。 对于新手学习 AI,建议: 1. 了解 AI 基本概念:阅读「」部分,熟悉术语和基础概念,了解其主要分支及联系,浏览入门文章。 2. 开始 AI 学习之旅:在「」中找到为初学者设计的课程,可通过在线教育平台按自己节奏学习,如 Coursera、edX、Udacity 等,特别推荐李宏毅老师的课程。 3. 选择感兴趣的模块深入学习:AI 领域广泛,比如图像、音乐、视频等,可根据兴趣选择特定模块深入学习。
2024-08-21
我现在想学习AI来为我的工作提供便利,我要如何开始
如果您想通过学习 AI 为工作提供便利,可以从以下几个方面开始: 1. 选择合适的开始方式: 本地部署:如果您的电脑是 M 芯片的 Mac 电脑(Intel 芯片出图速度非常慢,因此不建议)或者 2060Ti 及以上显卡的 Windows 电脑,可以选择本地部署。强烈建议在配有 N 卡的 Windows 电脑上进行。 在线平台:对于电脑不符合要求的小伙伴可以直接使用在线工具,在线工具分为在线出图和云电脑两种,前者功能可能会受限、后者需要自己手动部署,大家根据实际情况选择即可。 配台电脑:非常不建议一上来就配主机,因为大概率会变成游戏机或者吃灰(土豪请随意)。玩几个月后还对 AI 有兴趣的话再考虑配个主机。主机硬盘要大,显卡预算之内买最好,其他的随意。 2. 学习相关课程: 先验经验:需要熟练使用文生图、图生图;需要有一定的逻辑思考能力以及推理能力;适合炼丹新人、小白。 课程安排:课程大约 7080%是理论和方法论的内容,大部分练习会在课外跟大家沟通、练习。只有少部分必要内容会在课上演示。 3. 明确学习路径: 了解 AI 基本概念:建议阅读「」部分,熟悉 AI 的术语和基础概念。了解什么是人工智能,它的主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。浏览入门文章,这些文章通常会介绍 AI 的历史、当前的应用和未来的发展趋势。 开始学习之旅:在「」中,您将找到一系列为初学者设计的课程。这些课程将引导您了解生成式 AI 等基础知识,特别推荐李宏毅老师的课程。通过在线教育平台(如 Coursera、edX、Udacity)上的课程,您可以按照自己的节奏学习,并有机会获得证书。 选择感兴趣的模块深入学习:AI 领域广泛(比如图像、音乐、视频等),您可以根据自己的兴趣选择特定的模块进行深入学习。建议您一定要掌握提示词的技巧,它上手容易且很有用。 实践和尝试:理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 体验 AI 产品:与现有的 AI 产品进行互动是学习 AI 的另一种有效方式。尝试使用如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。通过与这些 AI 产品的对话,您可以获得对 AI 在实际应用中表现的第一手体验,并激发您对 AI 潜力的认识。
2025-03-23
什么是Transformer,它的工作流程是什么样
Transformer 是一种在自然语言处理中广泛应用的模型,其工作流程如下: 1. 输入嵌入(Input Embeddings):将每个单词映射为一个向量,即单词嵌入(word embeddings)。例如,“I”映射为一个 512 维的向量。 2. 位置编码(Positional Encodings):由于 Transformer 没有递归或卷积等捕获序列顺序的结构,所以需要给每个词位置加上位置编码,使模型知道词语的相对位置。 3. 编码器(Encoder):输入序列的嵌入向量和位置编码相加后被送入编码器层。编码器由多个相同的层组成,每层有两个核心部分: 多头注意力机制(MultiHead Attention):捕捉单词间的依赖关系。 前馈神经网络(FeedForward NN):对 attention 的结果进行进一步编码。 4. 解码器(Decoder):编码器的输出被送入解码器层。解码器也是由多个相同层组成,每层除了编码器组件外,还有一个额外的注意力模块,对编码器的输出序列建模依赖关系。 5. 输出嵌入(Output Embeddings):解码器最后一层的输出被映射为输出单词概率分布。例如生成单词“我”“是”等概率。 6. 生成(Generation):基于概率分布,以贪婪或 beam search 等解码策略生成完整的输出序列。 注意力机制是 Transformer 最关键的创新,允许模型捕获长距离依赖关系。多头注意力可并行计算,因此高效。残差连接和层归一化则有助于优化网络。整体上,Transformer 无递归和卷积结构,计算并行化程度高,更适合并行加速。 位置编码方面,Transformer 通过一种称为位置编码的创新方法绕过了语序理解的障碍。其思路是将输入序列中的所有单词(如一个英语句子)在每个单词后面加上一个数字,表明它的顺序。从概念上讲,把理解语序的重担从神经网络的结构转移到数据本身。起初,在对 Transformer 进行任何数据训练之前,它并不知道如何解释这些位置编码。但是随着模型看到越来越多的句子和它们的编码,它学会了如何有效地使用它们。最初的作者使用正弦函数来进行位置编码,而不是简单的整数 1、2、3、4,但要点是相同的。将语序存储为数据,而不是靠网络结构,这样神经网络就更容易训练了。
2025-03-21
请预测,随着国内AI水平的发展,2030年,可能会代替多少打工人的工作?
根据现有资料,关于 2030 年国内 AI 发展可能替代打工人工作的数量,不同的研究和观点有所不同。 咨询公司麦肯锡发布最新预测:截止到 2030 年时,50%工作将被 AI 取代。吴恩达认为 2023 年 AI 将会替代 4 亿 8 亿工作岗位,同时 AI 会增加 5.55 8.90 亿新岗位。总体而言,越具体、重复性高的工作越容易被取代,而灵活、非常规、创造性的岗位更难被取代。 需要注意的是,对于 AI 对就业的影响,还需要综合更多因素进行辩证看待。
2025-03-21
如何将coze工作流大模型输出内容变成格式化的文本
要将 Coze 工作流大模型输出内容变成格式化的文本,可以按照以下步骤进行: 1. 大模型批量总结文章内容: 模型选择:默认的豆包 32k 通常够用,若担心上下文长度不足,可选择更大的模型,如 kimi128k。 配置参数:选择批处理,批处理输入参数包括第 9 步中读取的文章内容正文、第 8 步代码处理后的 url 链接和标题。下方的输入参数有四个,分别是 content 正文、title 标题、url 文章链接、author 作者。提示词输入相关内容,将这四部分一起送给大模型进行总结,最终拼接成 markdown 格式输出。 2. 汇总格式化最终输出内容:使用代码节点,将大模型输出的内容进行最终输出的格式化。参数配置方面,输入选择上一步输出的 outputList,点击「在 IDE 中编辑」,选择『Python』,输入相应代码,配置输出项为 result。 3. 公众号总结推送到微信:此节点根据 Server 酱的 API 文档,使用自建插件。主要功能是把上一步格式化好的内容推送到用户的微信上。输出配置包括:title 为汇总公众号总结页面的标题,参数值选择「输入」并起名;desp 为页面主体内容,选择上一步最终输出内容;key 引用开始节点的 key。 在循环节点方面: 1. 关于如何将文本内容转为数组:循环节点中的循环数组参数必须引用上游节点的输出参数,且参数类型为数组类型。大模型、代码等节点均支持数组格式的输出参数。若只能拿到文本格式的内容,可通过代码节点将其转为数组格式。例如在长文总结场景下,使用 LinkReaderPlugin 插件提取 PDF 内容,其输出参数 pdf_content 为 String 类型,可通过代码节点转为数组类型。还可在大模型节点通过提示词和示例让大模型直接输出数组,或使用文本处理(文本分隔)。 2. 关于如何结束循环:循环节点模式不同,结束循环的方式不同。使用数组循环时,循环节点依次对数组中的元素执行处理后自动结束并跳出循环。指定循环次数时,循环节点执行指定次数后会自动终止循环。无限循环可通过终止循环节点停止循环,条件判断节点判断某个条件成立时,流转到终止循环节点,自动跳出循环。 3. 关于如何在循环体中插入节点:选中循环体时,才能向循环体中添加新节点,或拖入新节点至循环体画布。不支持将循环体外部的节点拖动至循环体内,循环体中的节点也不可移动到循环体之外。 在大模型节点配置方面: 输入与输出的变量名称可自定义,按习惯设定以便识别字段含义。 输入:直接引用开始节点中用户输入的{{BOT_USER_INPUT}}。 提示词区域:需要两个双花括号写明需要使用的输入项参数名,如{{input}}。 输出:有几项子内容需要生成,就设置几项。为让大模型理解最终输出的形式要求,在用户提示词最后添加输出格式段落,描述每个变量名称、输出内容、输出格式,且务必注意前后完全一致,否则会输出失败。
2025-03-21
扣子工作流教程
以下是一些关于扣子工作流的教程资源: 视频:【Agent 共学第二期】艾木分享|这也许是你一生中第一个 Bot,链接:https://www.bilibili.com/video/BV1XT421i7jH/ 视频:一步一步带你手搓一个 Coze Bot——Dr.Know(极简版 Perplexity),链接:https://www.bilibili.com/video/av1005221752 扣子工作流实战案例教程,手把手教你搭建一个图书管理工作流,链接:https://mp.weixin.qq.com/s/Fh3Vm3EDSzoYVxf91GcMMA 使用扣子 Coze 创建 AI 绘画工作流,链接:https://mp.weixin.qq.com/s/d_6yST8JXKf1Tr6JgBPFg 奶奶也学得会的 AI 工作流,省时省力下班早!,链接:https://mp.weixin.qq.com/s/bXC8DHzs5_OgPh3FtKhJZA 中文 GPTS 使用秘籍,字节扣子 Coze 工作流使用全教程,链接:https://zhuanlan.zhihu.com/p/682108709 Workflow 实践|使用 coze 复现一个 AIGC 信息检索 Bot,链接:https://mp.weixin.qq.com/s/PFgjRq7XcTcqog1gLyFqA AI 自动获取 B 站视频摘要信息,链接:https://mp.weixin.qq.com/s/x8lwvlomhFNLZl__qYuDww 如何用 Coze 制作一个信息检索 Bot(含 Workflow 的基础用法),链接:https://mp.weixin.qq.com/s/Ory8iVXXjjN3zSTcupPm6Q Stuart:教你用 coze 写起点爆款小说《夜无疆》,做到高中生文笔水平,链接:https://waytoagi.feishu.cn/wiki/LRskwrJkli3CgkkY06xcC3HanBh?from=from_copylink Stuart:我把 Coze 比赛第一的 bot 拆了教大家,链接:https://waytoagi.feishu.cn/wiki/Qt8Bwgl3PihQNukO7PjcmeuJnJg?from=from_copylink 画小二:用 Coze 工作流制作行业简报:实战案例画小二日报,链接:https://waytoagi.feishu.cn/wiki/HmIhwt1IkiIAzok73rDcgG7fnQg?from=from_copylink 画小二:Coze 工作流之抖音热门视频转小红书图文详细配置,链接:https://waytoagi.feishu.cn/wiki/MV7gw298TiBajFkSrFeceYRMnXc?from=from_copylink 扣子版虚拟女友李思思的思路,链接:https://waytoagi.feishu.cn/wiki/O9M4w66fxiElylkBkCRcP6jLnsg?from=from_copylink 视频:扣子(coze)系列教程(四):工作流中各节点常用使用方式,链接:https://www.bilibili.com/video/BV1ux4y1J761/ 视频:Coze 工作流的手把手教程,让你的 Bot 高质量的处理复杂任务!,链接:https://www.bilibili.com/video/BV1PZ421g7xT/ 此外,还有关于白嫖 Groq 平台算力并接入扣子工作流的教程: 此时我们有了代理服务器和 APIKEY,落地使用的例子包括通过扣子工作流用代码模块进行 HTTP 访问实现 0 token 脱离扣子模型使用 Groq 作为 LLM,可参考梦飞大佬教程将扣子接入微信机器人(有微信封号风险)。 由于 Groq 的 API 与 OpenAI 的 API 几乎兼容,可以适配到任何 APP 产品填 APIKEY 调用的场景,如沉浸式翻译。 接入手机类 APP,比如通过快捷方式接入 Siri。 扣子工作流的搭建细节请移步 WaytoAGI 自学。 建立工作流只需一个代码节点,具体操作包括复制代码进入代码节点,配置输入引用和输出等。 可以建立一个 Bot 仅调用该工作流,建议不要发布,以免 Deno 代理流量被他人使用。
2025-03-21
AI能对内审工作提供什么帮助
AI 能为内审工作提供以下帮助: 1. 代码审查方面: AI Review 功能可查看代码库中的最近更改以捕获潜在错误。您可以单击审阅项查看编辑器中的完整上下文,并与 AI 聊天获取更多信息。 为 AI 提供自定义说明,使其专注于特定方面,如性能相关问题。 提供多种审核选项,如审查工作状态、审查与主分支的差异、审查上次提交。 2. 法律法规方面: 监管可在解决对公民的危害风险的同时,给予企业解决重要问题的激励,从而增加创新。 国家 AI 战略旨在有效监管 AI 并支持创新,采取相称的、基于情境的监管方法,有助于增强公众信任和增加 AI 的采用。 提出的创新框架旨在为消费者提供使用 AI 产品和服务的信心,并为企业提供投资和负责任创新所需的明确性。 3. 金融服务合规方面: 高效筛查:迅速汇总个体关键信息,帮助合规官员更快判断交易是否存在问题。 更准确预测洗钱者:根据过去的可疑活动报告训练模型,检测新模式并定义洗钱者构成。 更快的文档分析:分析大量文档,标记潜在问题或关注区域。 培训和教育:开发培训材料,模拟真实场景,教育合规官员。 新进入者可利用公开合规数据启动,较大公司受益于多年数据,但需设计隐私功能。生成式 AI 将改变合规作为成本中心的现状。
2025-03-21