直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

有没有关于大模型Lora技术的书籍或文章

回答

以下是一些关于大模型 LoRA 技术的书籍或文章推荐:

  • LoRA:Low-rank adaptation of large language models(2021):这项来自 Microsoft 的研究为在新数据上训练 LLM 提供了一种比微调更有效的替代方案。它现在已经成为社区微调的标准,特别是对于图像模型。
  • 同时提供了 LoRA 微调和全量参数微调代码,关于 LoRA 的详细介绍可以参考论文“LoRA:Low-Rank Adaptation of Large Language Models”以及微软 Github 仓库LoRA
  • 创作方面,在打造虚拟专家时,除了传统的全量训练和 freeze 冻结某些层方式以外,最近发展出了很多种高效的微调方法,其中包括 LoRA 技术。本篇主要采用 LoRA 方式,主要思路就是训练一个参数量较小的分支,然后再与底模合并,从而在模型中注入新的知识。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

进阶:a16z推荐进阶经典

[Retrieval-augmented generation for knowledge-intensive NLP tasks](https://arxiv.org/abs/2005.11401)(2020):由Facebook开发,RAG是通过信息检索提高LLM准确性的两个主要研究路径之一。([博客文章](https://ai.facebook.com/blog/retrieval-augmented-generation-streamlining-the-creation-of-intelligent-natural-language-processing-models/))[Improving language models by retrieving from trillions of tokens](https://arxiv.org/abs/2112.04426)(2021年):RETRO,即“检索增强型TRansfOrmers”,这是另一种由DeepMind提出的通过访问训练数据中未包含的信息来提高LLM准确性的方法。([博客文章](https://www.deepmind.com/blog/improving-language-models-by-retrieving-from-trillions-of-tokens))[LoRA:Low-rank adaptation of large language models](https://arxiv.org/abs/2106.09685)(2021):这项来自Microsoft的研究为在新数据上训练LLM提供了一种比微调更有效的替代方案。它现在已经成为社区微调的标准,特别是对于图像模型。

模型微调

同时提供了LoRA微调和全量参数微调代码,关于LoRA的详细介绍可以参考论文“[LoRA:Low-Rank Adaptation of Large Language Models](https://arxiv.org/abs/2106.09685)”以及微软Github仓库[LoRA](https://github.com/microsoft/LoRA)。

创作:基于百川大模型向微信群大佬们虚心学习

累积了足够的“专业”数据以后,我们就不满足于只采用prompt方式来提取信息,进而可以打造自己的虚拟助手了。目前有两种主流的实现方案,用向量数据库作为仓库,大模型整合信息输出;另一种直接微调训练自己的模型。(不过微调的算力要求比prompt要高很多)除了传统的全量训练和freeze冻结某些层方式以外,最近发展出了很多种高效的微调方法:1.LoRA:LORA:LOW-RANK ADAPTATION OF LARGE LANGUAGE MODELS2.Prefix Tuning:Prefix-Tuning:Optimizing Continuous Prompts for Generation,P-Tuning v2:Prompt Tuning Can Be Comparable to Fine-tuning Universally Across Scales and Tasks3.P-Tuning:GPT Understands,Too4.Prompt Tuning:The Power of Scale for Parameter-Efficient Prompt Tuning5.AdaLoRA:Adaptive Budget Allocation for Parameter-Efficient Fine-Tuning6.(IA)3:Few-Shot Parameter-Efficient Fine-Tuning is Better and Cheaper than In-Context Learning7.MultiTask Prompt Tuning:Multitask Prompt Tuning Enables Parameter-Efficient Transfer Learning本篇主要采用LoRA方式,主要思路就是训练一个参数量较小的分支,然后再与底模合并,从而在模型中注入新的知识。

其他人在问
AI 增量训练 Lora
以下是关于 AI 增量训练 Lora 的相关知识: 参数理解: 1. 学习步数:指 AI 对每张图片的学习次数。二次元图片的 repeat 一般在 10 15,写实人物图片的 repeat 一般在 30 50,真实世界的景观场景可能要达到 100。理论上讲,图片精细度越高,学习步数越高。 2. 循环次数:AI 将所有图片按照学习步数学习一轮为一次循环,循环次数一般在 10 20 之间。次数并非越多越好,过多会导致过拟合,即画什么都和样图一样。 3. 效率设置:主要控制电脑的训练速度。可保持默认值,也可根据电脑显存微调,但要避免显存过载。 总的训练步数为:图片张数×学习步数×循环次数。 此外,沃尔夫勒姆提到人工智能是基于机器学习(通常通过神经网络实现),根据给出的示例进行增量训练,且这些示例包括大量人类生成的科学文本等,或者关于世界上发生的事情的实际经验。
2024-09-13
Lora简单介绍
Lora 全称 LowRank Adaptation Models,即低阶自适应模型,其作用在于影响和微调画面,能够再现人物或物品的特征。大模型的训练通常复杂且对电脑配置要求高,而 LoRA 采用在原模型中插入新的数据处理层的方式,避免了修改原有模型参数。LORA 模型训练是用特定特征替换大模型中的对应元素,从而生成不同于底模的图片,比如固定的人物相貌、特定的服装或者特定的风格。Lora 训练较为轻量化,所需显存较少,硬件门槛显存达到 6G 即可开启训练。 同时,模型微调方面,提供了 LoRA 微调和全量参数微调代码,关于 LoRA 的详细介绍可参考论文“。 此外,还有利用新版 SDXL 生成的如针线娃娃这样的 lora,它可以把一些常见形象制作成毛线编制的样子,需要使用 SDXL1.0 的模型,触发词是 BJ_Sewing_doll。
2024-09-09
Lora训练
以下是关于用 SD 训练一套贴纸 LoRA 模型的方法: 1. 打 tag(给图片写关键词):这是 SD 中的一个重要步骤。 2. LoRA 训练器:可用于训练。 3. SD 训练 UIWeb 启动成功:滚动至最下点击【LoRA 训练】,或者直接点击左侧菜单【LoRA 训练】。 4. 最后总结下 LoRA 模型训练的要点: 训练数据集准备:包括训练素材处理、图像预处理、打标优化。 训练环境参数配置:选择本地或云端训练环境,进行训练环境配置和训练参数配置。 模型训练:基于 kohyass 训练模型。 模型测试:通过 XYZ plot 测试模型。 5. 工作流: 原始形象:MJ 初步产出符合设计想法的贴纸原始形象。 二次加工:完成贴纸的白色边线等细节加工。 处理素材:给训练集图片打 tag,修改 tag。 训练模型:将上述处理好的数据集做成训练集,进行训练。
2024-09-06
LoRA (low rank adapter) 有哪些应用
LoRA(LowRank Adaptation Models,低阶自适应模型)具有以下应用: 1. 在图像生成方面,如 Stable Diffusion 中,通过影响和微调画面,再现人物或物品的特征。可以用特定特征替换大模型中的对应元素,生成不同于底模的图片。 2. 在语言模型中,如 Alpaca 对 LLaMA6B 的微调,在主路参数固定的基础上,在旁路加一个低秩的 shortcut,训练阶段主路固定,只训练旁路,极大降低参数量。初始化时 B 矩阵为 0,达到 zeroconvolution 的效果,推理时把旁路折叠到主路。 3. 个人可以通过 LoRA 炼制属于自己的模型,例如在 SD 中炼制人物、建筑、画风等方面的 lora 模型。LoRA 训练较为轻量化,硬件门槛显存达到 6G 即可开启训练。
2024-09-05
lora有哪些应用
LoRa(Sora)具有以下应用: 1. 增强视觉领域的可访问性:将文本描述转换为视觉内容,使包括视觉障碍者在内的所有人都能参与内容创作和互动,为每个人提供通过视频表达想法的机会,创造更具包容性的环境。 2. 营销领域:营销人员可利用其创建针对特定受众描述的动态广告。 3. 游戏开发:游戏开发者能借助它从玩家叙述中生成定制化的视觉效果甚至角色动作。 4. 电影制作:为电影制作提供创新的视觉生成方式。 5. 教育领域:在教育中发挥作用,例如生成特定的教学视频内容。 6. 自动化内容生成:加速内容生成的自动化进程。 7. 复杂决策支持:为复杂决策过程提供帮助和支持。
2024-09-05
Flux 的lora模型训练教程,我想用用diffuser代码训练,而不是webui或comfyui
以下是关于 Flux 的 lora 模型训练的相关信息: Flux GGUF 模型:https://huggingface.co/city96/FLUX.1devgguf/tree/main GGUF 配套节点插件:https://github.com/city96/ComfyUIGGUF 在最新版本的 ComfyUI 中,GGUF 的节点插件可在 Manager 管理器中搜到下载安装,但 NF4 的配套节点插件搜不到。 注意使用精度优化的低配模型时,工作流和原版不同。把官方的 fp8 工作流中底模的节点换成 NF4 或者 GUFF 即可。 相关生态发展迅速,有 Lora、Controlnet、IPadpter 相关生态建设,字节最近发布的 Flux Hyper lora 可用于 8 步快速生图。下节将先讲讲 Flux 的 lora 训练。
2024-09-05
帮忙推荐AI优秀的书籍,让我们快速入门
以下是为您推荐的能够帮助您快速入门 AI 的优秀书籍: 《陈财猫:推荐书单了解各个领域的知识,并在恰当的时候调用它们》:这是一个涵盖多个学科的书单,包括心理学、人工智能、经济学、社会学、生态学、哲学、设计学等 13 个学科。其特点包括权威准确,多为大学教材或导论书籍,不乏经典大师之作;有框架成体系,能通过阅读构建起完整知识框架;好读,适合初学者,即使对该领域没有了解也能看懂并入门。 《写给不会代码的你:20 分钟上手 Python + AI》: Python 方面:推荐《Python 学习手册》,名声在外;《Python 编程》,对新手友好。 AI 方面:推荐《人类简史》,其中“认知革命”的相关章节令人获益匪浅;《深度学习实战》,按脉络梳理了 ChatGPT 爆发前的 AI 信息与实践。
2024-09-17
我想做个书籍内容整理的智能体
以下是关于制作书籍内容整理智能体的相关信息: 创建智能体: 对于本地 word 文件,要注意拆分内容以提高训练数据准确度,将海报内容训练进知识库。比如画小二的 80 节课程分为 11 个章节,不能一股脑全部放入训练,应先放入 11 章的大章节名称内容,章节内详细内容要按固定方式人工标注和处理,然后选择创建知识库并自定义清洗数据。 生物医药小助手智能体: 由 1 个工作流和 6 个数据库实现。工作流设计简单,包括 input、对接知识库、搭载豆包 function call 大模型和 output。数据库包括公众号文章、执业药师教材、执业医师讲义、药监局新药审评报告、中国医药企业融资动态、药物对外授权(BD)动态、全球药物销售额。工作流相对简单,难点在于收集和校对知识库资料。在医疗领域,为保证回答准确性,提示词约定回答只能来自知识库。 AI 稍后读助手: 前期准备包括设计方案思路,如简化“收集”,实现跨平台收集,输入 URL 完成收集,自动化“整理入库”,自动整理关键信息,智能“选择”推荐生成阅读计划。通过飞书机器人与 Coze 搭建的智能体对话,在聊天窗口完成输入和输出,由 Coze 调用大模型、插件完成内容整理和推荐。
2024-08-26
一款可以阅读书籍并可以将书中内容药店归纳总结形成思维导图或者PPT的AI工具
脑图专家是一款 AI 驱动的工具,它能够处理和理解网页上的密集信息,尤其适合为大量文字信息需求者提供简便的总结。其特点如下: 能够对网页内容进行深入分析,总结关键信息,并以结构化的脑图形式展现,有效揭示知识的深层逻辑和联系,有助于加快理解过程,增强记忆和学习效率。 将复杂内容转换为直观的视觉图表,提供全新的信息消化和整合方式,让学习和研究更高效有趣。 使用方法非常简单,只要打开脑图专家对话框,输入想让它解析的文章网页网址,脑图专家 AI 助理就可以接收到 url,并根据 url 获取页面内容归纳总结。短暂等待后,一张结构清晰的脑图就会呈现在对话框中,点开即可查看 AI 助理为您提炼的文章信息思路。不管多复杂的文章,看一眼就能帮您总结成逻辑脑图。
2024-08-25
拆解书籍最厉害的AI有哪些推荐
以下是为您推荐的一些有助于拆解书籍的 AI 相关书籍: 1. 《认知神经学科:关于心智的生物学》(作者:Michael S.Gazzaniga; Richard B.Lvry; George R.Mangun):这是世界权威的认知神经科学教材,由认知神经科学之父创作,能让您系统了解认知神经科学的诸多方面。 2. 《神经科学原理》(作者:Eric R.Kandel; James H.Schwartz):帮助您系统了解神经元的细胞和分子生物学、突触传递等内容。 3. 在 Python 和 AI 方面,对于新手入门,Python 相关的推荐书籍有《Python 学习手册》和《Python 编程》;AI 相关的推荐书籍有《人类简史》(其中“认知革命”的相关章节)和《深度学习实战》(按脉络梳理了 ChatGPT 爆发前的 AI 信息与实践)。
2024-08-24
有无适合新手的, AGI相关的书籍
以下为适合新手的 AGI 相关的学习资源: 书籍: 视频: (女神)主讲,和某知识 up 主 Genji 一起制作的免费公益课,干货满满,对新手友好,能带你 50 分钟速通 AI 大模型原理。
2024-08-14
我需要一个提示词,它可以让gpt AI帮我在做文章或者书籍总结的时候尽量的全面。 非常的全面,每一个大点都要做解释,每一个小点也要做解释,虽然要遵循二八法则,只要是重要的内容,即使是很多也一定要写上去。 不要做太多的精简。 有没有这样的提示词让我。 来使用。
当然可以!以下是一个详细的提示词模板,你可以用它来让GPT AI帮助你在做文章或书籍总结时尽量全面地覆盖所有重要内容。这个提示词会引导AI详细解释每一个大点和小点,并确保重要内容不被遗漏。 提示词模板: 请帮助我总结这篇文章/书籍,要求尽量全面覆盖所有重要内容。请按照以下要求进行总结: 1. 引言和背景: 简要介绍文章/书籍的主题和背景。 阐述作者写作的目的和主要论点。 2. 主要章节和段落: 按照文章/书籍的结构,详细介绍每一个主要章节或段落。 对每一个大点进行详细解释,包括其主要内容和意义。 对每一个小点进行详细解释,包括其具体细节和示例。 3. 重要概念和术语: 列出并解释文章/书籍中提到的所有重要概念和术语。 解释这些概念和术语的定义及其在文章/书籍中的应用。 4. 关键论据和证据: 总结作者用来支持主要论点的所有关键论据和证据。 对每一个论据和证据进行详细解释,包括其来源和重要性。 5. 案例研究和实例: 详细介绍文章/书籍中提到的所有案例研究和具体实例。 解释这些案例和实例如何支持作者的观点。 6. 结论和建议: 总结文章/书籍的结论部分。 阐述作者提出的任何建议或未来研究的方向。 7. 作者的立场和观点: 分析作者在整个文章/书籍中表达的立场和观点。 解释作者的观点如何影响文章/书籍的整体论点。 8. 个人评价和反思: 根据文章/书籍的内容,提供一个全面的个人评价和反思。 指出文章/书籍的优点和可能的改进之处。 请确保在总结时不进行过多的精简,尽量详细地解释所有重要内容,遵循二八法则,只要是重要的内容,即使很多也一定要写上去。 示例使用: 请帮助我总结《》,要求尽量全面覆盖所有重要内容。请按照以下要求进行总结: 1. 引言和背景: 简要介绍这本书的主题和背景。 阐述作者写作的目的和主要论点。 2. 主要章节和段落: 按照这本书的结构,详细介绍每一个主要章节或段落。 对每一个大点进行详细解释,包括其主要内容和意义。 对每一个小点进行详细解释,包括其具体细节和示例。 3. 重要概念和术语: 列出并解释书中提到的所有重要概念和术语。 解释这些概念和术语的定义及其在书中的应用。 4. 关键论据和证据: 总结作者用来支持主要论点的所有关键论据和证据。 对每一个论据和证据进行详细解释,包括其来源和重要性。 5. 案例研究和实例: 详细介绍书中提到的所有案例研究和具体实例。 解释这些案例和实例如何支持作者的观点。 6. 结论和建议: 总结书的结论部分。 阐述作者提出的任何建议或未来研究的方向。 7. 作者的立场和观点: 分析作者在整本书中表达的立场和观点。 解释作者的观点如何影响书的整体论点。 8. 个人评价和反思: 根据书的内容,提供一个全面的个人评价和反思。 指出书的优点和可能的改进之处。 请确保在总结时不进行过多的精简,尽量详细地解释所有重要内容,遵循二八法则,只要是重要的内容,即使很多也一定要写上去。 使用这个提示词,你可以确保AI在总结文章或书籍时覆盖所有重要内容,并进行详细解释。
2024-06-03
国内外好用的图生视频模型
以下是一些国内外好用的图生视频模型: 可灵(国内,免费) 网址:https://klingai.kuaishou.com/ 支持文生视频、图生视频。 支持图生视频首尾帧功能。 提示词可使用中文。 文生视频支持正向提示词、反向提示词、运镜控制、时长选择(5s、10s),支持 16:9、9:16、1:1 尺寸。 图生视频除了不可运镜控制以外,其他跟文生视频基本相同。 默认生成 5s 的视频。 ETNA(国内) 网址:https://etna.7volcanoes.com/ 由七火山科技开发的文生视频 AI 模型。 可以根据用户简短的文本描述生成相应的视频内容。 生成的视频长度在 8 15 秒,画质可达到 4K,最高 38402160,画面细腻逼真,帧率 60fps。 文生视频,支持中文,时空理解。 关于可灵的文生视频效果,测试者 Austin 周安鑫进行了以下测试: 1. 场景识别:包括室内和室外,如客厅的沙发、液晶电视、漂亮的波斯猫、超现实主义的蜿蜒河流、茂密森林、灿烂花海、碧绿草坪等。 2. 物体识别:涵盖静态和动态物体,如水晶球、跳动的火焰、翱翔的飞鸟、闪烁的流星、飞溅的水珠等。 3. 人物识别:包括面部和姿态,如一个人笑容灿烂、一个人惊恐愤怒,一位芭蕾舞女孩在冰面上跳舞等。 4. 动作识别:包含基本和复杂动作,如短跑运动员快速奔跑、赛车手驾驶跑车激烈漂移等。 5. 事件检测:有简单和复杂事件,如一位帅哥在喝水、外星文明和地球进行星际大战等。 6. 环境变化:涉及光线和天气,如奇幻的极光舞动变幻、城市写字楼灯光忽明忽暗、闪电交加、乌云密布、台风、大雨等。 7. 多对象场景:包括单一和多对象场景,如 1 个飞行员驾驶战斗机翱翔太空、海军指挥航母战斗群展开激烈战斗等。 8. 特殊场景:有遮挡和非标准场景,如城市大雾遮挡摩天大楼、一边是神秘海底世界,一边是梦幻糖果屋。 9. 细节检测:包含小物体和微表情,如崭新的苹果电脑屏幕上播放电影、瞳孔收缩、脸颊泛红、嘴唇微微颤抖。
2024-09-19
你自己使用的是什么模型
以下是关于模型的相关信息: 新的 gpt3.5turbo 模型针对会话进行了优化,原始的 GPT3.5 模型针对文本补全进行了优化。 用于创建嵌入和编辑文本的端点有自己的一组专用模型。 在 AI 输入框下方有一个下拉列表,允许选择要使用的模型。默认情况下,Cursor 已准备好使用的模型包括:GPT4o、GPT4、Claude 3.5 Sonnet、cursorsmall。其中,cursorsmall 是 Cursor 的自定义模型,不如 GPT4 智能,但速度更快,用户可无限制访问。您可以在 Cursor Settings > Models > Model Names 下添加其他模型。 谷歌一直在测试自己的人工智能 Bard,由各种基础模型驱动,最近是名为 PaLM 2 的模型。 Anthropic 发布了 Claude 2,其最值得注意的是有非常大的上下文窗口,与其他大型语言模型相比,不太可能恶意行事。
2024-09-19
推荐下好用的具备图像OCR能力的大模型
目前在具备图像 OCR 能力的大模型方面,一些较为知名和好用的包括百度的文心大模型、阿里云的通义大模型等。但大模型的性能和适用场景可能会因具体需求和使用场景的不同而有所差异。您可以根据自己的具体需求进一步评估和选择。
2024-09-19
AI 大模型命名 带有-instruct的含义
AI 大模型中带有“instruct”通常与指令微调相关。在大模型的训练过程中,指令微调是其中一个重要阶段。此阶段模型被训练以理解并执行具体指令,例如翻译文本等,从而能够回答问题。指令微调阶段输入的内容通常包括三个部分,如“Instruct:请你翻译下面这段话”“Input:一段英文”“Output:一段中文”。通过指令微调,模型能够更好地按照人类的期望和具体要求进行输出。
2024-09-19
你是基于哪个AI大模型的
我是 WaytoAGI 专属问答机器人,基于 Aily 和云雀大模型。 Aily 是飞书团队旗下的企业级 AI 应用开发平台,提供了简单、安全且高效的环境,帮助企业轻松构建和发布 AI 应用,推动业务创新和效率提升。 云雀是由字节跳动研发的语言模型,通过便捷的自然语言交互,能够高效地完成互动对话、信息获取、协助创作等任务。 此外,还有一些免费的大模型接口,如阿里的通义千问大模型接口,可创建 API key。智谱 AI(ChatGLM)、科大讯飞(SparkDesk)也有免费接口,但国内的大模型大多限制一定免费额度的 Token。 谷歌的 Gemini 大模型(gemini 1.5)、海外版 Coze 的 GPT4 模型是免费且能图片识别,但需要给服务器挂梯子。想使用的话,可参考张梦飞同学写的教程。 在深入了解 AI 运作原理和众多落地产品后,重新思考 AI 大模型引发的变革。此前曾有疑问,大模型与智能语音技能的 NLU 存在差异。语音技能 NLU 是通过一系列规则、分词策略等训练而成,运作逻辑规律可观测,具有 ifelse 式逻辑性。而大模型凭借海量数据在向量空间中学习知识的关联性形成,运作逻辑难以观测,脱离了 ifelse 的层面。
2024-09-19
如果我需要一名助手帮我运营跨境电商的线上店铺,我需要一些精准的关键词就可以训练模型吗?
训练模型来协助运营跨境电商线上店铺,仅依靠一些精准的关键词通常是不够的。模型的训练需要多方面的数据和信息,包括但不限于产品的详细描述、客户的评价和反馈、市场趋势、竞争对手的情况等。精准的关键词可以作为其中的一部分输入,但不足以全面有效地训练模型以达到理想的辅助运营效果。
2024-09-19
有没有免费ai生成ppt的
以下为您介绍一些免费的 AI 生成 PPT 的工具和相关信息: 1. 讯飞智文:由科大讯飞推出的 AI 辅助文档编辑工具,利用科大讯飞在语音识别和自然语言处理领域的技术优势,可能提供智能文本生成、语音输入、文档格式化等功能,旨在提高文档编辑效率。网址:https://zhiwen.xfyun.cn/ 2. Gamma:在各种交流群中被频繁推荐,免费版本能生成质量较高的 PPT,且不断优化改进,在内容组织、设计美观度和整体专业感方面表现卓越。 目前市面上大多数 AI 生成 PPT 按照以下思路完成设计和制作: 1. AI 生成 PPT 大纲 2. 手动优化大纲 3. 导入工具生成 PPT 4. 优化整体结构 推荐 2 篇市场分析的文章供参考: 1. 《》 2. 《》 另外,为您推荐 3 款好用的 AI 制作 PPT 工具,但请注意内容由 AI 大模型生成,请仔细甄别。
2024-09-19
有没有可以将word生成PPT的
以下是几种将 Word 生成 PPT 的方法: 1. 先让 GPT4 生成 PPT 大纲,然后把大纲导入到 WPS 当中,启用 WPS AI 一键生成 PPT。为了让 PPT 更有灵动性和观感,可以让 chatPPT 添加一些动画,最后手动修改细节,比如字体、事实性错误等。但生成符合要求的大纲可能较费时。 2. 大纲出来后,针对每个主题进行内容补充,然后用 mindshow 工具将 markdown 内容转换成 PPT。具体步骤为:在 https://www.mindshow.fun//login?inviteCode=6487516 注册账号登录,把内容复制到内容框后,点击导入创建。 3. 微软发布的将 GPT4 集成到 Office 套件中的一体化解决方案 Copilot ,可以根据 Word 文档直接生成 PPT 。
2024-09-19
有没有用来写播客稿子的AI工具
以下是一些可以用来写播客稿子的 AI 工具: 1. 写作:写书与查找资料:在写书(包括文章)时,可帮忙查找资料(尤其是找案例),还能作为编辑挑毛病,比如评估结构、论点是否明确等。偶尔没灵感时能展开启发。 链接: 2. 学习:用 AI 做播客笔记:干货为主的播客可以做笔记,以后也许能按此方式做英文播客笔记并顺便学英语。 链接: 此外,还有许多其他类型的 AI 工具可供选择: 1. 写简历的 AI 工具,例如: Kickresume 的 AI 简历写作器:使用 OpenAI 的 GPT4 语言模型自动生成简历,能为简历摘要、工作经验和教育等专业部分编写内容,并保持一致语调。 Rezi:受到超过 200 万用户信任的领先 AI 简历构建平台,使用先进的 AI 技术自动化创建可雇佣简历的每个方面,包括写作、编辑、格式化和优化。 Huntr 的 AI 简历构建器:提供免费的简历模板,以及 AI 生成的总结/技能/成就生成器和 AI 驱动的简历工作匹配。 更多 AI 简历产品,还可以查看这里:https://www.waytoagi.com/category/79 2. 制作 AI 短片的工具,如 Pika、Pixverse、Runway、SVD 等。制作流程包括写剧本/分镜、生图、生视频、AI 声音、剪辑等步骤。写剧本/分镜时,除了使用 GPT4/Claude/Kimi/智谱清言/文心一言等 AI 工具,更重要的是明确想写的故事及来源,比如原创(直接经验):自身或周围人的经历、做过的梦、想象的故事等。
2024-09-19
有没有把公众号文章转成视频的工具呀
以下是一些可以将公众号文章转成视频的工具: :一个使用人工智能将博客文章转化为播客的工具。用户只需将博客文章复制粘贴到该工具中,几分钟内就能生成一个有声播客。该工具还提供了免费试用和多个价格层级选择。用户无需具备技术知识,可以轻松地将播客发布到 Spotify 等平台,吸引更多的听众。 如果您想用 AI 把小说做成视频,以下是一些相关工具及网址: Stable Diffusion(SD):一种 AI 图像生成模型,可以基于文本描述生成图像。网址: Midjourney(MJ):另一个 AI 图像生成工具,适用于创建小说中的场景和角色图像。网址: Adobe Firefly:Adobe 的 AI 创意工具,可以生成图像和设计模板。网址: Pika AI:文本生成视频的 AI 工具,适合动画制作。网址: Clipfly:一站式 AI 视频生成和剪辑平台。网址: VEED.IO:在线视频编辑工具,具有 AI 视频生成器功能。网址: 极虎漫剪:结合 Stable Diffusion 技术的小说推文视频创作提效工具。网址: 故事 AI 绘图:小说转视频的 AI 工具。网址: 以下是一些文字生成视频的 AI 产品: Pika:一款非常出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 SVD:如果熟悉 Stable Diffusion,可以直接安装这款最新的插件,在图片基础上直接生成视频。这是由 Stability AI 开源的 video model。 Runway:一款老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,不过需要注意的是,Runway 是收费的。 Kaiber:一款视频转视频 AI,能够将原视频转换成各种风格的视频。 Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 更多的文生视频的网站可以查看这里: 内容由 AI 大模型生成,请仔细甄别。
2024-09-18
有没有自动生成专利申请文件的平台
以下是一些可以自动生成专利申请文件的平台: 1. Specifio:利用 AI 技术自动生成专利申请文件,包括专利说明书和权利要求书,能提高专利申请的效率。 2. PatentPal:使用 AI 技术自动生成和编辑专利申请文件,可减少人工工作量。 在专利小助手中,还有以下插件可用于相关工作: 1. Kimi:可以用于自动生成专利申请文档的草稿、摘要或专利描述,提高文档撰写效率。 2. TreeMind 树图:可以用来创建专利结构的思维导图,帮助用户理解专利的组成部分和它们之间的关系。 3. ProcessOn 流程图:可以用于设计和展示专利申请和管理的详细流程,帮助用户理解每一步的操作和所需材料。 4. Word 文档:可以用来处理专利申请文件、专利描述、权利要求书等文档。 使用这些平台通常需要以下步骤: 1. 注册和登录:在对应的平台上注册账户并登录。 2. 上传专利文献:上传待审查的专利文献或输入检索关键词。 3. 选择分析功能:根据需要选择专利检索、分析、评估或生成功能。 4. 查看结果和报告:查看 AI 生成的检索结果、分析报告和评估结果。 5. 进一步处理:根据分析结果进行进一步的人工审查和处理,或者直接生成专利申请文件。
2024-09-18
AI生成的图片是原创吗 有没有借鉴
在全国首例 AI 生成图片著作权案例中: 法官承认依靠使用者的输出设计生成的图片属于美术作品,具有独创性和智力投入,受著作权保护,能鼓励创作,为艺术创作提供支持和新思路,节省创作成本。 根据相关法律规定,我国著作权作者仅限于自然人、法人或非法人组织,人工智能软件本身不能成为作者。 Stable Diffusion 模型根据文本指令生成图片,不是调用现成图片或排列组合预设要素,生成的图片取决于使用者输入的提示词,难以出现完全相同的两张输出图片,类似于画笔,图画构造取决于使用者设计。 人工智能不具备自由意志,使用者根据自己的审美个性,通过增删提示词、修改参数得出不同图片并选定,体现使用者的智力和独创思想,如同使用相机拍摄时的调节。 软件设计者对模型设计投入智力成果,但后续生成内容与设计者关系不大。图片由创作者根据个人意愿得出,应成为作者并享有著作权。 尽管 AI 是工具,法院强调著作权仍属于人类创作者,保护人类在知识产权领域的权益,鼓励利用 AI 技术创作艺术作品。 在未显示作者身份信息的情况下使用图片构成侵权。
2024-09-18