直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

推荐一下个人可以使用的通过对话微调的模型

回答

以下是一些个人可以使用的通过对话微调的模型相关信息:

会话补全(Chat completions)

  • GPT-3.5 系列中,gpt-3.5-turbo 和 text-davinci-003 有相似能力,但 gpt-3.5-turbo 价格仅为 text-davinci-003 的十分之一,在多数情况下更推荐使用 gpt-3.5-turbo。不过,gpt-3.5-turbo 不支持微调,从 2023 年 3 月 1 日起,只能对基于 GPT-3.5 的模型进行微调。

微调(Fine-tuning)

  • 案例研究:
    • 客户支持聊天机器人:通常包含相关上下文、对话摘要及最近消息,可能需要几千个示例处理不同请求和客户问题,建议审查对话样本确保代理消息质量,可使用单独文本转换微调模型生成摘要。
    • 基于技术属性列表的产品描述:将输入数据转换为自然语言很重要,确保完成基于所提供描述,若常查阅外部内容,自动添加此类内容可提高性能,若描述基于图像,提取图像文本描述可能有帮助。

模型(Models)

  • GPT-3.5 模型可理解和生成自然语言或代码,其中功能最强大、最具成本效益且针对聊天优化的型号是 gpt-3.5-turbo,建议使用它而非其他 GPT-3.5 模型,因其成本更低。
    • gpt-3.5-turbo:功能强大,针对聊天优化,成本低,会使用最新模型迭代更新,最大 Token 数 4096,训练数据截至 2021 年 9 月。
    • gpt-3.5-turbo-0301:2023 年 3 月 1 日的快照,不会更新,仅在 2023 年 6 月 1 日结束的三个月内提供支持,最大 Token 数 4096,训练数据截至 2021 年 9 月。
    • text-davinci-003:能完成任何语言任务,支持文本中插入补全,最大 Token 数 4097,训练数据截至 2021 年 6 月。
    • text-davinci-002:与 text-davinci-003 类似,使用监督微调而非强化学习训练,最大 Token 数 4097,训练数据截至 2021 年 6 月。
    • code-davinci-002:针对代码完成任务优化,最大 Token 数 8001,训练数据截至 2021 年 6 月。

请注意,OpenAI 模型具有不确定性,相同输入可能产生不同输出,将温度设置为 0 可使输出大部分具有确定性,但可能仍有少量可变性。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

会话补全(Chat completions)

gpt-3.5-turbo和text-davinci-003两个模型拥有相似的能力,但前者的价格只是后者的十分之一,在大部分情况下,我们更推荐使用gpt-3.5-turbo。对于许多开发者来说,转换就像重写和重新测试prompt一样简单。例如,假设你使用下面的补全prompt来让英语转换成法语:一个对应的对话会话是这样的:或者甚至只要用户消息:[heading2]常见问题[heading3]gpt-3.5-turbo模型支持微调(fine-tuning)吗?[content]不支持。从2023年3月1日起,你只能对基于GPT-3.5的模型进行微调。有关如何使用微调模型的更多细节,请参阅微调指南[heading3]你们会把通过API获取到的数据进行保存吗?[content]从2023年3月1日起,我们会将你通过API发送给我们的数据保留30天但不会使用这些数据来提升模型。了解更多关于我们的数据使用条款。[heading3]添加调节层[content]如果你想要给聊天API的输出添加一个调节层,你可以根据我们的调节指南,以避免违反OpenAI使用政策的内容被展示出来。

微调(Fine-tuning)

聊天机器人通常会包含有关对话的相关上下文(订单详细信息)、到目前为止的对话摘要以及最近的消息。对于这个用例,相同的过去对话可以在数据集中生成多行,每次都有稍微不同的上下文,对于每个代理生成作为完成。这个用例将需要几千个示例,因为它可能会处理不同类型的请求和客户问题。为确保高质量的性能,我们建议审查对话样本以确保代理消息的质量。可以使用单独的文本转换微调模型生成摘要。数据集可能如下所示:在这里,我们有意分离不同类型的输入信息,但在提示和完成之间以相同的格式维护客户代理对话框。所有的完成都应该只由代理完成,我们可以\n在进行推理时用作停止序列。[heading4]案例研究:基于技术属性列表的产品描述[content]在这里,将输入数据转换为自然语言很重要,这可能会带来卓越的性能。例如,以下格式:不会像以下那样工作:为了获得高性能,请确保完成是基于所提供的描述。如果经常查阅外部内容,则以自动方式添加此类内容将提高性能。如果描述基于图像,则使用算法提取图像的文本描述可能会有所帮助。由于完成只有一个句子长,我们可以.在推理过程中用作停止序列。

模型(Models)

[title]模型(Models)[heading2]GPT-3.5GPT-3.5模型可以理解和生成自然语言或代码。我们在GPT-3.5系列中功能最强大、最具成本效益的型号是gpt-3.5-turbo,它已针对聊天进行了优化,但也适用于传统的补全(Completion)任务。|MODEL|描述|最大Token数|训练数据|<br>|-|-|-|-|<br>|gpt-3.5-turbo|功能最强大的GPT-3.5型号,针对聊天进行了优化,成本仅为text-davinci-003的1/10。将使用我们最新的模型迭代进行更新。|4096 Token|截至2021年9月|<br>|gpt-3.5-turbo-0301|gpt-3.5-turbo 2023年3月1日的快照。与gpt-3.5-turbo不同,此模型不会更新,并且仅在2023年6月1日结束的三个月内提供支持。|4096 Token|截至2021年9月|<br>|text-davinci-003|可以以比curie、babbage、ada模型更好的质量、更长的输出和一致的指令遵循来完成任何语言任务。还支持在文本中[插入](https://platform.openai.com/docs/guides/completion/inserting-text)补全。|4097 Token|截至2021年6月|<br>|text-davinci-002|与text-davinci-003类似的功能,但使用监督微调而不是强化学习进行训练|4097 Token|截至2021年6月|<br>|code-davinci-002|针对代码完成任务进行了优化|8001 Token|截至2021年6月|我们建议使用gpt-3.5-turbo而不是其他GPT-3.5模型,因为它的成本更低。:::tip注意OpenAI模型是不确定的,这意味着相同的输入可以产生不同的输出。将温度(Temperature)设置为0将使输出大部分具有确定性,但可能会保留少量可变性。:::

其他人在问
推荐一下国内可以通过对话微调的预训练模型
以下是为您推荐的国内可以通过对话微调的预训练模型相关信息: 为优化 Llama2 的中文能力,可使用以下数据: 网络数据:互联网上公开的网络数据,包括百科、书籍、博客、新闻、公告、小说等高质量长文本数据。 :中文 Wikipedia 的数据。 :中文悟道开源的 200G 数据。 :Clue 开放的中文预训练数据,经过清洗后的高质量中文长文本数据。 竞赛数据集:近年来中文自然语言处理多任务竞赛数据集,约 150 个。 :MNBVC 中清洗出来的部分数据集。 社区提供预训练版本 Atom7B 和基于 Atom7B 进行对话微调的模型参数供开放下载,关于模型的进展详见社区官网 https://llama.family。 另外,关于会话补全(Chat completions): gpt3.5turbo 和 textdavinci003 两个模型能力相似,但前者价格只是后者的十分之一,在大部分情况下更推荐使用 gpt3.5turbo。 gpt3.5turbo 模型不支持微调。从 2023 年 3 月 1 日起,只能对基于 GPT3.5 的模型进行微调。有关如何使用微调模型的更多细节,请参阅微调指南。 从 2023 年 3 月 1 日起,OpenAI 会将您通过 API 发送的数据保留 30 天但不会使用这些数据来提升模型。 关于安仔:Coze 全方位入门剖析 免费打造自己的 AI Agent(国内版): 目前国内版暂时只支持使用“云雀大模型”作为对话引擎,其携带上下文轮数默认为 3 轮,可修改区间是 0 到 30,具体轮数可根据业务需求决定。 在 Bot 编排页面的“技能”区域,可为 Bot 配置所需技能。不懂插件时,可选择区域右上角的“优化”按钮让 AI Bot 根据提示词自动选择插件。也可自定义添加所需插件,点击插件区域的“+”号选择加入具体插件。 在 Bot 编排页面的“预览与调试”区域,可测试 Bot 是否按预期工作,可清除对话记录以开始新的测试,确保 Bot 能理解用户输入并给出正确回应。
2024-10-18
个人使用可以通过对话微调的大模型
大模型是指输入大量语料,使计算机获得类似人类的“思考”能力,能够进行文本生成、推理问答、对话、文档摘要等工作。可以用“上学参加工作”来类比大模型的训练和使用过程: 1. 找学校:训练大模型需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练。 2. 确定教材:大模型需要的数据量特别多,几千亿序列(Token)的输入基本是标配。 3. 找老师:用合适的算法让大模型更好理解 Token 之间的关系。 4. 就业指导:为让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:完成就业指导后,进行如翻译、问答等工作,在大模型里称为推导(infer)。 在 LLM 中,Token 被视为模型处理和生成的文本单位,能代表单个字符、单词、子单词等,具体取决于分词方法。将输入分词时会数字化形成词汇表。 个人动手实验方面: macOS 系统可采用 GGML 量化后的模型。有名的项目如 ggerganov/llama.cpp:Port of Facebook's LLaMA model in C/C++ ,首先编译,利用 Metal 的 GPU 用相应命令编译,然后去下载模型,还提供了 WebUI,启动 server 后默认监听 8080 端口,打开浏览器可对话。 Whisper 与 llama 类似,用 make 命令编译,去指定地址下载量化好的模型,转换音频,目前只接受 wav 格式,可用 ffmpeg 转化。 张梦飞的教程《用聊天记录克隆自己的 AI 分身》全程本地操作,目标是把微信聊天记录导出,用其微调模型,最终接入微信替你回复消息。
2024-10-18
国内能通过对话微调的语言大模型
以下是国内一些能通过对话微调的语言大模型: 教育领域:桃李(Taoli) 地址: 简介:在国际中文教育领域数据上进行了额外训练的模型,基于国际中文教育教材等构建资源库和问答数据集,并利用数据进行指令微调,让模型习得将知识应用到具体场景中的能力。 数学领域:chatglmmaths 地址: 简介:基于 chatglm6b 微调/LORA/PPO/推理的数学题解题大模型,样本为自动生成的整数/小数加减乘除运算,可 gpu/cpu 部署,开源了训练数据集等。 文化领域:Firefly 地址: 简介:中文对话式大语言模型,构造了许多与中华文化相关的数据,如对联、作诗、文言文翻译、散文、金庸小说等,以提升模型在这方面的表现。 金融领域: Cornucopia(聚宝盆) 地址: 简介:开源了经过中文金融知识指令精调/指令微调的 LLaMA7B 模型。通过中文金融公开数据+爬取的金融数据构建指令数据集,并在此基础上对 LLaMA 进行了指令微调,提高了 LLaMA 在金融领域的问答效果。基于相同的数据,后期还会利用 GPT3.5 API 构建高质量的数据集,另在中文知识图谱金融上进一步扩充高质量的指令数据集。 BBTFinCUGEApplications 地址: 简介:开源了中文金融领域开源语料库 BBTFinCorpus,中文金融领域知识增强型预训练语言模型 BBTFinT5 及中文金融领域自然语言处理评测基准 CFLEB。 XuanYuan(轩辕) 地址: 简介:国内首个开源的千亿级中文对话大模型,同时也是首个针对中文金融领域优化的千亿级开源对话大模型。在 BLOOM176B 的基础上针对中文通用领域和金融领域进行了针对性的预训练与微调,不仅可以应对通用领域的问题,也可以解答金融相关的各类问题,为用户提供准确、全面的金融信息和建议。
2024-10-18
文生图lora微调
以下是关于文生图 lora 微调的详细内容: 定主题:明确您需要生成的图片的主题、风格和要表达的信息。 选择基础模型 Checkpoint:根据主题选择内容贴近的 checkpoint,如麦橘、墨幽的系列模型,如麦橘写实、麦橘男团、墨幽人造人等。 选择 lora:基于生成内容寻找重叠的 lora,以控制图片效果和质量,可参考广场上优秀帖子中使用的 lora。 ControlNet:可控制图片中特定图像,如人物姿态、生成特定文字或艺术化二维码等,属于高阶技能。 局部重绘:下篇再教。 设置 VAE:无脑选择 840000 即可。 Prompt 提示词:用英文写需求,使用单词和短语组合,不用管语法,单词、短语间用英文半角逗号隔开。 负向提示词 Negative Prompt:同样用英文写要避免的内容,单词和短语组合,用英文半角逗号隔开。 采样算法:一般选 DPM++ 2M Karras 较多,也可参考 checkpoint 详情页上模型作者推荐的采样器。 采样次数:选 DPM++ 2M Karras 时,采样次数通常在 30 40 之间。 尺寸:根据个人喜好和需求选择。 以下是一个简笔水彩风格插画的示例: 使用大模型“Flat 2D Animerge”,适合生成卡通动漫图片,官方建议 CFG 值在 5 或 6(使用动态阈值修复可拉到 11)。搭配两个 lora,“Chinese painting style”可增加中国画水彩风格效果,权重设为 0.4;“Crayon drawing”可添加简单线条和小孩子笔触,权重设为 0.8。将图片丢到标签器中反推关键词,发送到“文生图”。在正向提示词末尾添加这两个 lora,尺寸按参考图设置,重绘幅度开 0.5 让 AI 更自由发挥,若想更接近原图可降低数值。将图放入 ControlNet 中,选择 tile 模型,权重为 0.5,控制模式选择“更注重提示词”。
2024-10-05
AI 增量训练和模型微调的区别
AI 增量训练和模型微调存在以下区别: 目的:增量训练通常是为了持续更新模型以适应新的数据和任务,而模型微调主要是为了使模型在特定的小领域数据集上针对特定任务达到更好的性能。 范围:增量训练可能涉及对模型的较大范围的更新,而微调往往集中在较小范围的参数调整。 方式:增量训练可能会对全量的模型参数进行训练,而微调存在全量微调(FFT)和参数高效微调(PEFT)两种技术路线,PEFT 只对部分模型参数进行训练,且目前在业界较为流行。 成本和效果:从成本和效果综合考虑,PEFT 是较好的微调方案。微调可以大幅提高模型在特定任务中的性能,但可能会使模型失去一些通用性。 数据使用:增量训练可能需要更多新的数据,而微调是在较小的、特定领域的数据集上进行。 如需了解更多关于微调的内容,可参考 OpenAI 官方微调教程:https://github.com/openai/openaicookbook/blob/main/examples/How_to_finetune_chat_models.ipynb
2024-09-13
模型微调都有哪些方式?
模型微调主要有以下方式: 1. 使用微调模型:当作业成功时,`fine_tuned_model`字段将填充模型名称。您现在可以将此模型指定为我们的`Completions API`的参数,并使用`Playground`向它发出请求。在您的工作首次完成后,您的模型可能需要几分钟时间才能准备好处理请求。如果对您的模型的完成请求超时,可能是因为您的模型仍在加载中。如果发生这种情况,请在几分钟后重试。您可以通过将模型名称作为`model`完成请求的参数传递来开始发出请求,包括`OpenAI`命令行界面、`cURL`、`Python`、`Node.js`等方式。您还可以继续使用所有其他完成参数,如`temperature`、`frequency_penalty`、`presence_penalty`等对这些请求进行微调模型。 2. 介绍:微调可让您从`API`提供的模型中获得更多收益,比如比即时设计更高质量的结果、能够训练比提示中更多的例子、由于更短的提示而节省了`Token`、更低的延迟请求。`GPT3`已经在来自开放互联网的大量文本上进行了预训练。当给出仅包含几个示例的提示时,它通常可以凭直觉判断出您要执行的任务并生成合理的完成,这通常称为“小样本学习”。微调通过训练比提示中更多的示例来改进小样本学习,让您在大量任务中取得更好的结果。对模型进行微调后,您将不再需要在提示中提供示例,这样可以节省成本并实现更低延迟的请求。在高层次上,微调涉及以下步骤:准备和上传训练数据、训练新的微调模型、使用您的微调模型。 3. 通义千问团队的微调方式:大规模预训练后,通义千问团队对模型进行精细的微调,以提升其智能水平,让其表现更接近人类。这个过程进一步提升了代码、数学、推理、指令遵循、多语言理解等能力。此外,模型学会对齐人类价值观,它也随之变得更加对人类有帮助、诚实以及安全。通义千问团队的微调过程遵循的原则是使训练尽可能规模化的同时并且尽可能减少人工标注。团队探索了如何采用多种自动方法以获取高质量、可靠、有创造力的指令和偏好数据,其中包括针对数学的的方法减少对齐税。不久后,通义千问团队将推出`Qwen2`的技术报告。
2024-09-11
我的app应用想要对接大语言模型,结合APP用户自身的数据,实现更精准的对话,是否有行业比较成功的案例可以借鉴
以下是一些在 APP 应用对接大语言模型方面比较成功的案例,可供您借鉴: 1. Poe: 由 Quora 开发,有 APP 版本,支持跨端使用。 集成了 Chat GPT、GPT4、Claude+、Claude、Dragonfly 等模型,同时支持用户自建 Chatbot。 不同语言模型回复效果有差异,适合需要调用多种大语言模型的用户。 Dragonfly 擅长给出较短的回答,并擅长在输入中给出示例时遵循指示。 Claude 更擅长创造性回复,配合 Poe 中的提问引导,非常适合在查阅资料时使用。 支持分享用户和模型的对话内容,但 GPT4、Claude+产品需要付费订阅使用。 访问地址: Poe 中的提问引导真的能够启发到用户,midjourney prompt 扩写 Chatbot 能力很惊人。 2. Perplexity.ai: 本质是个可联网的搜索引擎,完全免费,支持网页版、APP(目前支持 iOS,安卓即将推出)、Chrome 插件。 网页版能力全面,能够根据提问从互联网上搜寻信息并给出总结后的答案。 很多 Chat GPT 中调用插件才能解决的事情(联网查询、旅行、住宿、商品推荐)靠 Perplexity 就可以解决。 能给出信息来源网址,并根据搜索内容给出继续对话的问题建议。 最新推出的 Copilot 能力支持根据搜索内容进行信息补充,每 4h 内使用 5 次,调用 GPT4。 支持分享聊天内容到多渠道。 首页推荐当下流行的新闻、搜索内容。 支持筛选 Academic(包含不同领域的学术研究论文)、Wolfram|Alpha(包含数学、科学、经济学、语言学、工程学、社会科学、文化等领域的知识库)、Wikipedia(维基百科)、Youtube、Reddit(娱乐、社交和新闻网站)、News 进行搜索。 Chrome 插件可针对当前页面给出即时摘要。 访问地址:
2024-10-18
哪款AI工具适合学习英语,进行英语对话,并且可调节语速,显示文本
以下是一些适合学习英语、进行英语对话,并且可调节语速、显示文本的 AI 工具: 1. 11labs:英文效果较好,但无法使用语速、情绪调节等控件,只能通过标点符号改变语音效果。官网:https://elevenlabs.io/ 2. 出门问问的魔音工坊:可以使用情绪调节控件。 3. Duolingo:使用 AI 个性化学习体验,根据进度和错误调整练习内容,通过游戏化方式提供词汇、语法、听力和口语练习。下载应用,选择要学习的语言,按照课程指引学习。 4. Babbel:结合 AI 技术,提供个性化课程和练习,重点在于实际交流所需的语言技能。注册账户,选择语言课程,按照学习计划学习。 5. Rosetta Stone:使用动态沉浸法,通过 AI 分析学习进度,提供适合的练习和反馈。注册并选择学习语言,使用多种练习模式(听力、口语、阅读和写作)学习。 6. ChatGPT:可以用来模拟对话练习,帮助提高语言交流能力。在聊天界面选择目标语言,与 AI 进行对话练习,询问语法、词汇等问题,模拟实际交流场景。 7. Google Assistant:支持多种语言,可用来进行日常对话练习和词汇学习。设置目标语言,通过语音命令或文本输入与助手互动,练习日常用语。
2024-10-17
有哪款工具可以进行多语种对话?或者实现中文转英文和英文语音
以下是一些可以进行多语种对话或实现中文转英文和英文语音的工具: 1. 11labs:官网为 https://elevenlabs.io/ ,英文效果较好,但无法使用语速、情绪调节等控件,只能通过标点符号改变语音效果。 2. 出门问问的魔音工坊:国内工具,可使用情绪调节控件。 3. Voice control for ChatGPT Chrome 插件:用于和 ChatGPT 进行语音对话,支持多种语言,可当英语口语/听力老师使用。下载地址:https://chrome.google.com/webstore/detail/voicecontrolforchatgpt/eollffkcakegifhacjnlnegohfdlidhn?hl=zhCN 。但该工具提供的 TTS 效果较生硬。 4. VALLEX:一个开源的多语言文本到语音合成与语音克隆模型,支持多种语言(英语、中文和日语)和零样本语音克隆,具有语音情感控制和口音控制等高级功能。
2024-10-17
大模型合规
大模型的安全问题包括以下方面: 1. 对齐保障:通过对齐(指令调优),如 ChatGPT 从 GPT3 经过对齐而来,使其更好地理解人类意图,增加安全保障,确保不输出有害内容。对齐任务可拆解为监督微调及获取奖励模型和进行强化学习来调整输出分布。例如 LLAMA2 使用安全有监督微调确保安全,强化学习能让模型根据人类反馈更细粒度思考答案的安全性,面对训练分布外数据也能拒绝不当回答。 2. 数据过滤:在预训练阶段对数据进行过滤,如 baichuan2 采用此技术减少有害输出,但因数据关联性,仅靠此方法可能不够,模型仍可能从关联中学到有害内容,且面对不良信息时可能因缺少知识而处理不当。 3. 越狱问题:用户可能通过越狱(Jailbreak)使模型的对齐失效,重新回答各种问题。 大模型的特点包括: 1. 架构:分为 encoderonly、encoderdecoder、decoderonly 三类,目前熟知的 AI 助手多为 decoderonly 架构,由 transformer 衍生而来。 2. 规模:预训练数据量大,来自互联网的多种来源,且参数众多,如 GPT3 已达 170B 的参数。 GPT3 与 ChatGPT 相比,除形式不同外,安全性也有差别。
2024-10-18
大模型安全相关资料
以下是关于大模型安全的相关资料: 大模型的架构:包括 encoderonly、encoderdecoder 和 decoderonly 三种类型。其中,我们熟知的 AI 助手基本采用 decoderonly 架构,这些架构都是由谷歌 2017 年发布的“attention is all you need”论文中提出的 transformer 衍生而来。 大模型的特点:预训练数据量大,往往来自互联网上的论文、代码、公开网页等,通常用 TB 级别的数据进行预训练;参数非常多,如 Open 在 2020 年发布的 GPT3 就已达到 170B 的参数。 大模型的安全性保障:通过对齐(指令调优),包括监督微调、获取 reward model 与进行强化学习来调整语言模型的输出分布,以保证语言模型不会输出有害内容和信息。例如 LLAMA2 专门使用了安全有监督微调确保安全。但 Alignment 并不足以防护所有安全问题,存在越狱(Jailbreak)现象,会使模型对齐失效。此外,还有隐私问题。 相关资源:如果想进一步了解大语言模型安全,可以访问 Github awesomellmsafety 项目:https://github.com/ydyjya/AwesomeLLMSafety
2024-10-18
ai建站推荐
以下为您推荐一些 AI 建站工具: 1. 即时设计:https://js.design/ 这是一款可在线使用的「专业 UI 设计工具」,为设计师提供更加本土化的功能和服务,相较于其他传统设计工具,更注重云端文件管理、团队协作,并将设计工具与更多平台整合,一站搞定全流程工作。 2. V0.dev:https://v0.dev/ Vercel Labs 推出的 AI 生成式用户界面系统。每个人都能通过文本或图像生成代码化的用户界面。它基于 Shadcn UI 和 Tailwind CSS 生成复制粘贴友好的 React 代码。 3. Wix:https://wix.com/ Wix 是一款用户友好的 AI 工具,可让您在没有任何编码知识的情况下轻松创建和自定义自己的网站,提供广泛的模板和设计供您选择,以及移动优化和集成电子商务功能等功能。Wix 建站工具通过拖放编辑、优秀模板和 250 多种 app,能帮助不同领域的用户创建所有种类的网站。 4. Dora:https://www.dora.run/ 使用 Dora AI,可以通过一个 prompt,借助 AI 3D 动画,生成强大网站。支持文字转网站,生成式 3D 互动,高级 AI 动画。 在选择 AI 网站制作工具时,您可以考虑以下因素: 1. 目标和需求:确定您的网站目标(例如个人博客、商业网站、在线商店)和功能需求。 2. 预算:有些工具提供免费计划或试用版,但高级功能可能需要付费订阅。 3. 易用性:选择一个符合您技术水平的工具,确保您能够轻松使用和管理网站。 4. 自定义选项:检查工具是否提供足够的自定义选项,以满足您的设计和功能需求。 5. 支持和资源:查看是否有足够的客户支持和学习资源(如教程、社区论坛),帮助您解决问题。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-10-18
推荐5个自动写文档工具
以下为您推荐 5 个自动写文档工具: 1. Grammarly:不仅是语法和拼写检查工具,还提供排版功能,可改进文档整体风格和流畅性。 2. QuillBot:AI 驱动的写作和排版工具,能改进文本清晰度和流畅性,保持原意。 3. PandaDoc:文档自动化平台,使用 AI 帮助创建、格式化和自动化文档生成,适合商业和技术文档。 4. Wordtune:AI 写作助手,可重新表述和改进文本,使其更清晰专业,保持原始意图。 5. Overleaf:在线 Latex 编辑器,提供丰富模板和协作工具,适合学术写作和排版。 选择合适的工具取决于您的具体需求,如文档类型、出版标准和个人偏好。对于学术论文,Latex 和 Overleaf 是受欢迎的选择;对于一般文章和商业文档,Grammarly 和 PandaDoc 等可能更适用。
2024-10-18
帮我推荐一些国内能使用的以图生图的AI吧
目前国内能使用的以图生图的 AI 主要有以下几种: 1. Artguru AI Art Generator:这是一个在线平台,能够生成逼真图像,为设计师提供灵感,丰富创作过程。 2. Retrato:一种 AI 工具,可以将图片转换为非凡肖像,拥有 500 多种风格选择,适合制作个性头像。 3. Stable Diffusion Reimagine:新型 AI 工具,通过稳定扩散算法生成精细、具有细节的全新视觉作品。 4. Barbie Selfie Generator:专为喜欢梦幻童话风格的人设计的 AI 工具,能将上传的照片转换为芭比风格,效果出色。 此外,国外的 Leonardo 也是一款不错的文生图 AI 应用。它支持用户上传自己 DIY 的模型,尤其是 Lora 模型,为用户提供了丰富的模型选择,能够生成非常高质量的图片。但需要注意的是,Leonardo 存在访问限制的问题。
2024-10-18
帮我推荐以图生图的AI吧
以下为您推荐一些好用的以图生图的 AI 产品: 1. Artguru AI Art Generator:这是一个在线平台,能够生成逼真图像,为设计师提供灵感,丰富创作过程。 2. Retrato:一种 AI 工具,可以将图片转换为非凡肖像,拥有 500 多种风格选择,适合制作个性头像。 3. Stable Diffusion Reimagine:新型 AI 工具,通过稳定扩散算法生成精细、具有细节的全新视觉作品。 4. Barbie Selfie Generator:专为喜欢梦幻童话风格的人设计的 AI 工具,能将上传的照片转换为芭比风格,效果出色。 这些 AI 模型通过组合技术如扩散模型、大型视觉转换器等,可以根据文本或参考图像生成具有创意且质量不错的相似图像输出。但仍存在一些局限,比如偶尔会出现性能不稳定、生成内容不当等问题。 此外,在使用以图生图的过程中,还可以参考以下方法: 从游戏截图升级到 KV 品质:游戏内截图距离内容丰富、构成美观的画面有差距时,可以手动用 PS 添加一些信息丰富画面。比如简单粗暴的背景贴人物合成,使用游戏截图和立绘均可;通过一些简单加工,更形象地帮助 AI 知道您想要什么。甚至可以使用 PS beta 版的 AI 工具生成一些元素来修饰图片。如果想有更加定制化的背景、人物动作、构图视角,可以结合 3D 软件定制内容。首先对于没有绑定的模型,推荐使用 ACCURIG(的一键绑定软件,它对于身体权重的计算和对手指的绑定比 MIXAMO 识别效果更好,且可以一键绑定标准的 UE 模型骨骼,方便后续进入引擎复用动作。之后在 maya 中一键生成 adv 控制器,K 好动作。 用 AI 快速做一张满意的海报:首先准备一张真实照片作为样图,然后在无界 AI 找到图生图功能。别忘了,图生图也要加关键词。如果要改变画面内容,比如父亲头发颜色,“二次元强度”改为 70%。根据出图效果,进一步修改或增加提示词作为约束。例如,父亲的白发难以识别,就在人物关键词的基础上,增添“父亲一头白发”等修饰词。
2024-10-18
推荐一些不错的AI翻译相关文章
以下为您推荐一些与 AI 翻译相关的文章和资源: 关于 PDF 翻译的 AI 产品: DeepL(网站):点击页面「翻译文件」按钮,上传 PDF、Word 或 PowerPoint 文件即可。 沉浸式翻译(浏览器插件):安装插件后,点击插件底部「更多」按钮,选择「制作双语 BPUB 电子书」、「翻译本地 PDF 文件」、「翻译 THML / TXT 文件」、「翻译本地字幕文件」。 Calibre(电子书管理应用):下载并安装 calibre,并安装翻译插件「Ebook Translator」。 谷歌翻译(网页):使用工具把 PDF 转成 Word,再点击谷歌翻译「Document」按钮,上传 Word 文档。 百度翻译(网页):点击导航栏「文件翻译」,上传 PDF、Word、Excel、PPT、TXT 等格式的文件,支持选择领域和导出格式(不过进阶功能基本都需要付费了)。 彩云小译(App):下载后点击「文档翻译」,可以直接导入 PDF、DOC、DOCX、PPT、PPTX、TXT、epub、srt 等格式的文档并开始翻译(不过有免费次数限制且进阶功能需要付费)。 微信读书(App):下载 App 后将 PDF 文档添加到书架,打开并点击页面上方「切换成电子书」,轻触屏幕唤出翻译按钮。 相关文章: 《翻译:怎么把一份英文 PDF 完整地翻译成中文?》,这里介绍了 8 种方法,作者:ShowMeAI,分类:教育, 《入门经典必读》,作者: 内容由 AI 大模型生成,请仔细甄别。
2024-10-18