直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

个人使用可以通过对话微调的大模型

回答

大模型是指输入大量语料,使计算机获得类似人类的“思考”能力,能够进行文本生成、推理问答、对话、文档摘要等工作。可以用“上学参加工作”来类比大模型的训练和使用过程:

  1. 找学校:训练大模型需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练。
  2. 确定教材:大模型需要的数据量特别多,几千亿序列(Token)的输入基本是标配。
  3. 找老师:用合适的算法让大模型更好理解 Token 之间的关系。
  4. 就业指导:为让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。
  5. 搬砖:完成就业指导后,进行如翻译、问答等工作,在大模型里称为推导(infer)。

在 LLM 中,Token 被视为模型处理和生成的文本单位,能代表单个字符、单词、子单词等,具体取决于分词方法。将输入分词时会数字化形成词汇表。

个人动手实验方面:

  • macOS 系统可采用 GGML 量化后的模型。有名的项目如 ggerganov/llama.cpp:Port of Facebook's LLaMA model in C/C++ ,首先编译,利用 Metal 的 GPU 用相应命令编译,然后去下载模型,还提供了 WebUI,启动 server 后默认监听 8080 端口,打开浏览器可对话。
  • Whisper 与 llama 类似,用 make 命令编译,去指定地址下载量化好的模型,转换音频,目前只接受 wav 格式,可用 ffmpeg 转化。

张梦飞的教程《用聊天记录克隆自己的 AI 分身》全程本地操作,目标是把微信聊天记录导出,用其微调模型,最终接入微信替你回复消息。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

大模型入门指南

[title]大模型入门指南[heading1]什么是大模型通俗来讲,大模型就是输入大量语料,来让计算机获得类似人类的“思考”能力,使之能够理解自然语言,能够进行『文本生成』、『推理问答』、『对话』、『文档摘要』等工作。既然是学习,那我们就可以用『上学参加工作』这件事来类比大模型的训练、使用过程:1.找学校::训练LLM需要大量的计算,因此GPU更合适,因此只有购买得起大量GPU的贵族学校才有资本训练自己的大模型2.确定教材::大模型顾名思义就是大,需要的数据量特别多,几千亿序列(Token)的输入基本是标配3.找老师::即用什么样的算法讲述“书本”中的内容,让大模型能够更好理解Token之间的关系4.就业指导::学完书本中的知识后,为了让大模型能够更好胜任某一行业,需要进行微调(fine tuning)指导5.搬砖::就业指导完成后,下面就要正式干活了,比如进行一次翻译、问答等,在大模型里称之为推导(infer)在LLM中,Token([2])被视为模型处理和生成的文本单位。它们可以代表单个字符、单词、子单词,甚至更大的语言单位,具体取决于所使用的分词方法(Tokenization)。Token是原始文本数据与LLM可以使用的数字表示之间的桥梁。在将输入进行分词时,会对其进行数字化,形成一个词汇表(Vocabulary),比如:The cat sat on the mat,会被分割成“The”、“cat”、“sat”等的同时,会生成下面的词汇表:|Token|ID|<br>|-|-|<br>|The|345|<br>|cat|1256|<br>|sat|1726|<br>|…|…|

大模型入门指南

由于笔者实用的macOS系统,因此采用GGML量化后的模型,官方开源出来的模型大都以Python为主,效率可想而知,因此笔者一般会采用社区内的其他实现,比较有名的项目有:ggerganov/llama.cpp:Port of Facebook's LLaMA model in C/C++([7])ggerganov/whisper.cpp:Port of OpenAI's Whisper model in C/C++([8])[heading2]LLama[content]首先是编译,为了利用Metal的GPU,可以用如下命令编译:之后需要去Llama-2-7B-Chat-GGML([9])中下载模型,3G到7G不等,读者可以按需尝试即可。得到输出此外,llama.cpp还提供了WebUI供用户使用,首先启动server:它默认监听8080端口,打开浏览器就可以对话了[heading2]Whisper[content]和llama类似,采用make命令编译,之后去ggerganov/whisper.cpp([10])下载量化好的模型,然后转换音频即可,目前只接受wav格式,可以用ffmpeg转化输出的srt文件如下所示:|Size|Parameters|English-only model|Multilingual model|Required VRAM|Relative speed|<br>|-|-|-|-|-|-|<br>|tiny|39 M|tiny.en|tiny|~1 GB|~32x|<br>|base|74 M|base.en|base|~1 GB|~16x|<br>|small|244 M|small.en|small|~2 GB|~6x|<br>|medium|769 M|medium.en|medium|~5 GB|~2x|<br>|large|1550 M|N/A|large|~10 GB|1x|一般来说,英文的音频small模型就有够了,但是如果是中文,最好用最大的模型。

张梦飞:用聊天记录把自己克隆成AI,分分钟化身为1V100的“时间管理大师” -- LLamaFactory部署与微调大模型应用教程

[title]张梦飞:用聊天记录把自己克隆成AI,分分钟化身为1V100的“时间管理大师” -- LLamaFactory部署与微调大模型应用教程作者:张梦飞原文链接,大家多多关注https://mp.weixin.qq.com/s/B8FUmjSdr-wAjIApa9aNVA大家好,我是梦飞。好久不见,一个月前发布的视频号,今天终于能够填坑了!这次带来的教程是:《用聊天记录克隆自己的AI分身》在我多次尝试(其实是多个平台账号欠费之后),终究是放弃了让大家云端使用。学习和使用成本太高,本篇教程依然全程本地操作,无需调用云端资源。让大家既能体验大模型训练和调用,又可以无负担的使用自己微调后的大模型!本篇教程的目标是,把自己微信中的聊天记录导出,用自己的聊天记录去微调一个模型,最终将这个微调后的模型接入微信中,替你回复消息。

其他人在问
推荐一下国内可以通过对话微调的预训练模型
以下是为您推荐的国内可以通过对话微调的预训练模型相关信息: 为优化 Llama2 的中文能力,可使用以下数据: 网络数据:互联网上公开的网络数据,包括百科、书籍、博客、新闻、公告、小说等高质量长文本数据。 :中文 Wikipedia 的数据。 :中文悟道开源的 200G 数据。 :Clue 开放的中文预训练数据,经过清洗后的高质量中文长文本数据。 竞赛数据集:近年来中文自然语言处理多任务竞赛数据集,约 150 个。 :MNBVC 中清洗出来的部分数据集。 社区提供预训练版本 Atom7B 和基于 Atom7B 进行对话微调的模型参数供开放下载,关于模型的进展详见社区官网 https://llama.family。 另外,关于会话补全(Chat completions): gpt3.5turbo 和 textdavinci003 两个模型能力相似,但前者价格只是后者的十分之一,在大部分情况下更推荐使用 gpt3.5turbo。 gpt3.5turbo 模型不支持微调。从 2023 年 3 月 1 日起,只能对基于 GPT3.5 的模型进行微调。有关如何使用微调模型的更多细节,请参阅微调指南。 从 2023 年 3 月 1 日起,OpenAI 会将您通过 API 发送的数据保留 30 天但不会使用这些数据来提升模型。 关于安仔:Coze 全方位入门剖析 免费打造自己的 AI Agent(国内版): 目前国内版暂时只支持使用“云雀大模型”作为对话引擎,其携带上下文轮数默认为 3 轮,可修改区间是 0 到 30,具体轮数可根据业务需求决定。 在 Bot 编排页面的“技能”区域,可为 Bot 配置所需技能。不懂插件时,可选择区域右上角的“优化”按钮让 AI Bot 根据提示词自动选择插件。也可自定义添加所需插件,点击插件区域的“+”号选择加入具体插件。 在 Bot 编排页面的“预览与调试”区域,可测试 Bot 是否按预期工作,可清除对话记录以开始新的测试,确保 Bot 能理解用户输入并给出正确回应。
2024-10-18
推荐一下个人可以使用的通过对话微调的模型
以下是一些个人可以使用的通过对话微调的模型相关信息: 会话补全(Chat completions): GPT3.5 系列中,gpt3.5turbo 和 textdavinci003 有相似能力,但 gpt3.5turbo 价格仅为 textdavinci003 的十分之一,在多数情况下更推荐使用 gpt3.5turbo。不过,gpt3.5turbo 不支持微调,从 2023 年 3 月 1 日起,只能对基于 GPT3.5 的模型进行微调。 微调(Finetuning): 案例研究: 客户支持聊天机器人:通常包含相关上下文、对话摘要及最近消息,可能需要几千个示例处理不同请求和客户问题,建议审查对话样本确保代理消息质量,可使用单独文本转换微调模型生成摘要。 基于技术属性列表的产品描述:将输入数据转换为自然语言很重要,确保完成基于所提供描述,若常查阅外部内容,自动添加此类内容可提高性能,若描述基于图像,提取图像文本描述可能有帮助。 模型(Models): GPT3.5 模型可理解和生成自然语言或代码,其中功能最强大、最具成本效益且针对聊天优化的型号是 gpt3.5turbo,建议使用它而非其他 GPT3.5 模型,因其成本更低。 gpt3.5turbo:功能强大,针对聊天优化,成本低,会使用最新模型迭代更新,最大 Token 数 4096,训练数据截至 2021 年 9 月。 gpt3.5turbo0301:2023 年 3 月 1 日的快照,不会更新,仅在 2023 年 6 月 1 日结束的三个月内提供支持,最大 Token 数 4096,训练数据截至 2021 年 9 月。 textdavinci003:能完成任何语言任务,支持文本中插入补全,最大 Token 数 4097,训练数据截至 2021 年 6 月。 textdavinci002:与 textdavinci003 类似,使用监督微调而非强化学习训练,最大 Token 数 4097,训练数据截至 2021 年 6 月。 codedavinci002:针对代码完成任务优化,最大 Token 数 8001,训练数据截至 2021 年 6 月。 请注意,OpenAI 模型具有不确定性,相同输入可能产生不同输出,将温度设置为 0 可使输出大部分具有确定性,但可能仍有少量可变性。
2024-10-18
国内能通过对话微调的语言大模型
以下是国内一些能通过对话微调的语言大模型: 教育领域:桃李(Taoli) 地址: 简介:在国际中文教育领域数据上进行了额外训练的模型,基于国际中文教育教材等构建资源库和问答数据集,并利用数据进行指令微调,让模型习得将知识应用到具体场景中的能力。 数学领域:chatglmmaths 地址: 简介:基于 chatglm6b 微调/LORA/PPO/推理的数学题解题大模型,样本为自动生成的整数/小数加减乘除运算,可 gpu/cpu 部署,开源了训练数据集等。 文化领域:Firefly 地址: 简介:中文对话式大语言模型,构造了许多与中华文化相关的数据,如对联、作诗、文言文翻译、散文、金庸小说等,以提升模型在这方面的表现。 金融领域: Cornucopia(聚宝盆) 地址: 简介:开源了经过中文金融知识指令精调/指令微调的 LLaMA7B 模型。通过中文金融公开数据+爬取的金融数据构建指令数据集,并在此基础上对 LLaMA 进行了指令微调,提高了 LLaMA 在金融领域的问答效果。基于相同的数据,后期还会利用 GPT3.5 API 构建高质量的数据集,另在中文知识图谱金融上进一步扩充高质量的指令数据集。 BBTFinCUGEApplications 地址: 简介:开源了中文金融领域开源语料库 BBTFinCorpus,中文金融领域知识增强型预训练语言模型 BBTFinT5 及中文金融领域自然语言处理评测基准 CFLEB。 XuanYuan(轩辕) 地址: 简介:国内首个开源的千亿级中文对话大模型,同时也是首个针对中文金融领域优化的千亿级开源对话大模型。在 BLOOM176B 的基础上针对中文通用领域和金融领域进行了针对性的预训练与微调,不仅可以应对通用领域的问题,也可以解答金融相关的各类问题,为用户提供准确、全面的金融信息和建议。
2024-10-18
文生图lora微调
以下是关于文生图 lora 微调的详细内容: 定主题:明确您需要生成的图片的主题、风格和要表达的信息。 选择基础模型 Checkpoint:根据主题选择内容贴近的 checkpoint,如麦橘、墨幽的系列模型,如麦橘写实、麦橘男团、墨幽人造人等。 选择 lora:基于生成内容寻找重叠的 lora,以控制图片效果和质量,可参考广场上优秀帖子中使用的 lora。 ControlNet:可控制图片中特定图像,如人物姿态、生成特定文字或艺术化二维码等,属于高阶技能。 局部重绘:下篇再教。 设置 VAE:无脑选择 840000 即可。 Prompt 提示词:用英文写需求,使用单词和短语组合,不用管语法,单词、短语间用英文半角逗号隔开。 负向提示词 Negative Prompt:同样用英文写要避免的内容,单词和短语组合,用英文半角逗号隔开。 采样算法:一般选 DPM++ 2M Karras 较多,也可参考 checkpoint 详情页上模型作者推荐的采样器。 采样次数:选 DPM++ 2M Karras 时,采样次数通常在 30 40 之间。 尺寸:根据个人喜好和需求选择。 以下是一个简笔水彩风格插画的示例: 使用大模型“Flat 2D Animerge”,适合生成卡通动漫图片,官方建议 CFG 值在 5 或 6(使用动态阈值修复可拉到 11)。搭配两个 lora,“Chinese painting style”可增加中国画水彩风格效果,权重设为 0.4;“Crayon drawing”可添加简单线条和小孩子笔触,权重设为 0.8。将图片丢到标签器中反推关键词,发送到“文生图”。在正向提示词末尾添加这两个 lora,尺寸按参考图设置,重绘幅度开 0.5 让 AI 更自由发挥,若想更接近原图可降低数值。将图放入 ControlNet 中,选择 tile 模型,权重为 0.5,控制模式选择“更注重提示词”。
2024-10-05
AI 增量训练和模型微调的区别
AI 增量训练和模型微调存在以下区别: 目的:增量训练通常是为了持续更新模型以适应新的数据和任务,而模型微调主要是为了使模型在特定的小领域数据集上针对特定任务达到更好的性能。 范围:增量训练可能涉及对模型的较大范围的更新,而微调往往集中在较小范围的参数调整。 方式:增量训练可能会对全量的模型参数进行训练,而微调存在全量微调(FFT)和参数高效微调(PEFT)两种技术路线,PEFT 只对部分模型参数进行训练,且目前在业界较为流行。 成本和效果:从成本和效果综合考虑,PEFT 是较好的微调方案。微调可以大幅提高模型在特定任务中的性能,但可能会使模型失去一些通用性。 数据使用:增量训练可能需要更多新的数据,而微调是在较小的、特定领域的数据集上进行。 如需了解更多关于微调的内容,可参考 OpenAI 官方微调教程:https://github.com/openai/openaicookbook/blob/main/examples/How_to_finetune_chat_models.ipynb
2024-09-13
模型微调都有哪些方式?
模型微调主要有以下方式: 1. 使用微调模型:当作业成功时,`fine_tuned_model`字段将填充模型名称。您现在可以将此模型指定为我们的`Completions API`的参数,并使用`Playground`向它发出请求。在您的工作首次完成后,您的模型可能需要几分钟时间才能准备好处理请求。如果对您的模型的完成请求超时,可能是因为您的模型仍在加载中。如果发生这种情况,请在几分钟后重试。您可以通过将模型名称作为`model`完成请求的参数传递来开始发出请求,包括`OpenAI`命令行界面、`cURL`、`Python`、`Node.js`等方式。您还可以继续使用所有其他完成参数,如`temperature`、`frequency_penalty`、`presence_penalty`等对这些请求进行微调模型。 2. 介绍:微调可让您从`API`提供的模型中获得更多收益,比如比即时设计更高质量的结果、能够训练比提示中更多的例子、由于更短的提示而节省了`Token`、更低的延迟请求。`GPT3`已经在来自开放互联网的大量文本上进行了预训练。当给出仅包含几个示例的提示时,它通常可以凭直觉判断出您要执行的任务并生成合理的完成,这通常称为“小样本学习”。微调通过训练比提示中更多的示例来改进小样本学习,让您在大量任务中取得更好的结果。对模型进行微调后,您将不再需要在提示中提供示例,这样可以节省成本并实现更低延迟的请求。在高层次上,微调涉及以下步骤:准备和上传训练数据、训练新的微调模型、使用您的微调模型。 3. 通义千问团队的微调方式:大规模预训练后,通义千问团队对模型进行精细的微调,以提升其智能水平,让其表现更接近人类。这个过程进一步提升了代码、数学、推理、指令遵循、多语言理解等能力。此外,模型学会对齐人类价值观,它也随之变得更加对人类有帮助、诚实以及安全。通义千问团队的微调过程遵循的原则是使训练尽可能规模化的同时并且尽可能减少人工标注。团队探索了如何采用多种自动方法以获取高质量、可靠、有创造力的指令和偏好数据,其中包括针对数学的的方法减少对齐税。不久后,通义千问团队将推出`Qwen2`的技术报告。
2024-09-11
我的app应用想要对接大语言模型,结合APP用户自身的数据,实现更精准的对话,是否有行业比较成功的案例可以借鉴
以下是一些在 APP 应用对接大语言模型方面比较成功的案例,可供您借鉴: 1. Poe: 由 Quora 开发,有 APP 版本,支持跨端使用。 集成了 Chat GPT、GPT4、Claude+、Claude、Dragonfly 等模型,同时支持用户自建 Chatbot。 不同语言模型回复效果有差异,适合需要调用多种大语言模型的用户。 Dragonfly 擅长给出较短的回答,并擅长在输入中给出示例时遵循指示。 Claude 更擅长创造性回复,配合 Poe 中的提问引导,非常适合在查阅资料时使用。 支持分享用户和模型的对话内容,但 GPT4、Claude+产品需要付费订阅使用。 访问地址: Poe 中的提问引导真的能够启发到用户,midjourney prompt 扩写 Chatbot 能力很惊人。 2. Perplexity.ai: 本质是个可联网的搜索引擎,完全免费,支持网页版、APP(目前支持 iOS,安卓即将推出)、Chrome 插件。 网页版能力全面,能够根据提问从互联网上搜寻信息并给出总结后的答案。 很多 Chat GPT 中调用插件才能解决的事情(联网查询、旅行、住宿、商品推荐)靠 Perplexity 就可以解决。 能给出信息来源网址,并根据搜索内容给出继续对话的问题建议。 最新推出的 Copilot 能力支持根据搜索内容进行信息补充,每 4h 内使用 5 次,调用 GPT4。 支持分享聊天内容到多渠道。 首页推荐当下流行的新闻、搜索内容。 支持筛选 Academic(包含不同领域的学术研究论文)、Wolfram|Alpha(包含数学、科学、经济学、语言学、工程学、社会科学、文化等领域的知识库)、Wikipedia(维基百科)、Youtube、Reddit(娱乐、社交和新闻网站)、News 进行搜索。 Chrome 插件可针对当前页面给出即时摘要。 访问地址:
2024-10-18
哪款AI工具适合学习英语,进行英语对话,并且可调节语速,显示文本
以下是一些适合学习英语、进行英语对话,并且可调节语速、显示文本的 AI 工具: 1. 11labs:英文效果较好,但无法使用语速、情绪调节等控件,只能通过标点符号改变语音效果。官网:https://elevenlabs.io/ 2. 出门问问的魔音工坊:可以使用情绪调节控件。 3. Duolingo:使用 AI 个性化学习体验,根据进度和错误调整练习内容,通过游戏化方式提供词汇、语法、听力和口语练习。下载应用,选择要学习的语言,按照课程指引学习。 4. Babbel:结合 AI 技术,提供个性化课程和练习,重点在于实际交流所需的语言技能。注册账户,选择语言课程,按照学习计划学习。 5. Rosetta Stone:使用动态沉浸法,通过 AI 分析学习进度,提供适合的练习和反馈。注册并选择学习语言,使用多种练习模式(听力、口语、阅读和写作)学习。 6. ChatGPT:可以用来模拟对话练习,帮助提高语言交流能力。在聊天界面选择目标语言,与 AI 进行对话练习,询问语法、词汇等问题,模拟实际交流场景。 7. Google Assistant:支持多种语言,可用来进行日常对话练习和词汇学习。设置目标语言,通过语音命令或文本输入与助手互动,练习日常用语。
2024-10-17
有哪款工具可以进行多语种对话?或者实现中文转英文和英文语音
以下是一些可以进行多语种对话或实现中文转英文和英文语音的工具: 1. 11labs:官网为 https://elevenlabs.io/ ,英文效果较好,但无法使用语速、情绪调节等控件,只能通过标点符号改变语音效果。 2. 出门问问的魔音工坊:国内工具,可使用情绪调节控件。 3. Voice control for ChatGPT Chrome 插件:用于和 ChatGPT 进行语音对话,支持多种语言,可当英语口语/听力老师使用。下载地址:https://chrome.google.com/webstore/detail/voicecontrolforchatgpt/eollffkcakegifhacjnlnegohfdlidhn?hl=zhCN 。但该工具提供的 TTS 效果较生硬。 4. VALLEX:一个开源的多语言文本到语音合成与语音克隆模型,支持多种语言(英语、中文和日语)和零样本语音克隆,具有语音情感控制和口音控制等高级功能。
2024-10-17
大模型合规
大模型的安全问题包括以下方面: 1. 对齐保障:通过对齐(指令调优),如 ChatGPT 从 GPT3 经过对齐而来,使其更好地理解人类意图,增加安全保障,确保不输出有害内容。对齐任务可拆解为监督微调及获取奖励模型和进行强化学习来调整输出分布。例如 LLAMA2 使用安全有监督微调确保安全,强化学习能让模型根据人类反馈更细粒度思考答案的安全性,面对训练分布外数据也能拒绝不当回答。 2. 数据过滤:在预训练阶段对数据进行过滤,如 baichuan2 采用此技术减少有害输出,但因数据关联性,仅靠此方法可能不够,模型仍可能从关联中学到有害内容,且面对不良信息时可能因缺少知识而处理不当。 3. 越狱问题:用户可能通过越狱(Jailbreak)使模型的对齐失效,重新回答各种问题。 大模型的特点包括: 1. 架构:分为 encoderonly、encoderdecoder、decoderonly 三类,目前熟知的 AI 助手多为 decoderonly 架构,由 transformer 衍生而来。 2. 规模:预训练数据量大,来自互联网的多种来源,且参数众多,如 GPT3 已达 170B 的参数。 GPT3 与 ChatGPT 相比,除形式不同外,安全性也有差别。
2024-10-18
大模型安全相关资料
以下是关于大模型安全的相关资料: 大模型的架构:包括 encoderonly、encoderdecoder 和 decoderonly 三种类型。其中,我们熟知的 AI 助手基本采用 decoderonly 架构,这些架构都是由谷歌 2017 年发布的“attention is all you need”论文中提出的 transformer 衍生而来。 大模型的特点:预训练数据量大,往往来自互联网上的论文、代码、公开网页等,通常用 TB 级别的数据进行预训练;参数非常多,如 Open 在 2020 年发布的 GPT3 就已达到 170B 的参数。 大模型的安全性保障:通过对齐(指令调优),包括监督微调、获取 reward model 与进行强化学习来调整语言模型的输出分布,以保证语言模型不会输出有害内容和信息。例如 LLAMA2 专门使用了安全有监督微调确保安全。但 Alignment 并不足以防护所有安全问题,存在越狱(Jailbreak)现象,会使模型对齐失效。此外,还有隐私问题。 相关资源:如果想进一步了解大语言模型安全,可以访问 Github awesomellmsafety 项目:https://github.com/ydyjya/AwesomeLLMSafety
2024-10-18
如何在个人电脑中部署本地RAG
在个人电脑中部署本地 RAG 可以按照以下步骤进行: 1. 加载所需的库和模块: 确保 ollama 服务已开启并下载好模型,ollama 用于在 python 程序中跑大模型。 feedparse 用于解析 RSS 订阅源。 2. 从订阅源获取内容: 函数用于从指定的 RSS 订阅 url 提取内容,如需接收多个 url 可稍作改动。 通过专门的文本拆分器将长文本拆分成较小的块,并附带相关元数据,如标题、发布日期和链接。最终,这些文档被合并成一个列表并返回,用于进一步的数据处理或信息提取任务。 3. 为文档内容生成向量: 使用文本向量模型 bgem3,从 hf 下载好模型后放置在指定路径,如 /path/to/bgem3,通过函数利用 FAISS 创建一个高效的向量存储。 4. 创建 Python 虚拟环境: 创建 python 虚拟环境,并安装相关库,版本如下: ollama:0.1.8 langchain:0.1.14 faisscpu:1.8.0(有 gpu 则安装 gpu 版本) gradio:4.25.0 feedparser:6.0.11 sentencetransformers:2.6.1 lxml:5.2.1 5. 导入依赖库。 6. 基于用户的问题,从向量数据库中检索相关段落,并根据设定的阈值进行过滤,最后让模型参考上下文信息回答用户的问题,从而实现 RAG。 7. 创建网页 UI:通过 gradio 创建网页 UI,并进行评测。 8. 问答测试:对于同样的问题和上下文,基于 Qwen7b、Gemma、Mistral、Mixtral 和 GPT4 分别进行多次测试。 总结: 1. 本文展示了如何使用 Langchain 和 Ollama 技术栈在本地部署一个资讯问答机器人,同时结合 RSSHub 来处理和提供资讯。 2. 上下文数据质量和大模型的性能决定了 RAG 系统性能的上限。 3. RAG 通过结合检索技术和生成模型来提升答案的质量和相关性,可以缓解大模型幻觉、信息滞后的问题,但并不意味着可以消除。
2024-10-13
个人知识库软件推荐
以下是为您推荐的个人知识库软件: 1. Coze:如果您想使用专门搭建个人知识库的软件,可以参考文章。这款软件效果不错,但需要您自己对接一些额外的 API,并且建议您先了解 RAG 的原理再去使用。 2. AnythingLLM:包含了所有 Open WebUI 的能力,并且额外支持选择文本嵌入模型和向量数据库。安装地址:https://useanything.com/download 。安装完成后,配置页面主要分为三步,包括选择大模型、文本嵌入模型和向量数据库。此外,它有 Workspace 的概念,可创建独有工作空间,提供 Chat 模式和 Query 模式两种对话模式。 3. 对于非重度信息整理依赖者,Apple Notes 可以满足需求,能快速记录与检索、无排版压力、支持链接、图片、PDF 以及手写,并通过 iCloud 云端保存。 4. 对于专业用户或重度知识工作者: 记忆方面: Apple Note:个人灵感笔记本,用于短创作和快速捕获。 Mymind:全部的阅读收藏,有良好的检索、自动化标签和遗忘功能。 Raindrop:网站收藏夹,用于独立站点、工具等非内容类资料。 Google Drive:全部个人创作的文章、演讲稿等,检索速度和准确度高。 提炼方面:Notion 是完善的笔记资料库,可保存相关内容。
2024-10-11
哪些AI模型可以帮助个人在股票投资
以下是一些可能有助于个人在股票投资的 AI 模型和相关信息: 目前,OpenAI、Gemini、Anthropic、LLama 以及来自法国的 Mistral 等是市场上备受瞩目的 AI 模型公司。 在投资领域,AI 将引领新的服务模式,如“智能即服务”,重塑工作和生活,为芯片、云计算等行业带来新的投资机会。企业软件、AI 驱动的金融服务以及 AI 健康技术成为吸引投资的主要领域,机器人行业的投资额也在增长。 科技巨头通过资本控制 AI 模型公司的趋势明显,如 OpenAI 与微软、Anthropic 与 Google 等的合作。 个人投资者可以关注在温哥华启动的专注于 AI 领域的基金 Brilliant Phoenix,其投资了 OpenAI、Cohere 和 Anthropic 等公司。同时,也有跨境基金如在上海发起的进益安成的 QDLP 跨境基金,专注于为投资者提供合规的人民币出境通道以投资美股二级市场。
2024-10-10
哪些AI模型可以用于个人在股票投资中提高盈利
目前没有特定的 AI 模型被广泛认可能确保个人在股票投资中必然提高盈利。股票市场受到众多复杂且难以预测的因素影响,包括宏观经济状况、政治局势、公司财务状况、行业竞争等。 虽然一些 AI 技术和模型可能在数据分析和预测方面提供一定的帮助,但它们并不能完全准确地预测股票价格的走势和投资的盈利情况。 在股票投资中,依靠单一的模型或技术来获取稳定盈利是不现实的,需要综合考虑多种因素,并结合自身的风险承受能力和投资目标,做出谨慎的决策。
2024-10-10
个人如何利用ai在股票投资中提高盈利
以下是个人利用 AI 在股票投资中提高盈利的一些方式: 1. 借助 AI 进行财务分析:例如通过相关的 AI 工具,对股票的财务数据进行深入分析,以获取更准确的评估和预测。 2. 关注科技领域的投资机会:特别是在 AI 领域,参与相关公司的投资,如 OpenAI、Cohere 和 Anthropic 等。 3. 利用创新的 AI 产品辅助决策:如使用类似于 Maimo 这样的产品,帮助进行会议脚本的听写、研究论文的结构分析、生成式搜索等,从而加速知识处理,为投资决策提供支持。 4. 发起合规的跨境基金:与专业团队合作,为投资者提供人民币出境通道,直接投资美股二级市场,确保资金安全和合规性。 需要注意的是,股票投资存在风险,AI 只是辅助工具,不能完全保证盈利。在使用 AI 辅助投资时,仍需结合自身的投资知识和经验,谨慎做出决策。
2024-10-10