直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

大模型预测文本

回答

大模型的构建过程通常包括以下步骤:

  1. 收集海量数据:如同教孩子成为博学多才的人,让其阅读大量书籍、观看纪录片、与人交谈一样,对于 AI 模型,要收集互联网上的文章、书籍、维基百科条目、社交媒体帖子等各种文本数据。
  2. 预处理数据:就像为孩子整理学习资料,AI 研究人员需要清理和组织收集到的数据,如删除垃圾信息、纠正拼写错误、将文本分割成易于处理的片段。
  3. 设计模型架构:如同为孩子设计学习计划,研究人员要设计 AI 模型的“大脑”结构,通常是一个复杂的神经网络,比如 Transformer 架构,这种架构擅长处理序列数据如文本。
  4. 训练模型:如同孩子开始阅读和学习,AI 模型开始“阅读”提供的数据,反复尝试预测句子中的下一个词,通过不断重复这个过程,逐渐学会理解和生成人类语言。

大模型存在一些问题:

  1. 输出结果具有不可预测性,静态的训练数据导致知识存在截止日期,无法即时掌握最新信息,通用的基础大模型无法满足实际业务需求。
  2. 知识具有局限性,模型自身的知识源于训练数据,对于实时性、非公开或离线的数据无法获取。
  3. 存在幻觉问题,会在没有答案时提供虚假信息、过时或通用的信息,从可信度低非权威来源提供结果等。
  4. 数据安全性是企业关注的重点,企业不愿承担数据泄露风险,将私域数据上传第三方平台训练。

而 RAG 是解决上述问题的有效方案,它能让大模型从权威、预先确定的知识来源中检索、组织相关信息,更好地控制生成的文本输出,用户也能深入了解 LLM 生成最终结果的过程。RAG 可与微调结合使用,两者不冲突。RAG 类似于为模型提供教科书,适用于回答特定询问或解决特定信息检索任务,但不适合教模型理解广泛领域或学习新语言、格式或样式。微调类似于让学生内化知识,适用于模型需要复制特定结构、样式或格式的情况。参考资料:《Retrieval-Augmented Generation for Large Language Models:A Survey》(https://arxiv.org/pdf/2312.10997.pdf)

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

胎教级教程:万字长文带你理解 RAG 全流程

旁白当你发现大模型的效果并没有你预期想的那么好时,你打算放弃但是你也听到了另一种声音:如果大模型没有你想的那么好,可能是你没有了解他的能力边界。你不想就这么放弃,为了更好的理解大模型,你首先了解了他的创建过程[heading2]1.收集海量数据[content]想象一下,我们要教一个孩子成为一个博学多才的人。我们会怎么做?我们会让他阅读大量的书籍,观看各种纪录片,与不同背景的人交谈等。对于AI模型来说,这个过程就是收集海量的文本数据。例子:研究人员会收集互联网上的文章、书籍、维基百科条目、社交媒体帖子等各种文本数据。[heading2]2.预处理数据[content]在孩子开始学习之前,我们可能会先整理这些资料,确保内容适合他的年龄和学习能力。同样,AI研究人员也需要清理和组织收集到的数据。例子:删除垃圾信息,纠正拼写错误,将文本分割成易于处理的片段。[heading2]3.设计模型架构[content]就像我们要为孩子设计一个学习计划一样,研究人员需要设计AI模型的"大脑"结构。这通常是一个复杂的神经网络。这里我们就不展开了,我们只需要了解,为了让AI能够很好的学习知识,科学家们设计了一种特定的架构。例子:研究人员可能会使用Transformer架构,这是一种特别擅长处理序列数据(如文本)的神经网络结构。[heading2]4.训练模型[content]就像孩子开始阅读和学习一样,AI模型开始"阅读"我们提供的所有数据。这个过程被称为"训练"。例子:模型会反复阅读数据,尝试预测句子中的下一个词。比如给出"太阳从东方__",模型学会预测"升起"。通过不断重复这个过程,模型逐渐学会理解和生成人类语言。

文章:Andrej Karpathy 亲授:大语言模型入门

所以,这个神经网络实际上是一个下一个词预测网络。您给它一些单词,它就会给出下一个单词。从训练中得到的结果实际上是一种神奇的工具,因为尽管下一个单词预测任务看似简单,但它实际上是一个非常强大的目标。它迫使神经网络学习到大量关于世界的信息,并将这些信息编码在参数中。在准备这场演讲时,我随机抓取了一个网页,仅仅是从维基百科的主页上抓取的内容。本文讨论的是露丝·汉德勒。设想一个神经网络,它接收一系列单词并尝试预测下一个单词。在这个例子中,我用红色标出了一些信息量较大的单词。比如,如果你的目标是预测下一个单词,那么你的模型参数可能需要学习大量相关知识。你需要了解露丝和汉德勒,包括她的出生和去世时间,她是谁,她做了什么等等。因此,在预测下一个单词的任务中,你将学习到大量关于世界的知识,所有这些知识都被压缩并储存在模型的权重和参数中。模型做梦(生成)现在,我们如何实际应用这些神经网络呢?一旦我们训练好它们,我就向你展示了模型推理是一个非常简单的过程。我们基本上是在生成接下来的单词,通过从模型中采样,选择一个单词,然后将其反馈回模型以获取下一个单词,这个过程可以迭代进行。这样,网络就可以“梦想”出互联网文档。例如,如果我们仅运行神经网络,或者说执行推理,我们会得到类似于网页梦想的东西。你可以这么想,因为网络是在网页上训练的,然后你让它自由运行。在左边,我们看到的是类似于Java代码的梦;中间是类似于亚马逊产品的梦;右边是类似于维基百科文章的内容。

RAG提示工程(一):基础概念

大语言模型技术的本质导致了大模型的输出结果具有不可预测性,此外,静态的训练数据导致了大模型所掌握的知识存在截止日期,无法即时掌握最新信息。因此,当我们将大模型应用于实际业务场景时会发现,通用的基础大模型无法满足我们的实际业务需求。主要存在以下原因:知识的局限性:模型自身的知识完全源于它的训练数据,而现有的主流大模型(ChatGPT、文心一言、通义千问…)的训练集基本都是抓取网络公开的数据用于训练,对于一些实时性的、非公开的或离线的数据是无法获取到的,这部分知识也就无从具备。幻觉问题:大模型的底层原理是基于数学概率的文字预测,即文字接龙。因此大模型存在幻觉问题,会在没有答案的情况下提供虚假信息,提供过时或通用的信息,从可信度低非权威来源的资料中提供结果等。数据安全性:对于企业来说,数据安全至关重要,没有企业愿意承担数据泄露的风险,将自身的私域数据上传第三方平台进行训练。因此如何大模型落地应用时如何保障企业内部数据安全是一个重要问题。而RAG是解决上述问题的一套有效方案。它可以让大模型从权威的、预先确定的知识来源中检索、组织相关信息,更好地控制大模型生成的文本输出,并且用户可以深入了解LLM如何生成最终的结果。并且,RAG可以和微调结合使用,两者并不冲突。RAG类似于为模型提供教科书,允许它基于特定查询检索信息。这该方法适用于模型需要回答特定的询问或解决特定的信息检索任务。然而,RAG不适合教模型来理解广泛的领域或学习新的语言,格式或样式。微调类似于让学生通过广泛的学习内化知识。这种方法当模型需要复制特定的结构、样式或格式时非常有用。以下是RAG与微调从维度方面的比较:参考资料:《Retrieval-Augmented Generation for Large Language Models:A Survey》(https://arxiv.org/pdf/2312.10997.pdf)

其他人在问
写精彩脱口秀文本的prompt
以下是关于写精彩脱口秀文本的一些提示: 基本提示可以只是一个单词、短语或表情符号。 更高级的提示可以包括一个或多个图片 URL、多个文本短语以及一个或多个参数。图片 URL 始终位于提示的最前面,以影响完成结果的风格和内容。参数需要放在提示语的末尾。 作为脱口秀编剧,如李继刚,在编写 Oneliner 风格的脱口秀段子时,需注意以下方面: 角色设定:writer 为李继刚,语言为中文。 注意事项:创作对用户的上台表演影响巨大,段子必须包含铺垫和包袱两部分,要有幽默感,能打破预期。预期违背即在段子的结构中,包袱必须是对铺垫的预期违背。 参考示例:可查看
2024-11-19
列出2-3个精选的比较好的文本处理类的AI工具或网站,要求尽量是国内的产品,最好是免费的。罗列时应包含以下信息:名称、简介、2-3个主要功能、横向对比的优缺点
以下为您精选的国内文本处理类 AI 工具或网站: 1. 秘塔写作猫 简介:利用 AI 技术辅助用户进行高质量写作。 主要功能:检查语法、拼写错误;提供写作改进建议;进行智能润色和内容创作辅助。 优点:功能较为全面,能有效提升写作质量。 缺点:可能存在对某些特定领域的适应性不足。 2. Lettria 简介:处理个人文本材料。 主要功能:对个人文本进行分析和处理。 优点:专注于个人文本处理,针对性较强。 缺点:功能相对较单一。
2024-11-19
列出2-3个精选的比较好的文本处理类的AI工具或网站,要求尽量是国内的产品,最好是免费的。罗列时应包含以下信息:
以下为您精选的 23 个国内的、免费的文本处理类 AI 工具或网站: 1. 🍓 JamGPT:AI Debug 小助手。网址:https://jam.dev/jamgpt 2. ✅ Lettria:个人文本材料处理。网址:https://www.lettria.com/ 3. 🔗 Bloks:个人笔记、任务列表和会议记录自动处理。网址:https://www.bloks.app/
2024-11-19
有什么AI工具可以只做虚拟动画形象,可以根据输入的文本说话
以下是一些可以制作虚拟动画形象并根据输入文本说话的 AI 工具: 动画(视频动画):DID 和 HeyGen 可以使图像“说话”,但目前可供使用的能生成高保真度说话人脸的模型不多。 语音(语音合成):ElevenLabs 可以赋予虚拟形象一种声音,并且能够控制年龄、性别和口音。 此外,用于在视频中为人脸制作动画的工具还有 DiD,从文本创建视频的工具可以选择 Runway v2。
2024-11-18
如何通过文本生成流程图
生成流程图主要有以下两种方式: 1. 可视化拖拽: 代表产品有:(web 工具)、visio(本地软件)。 优点:直观。 缺点:需要花时间在布局上。 2. 语法渲染成图形,代表语法: 优点: 只用关注逻辑,文本即图形,方便直接嵌入在 markdown 文件中,比如在用 tyora、markdown 写文档时。 多样性,不同渲染引擎可渲染成多种样式。 缺点:有点抽象。 个人比较倾向于语法转图形的方式。只要解决语法抽象写起来麻烦的问题就行。 使用 Mermaid 生成流程图的流程如下: 1. 确定制作目标。 2. 通过自然语法描述逻辑,用自然语言描述出来生成 Mermaid 图形语法。 3. 在线校验测试是否成功。 Mermaid 是一款开源的 JavaScript 库,用于通过简单的文本描述生成各种类型的图表、流程图和时序图等可视化图形。使用 Mermaid,您可以在不使用专业图表工具的情况下,通过文本描述来快速生成各种图表,包括流程图、时序图、甘特图、类图等。 在 ChatGPT 生成 Mermaid 图形代码之后,打开网址“https://mermaid.live”,然后将输出结果的代码拷贝到图形生成框中,即可得到图形。
2024-11-18
有通过文本生成流程图的工具吗
以下是一些通过文本生成流程图的工具和方法: 1. 可视化拖拽方式: 代表产品有:(web 工具)、visio(本地软件)。 优点:直观。 缺点:需要花时间在布局上。 2. 语法渲染成图形方式: 代表语法:。 优点: 只用关注逻辑,文本即图形,方便直接嵌入在 markdown 文件中。 具有多样性,不同渲染引擎可渲染成多种样式。 缺点:有点抽象。 个人比较倾向于语法转图形的方式。只要解决语法抽象写起来麻烦的问题就行。例如,可以使用“Prompt x Mermaid”的方案,通过简单明了的方式来协助作图。Mermaid 是一款开源的 JavaScript 库,用于通过简单的文本描述生成各种类型的图表、流程图和时序图等可视化图形。使用 Mermaid,您可以在不使用专业图表工具的情况下,通过文本描述来快速生成各种图表,包括流程图、时序图、甘特图、类图等。 生成流程如下: 1. 确定制作目标。 2. 通过自然语法描述逻辑,用过自然语言描述出来生成 Mermaid 图形语法。 3. 在线校验测试是否成功。 在 ChatGPT 生成 Mermaid 图形代码之后,打开网址“https://mermaid.live”,然后将输出结果的代码拷贝到图形生成框中,即可得到图形。
2024-11-18
现在哪几家的大模型支持通过手机视频多模态实时交流?
以下几家的大模型支持通过手机视频多模态实时交流: 1. PandaGPT:能够理解不同模式的指令并根据指令采取行动,包括文本、图像/视频、音频、热、深度和惯性测量单位。 2. VideoLLaMA:引入了多分支跨模式 PT 框架,使语言模型能够在与人类对话的同时处理给定视频的视觉和音频内容。 3. 视频聊天 GPT:专门为视频对话设计,能够通过集成时空视觉表示来生成有关视频的讨论。 4. NExTGPT:端到端、通用的 anytoany 多模态语言模型,支持图像、视频、音频、文本的自由输入输出。
2024-11-22
siri是不是使用大模型技术
Siri 目前并非使用大模型技术。苹果公司的 Siri 概念虽好,但由于技术限制,其表现未达到人工智能的水平,常被称为“人工智障”。不过,随着技术发展,未来可能会用大模型重新改造 Siri,将手机上的所有功能控制起来,使其成为真正的智能助理。例如,苹果公司在手机算力的芯片发展到能够支撑大模型上手机的情况下,可能会推出大模型的小数据量、专业的版本来替代 Siri。同时,苹果公司若 All in 手机,其大模型可能会是本地化的,以重视个人数据保护和隐私。
2024-11-21
sairi是不是使用大模型技术
Sora 是使用大模型技术的。周鸿祎认为 Open AI 训练这个模型会阅读大量视频,大模型加上 Diffusion 技术需要对世界进一步了解,学习样本以视频和摄像头捕捉到的画面为主。Sora 在训练数据上采用在原始尺寸上进行训练的策略,避免了传统 AI 对人为抽象的依赖。此外,Sora 还采用了一些数据预处理技术,如将视觉图块压缩成低维潜在表示,并将其排列成序列,注入噪声后输入扩散变换器的输入层,同时采用时空分块化来降低后续对时间信息建模的复杂性。这种对原始视频和图像特征的细腻处理标志着生成模型领域的重大进步。
2024-11-21
模型微调怎么解决多轮对话容易受到上轮对话的影响问题
在解决模型微调中多轮对话容易受到上轮对话影响的问题时: 对于多轮对话,现实中常伴随指代问题,如使用“它”“他们”“我们”等代词。若仅依据原始提问检索知识片段,可能导致结果不精确或无法检索到信息。同时,对模型回复内容的限制可能影响多轮对话流畅性甚至中断。 为提升对话系统性能和用户体验,需开发提示词解决多轮对话中的指代消解问题,确保模型能在连续交流中提供准确连贯回答。但由于“指代消解”需多轮对话完成,单次交互无法达成,所以要转换测试形式,先解决“指代消解”问题再进行下一轮答复。 首先准备指代消解所需提示词,这里使用的“指代消解”提示词是用 CoT 写出的思维链,列举不同推理情景,让模型适应并推理出需消解的代词,再根据结果重新组织问题。 接着复现指代消解步骤,如进行第一轮对话,提出问题“尼罗河是什么?”,系统召回相关知识片段并回复,然后开始指代消解。 另外,聊天模型通过一串聊天对话输入并返回生成消息输出。聊天格式虽为多轮对话设计,但对单轮任务也有用。会话通过 messages 参数输入,包含不同角色和内容的消息对象数组。通常会话先有系统消息设定助手行为,再交替使用用户和助手消息。当指令涉及之前消息时,包含聊天历史记录有帮助,若超出模型限制需缩减会话。
2024-11-21
企业做自己的小模型,需要用到的工具及工具背后的公司都有哪些?
企业做自己的小模型,可能会用到以下工具及背后的公司: 1. 在编排(Orchestration)方面,涉及的公司如 DUST、FIAVIE、LangChain 等,其提供的工具可帮助管理和协调各部分及任务,确保系统流畅运行。 2. 部署、可扩展性和预训练(Deployment, Scalability, & PreTraining)类别中,像 UWA mosaicm、NMAREL、anyscale 等公司提供的工具,有助于部署模型、保证可扩展性及进行预训练。 3. 处理上下文和嵌入(Context & Embeddings)的工具,相关公司有 TRUDO、Llamalndex、BerriAI 等,能帮助模型处理和理解语言上下文,并将词语和句子转化为计算机可理解的形式。 4. 质量保证和可观察性(QA & Observability)方面,例如 Pinecone、drant、Vald 等公司提供的工具,可确保模型表现并监控其性能和状态。 此外,还有以下工具和相关公司: 1. 图片生成 3D 建模工具,如 Tripo AI(由 VAST 发布)、Meshy、CSM AI(Common Sense Machines)、Sudo AI、VoxCraft(由生数科技推出)等。 企业还可能涉及具身智能、3D 眼镜、AI 绘本、AI 图书、学习机、飞书的多维表格、蚂蚁的智能体、Coze 的智能体、Zeabur 等云平台、0 编码平台、大模型(通义、智谱、kimi、deepseek 等)、编程辅助、文生图(可灵、即梦等)等方面,可能需要相应资质。
2024-11-20
你认为目前最好用的大模型有哪些?
目前最好用的大模型包括: 1. OpenAI 的 GPT4:是最先进和广泛使用的大型语言模型之一,在多种任务上表现卓越,如文本生成、理解、翻译及各种专业和创意写作任务,能通过大量数据学习理解和生成人类语言,处理复杂问题和理解上下文能力出色。 2. Anthropic 公司的 Claude 3。 3. 谷歌的 Gemini。 4. 百度的文心一言。 5. 阿里巴巴的通义大模型。 大型模型主要分为两类: 1. 大型语言模型:专注于处理和生成文本信息。 2. 大型多模态模型:能够处理包括文本、图片、音频等多种类型的信息。 大型多模态模型与大型语言模型的不同点: 1. 处理的信息类型不同:大型语言模型专注于文本,大型多模态模型能处理多种类型信息。 2. 应用场景不同:大型语言模型主要用于自然语言处理任务,大型多模态模型应用领域更广泛。 3. 数据需求不同:大型语言模型依赖大量文本数据训练,大型多模态模型需要多种类型数据训练。 此外,如果想了解国内的大模型效果,可以参考第三方基准评测报告: 。需注意,内容由 AI 大模型生成,请仔细甄别。
2024-11-19
如何用大模型做销量预测
用大模型做销量预测可以从以下几个方面考虑: 1. 数据收集:销量预测需要大量相关数据,包括历史销售数据、市场趋势、经济指标、消费者行为等。 2. 模型选择:选择适合的大模型,例如基于深度学习的神经网络模型。 3. 特征工程:对收集到的数据进行处理和特征提取,以便模型能够更好地理解和学习。 4. 训练与优化:使用合适的算法和技术对模型进行训练,并不断优化模型参数以提高预测准确性。 5. 考虑国情和政策:不同国家和地区的国情和政策会对销售情况产生影响,模型应进行相应的优化和调整。 6. 可解释性:追求模型的可解释性,以便更好地理解预测结果和做出决策。 关于大模型相关的模型下载和安装: 1. 模型下载: Civitai(C 站):https://civitai.com/ ,可通过点击右上角筛选按钮找到所需模型类型,如 Checkpoint=大模型、LoRA=Lora 等,还可通过点击左上角“Images”查看他人已做好的图片并获取相关模型。 2. 模型安装: 大模型(Ckpt):放入 models\\Stablediffusion VAE 模型:一些大模型需要配合 vae 使用,对应的 vae 同样放置在 models\\Stablediffusion 或 models\\VAE 目录,然后在 webui 的设置栏目选择。 Lora/LoHA/LoCon 模型:放入 extensions\\sdwebuiadditionalnetworks\\models\\lora,也可以在 models/Lora 目录 Embedding 模型:放入 embeddings 目录 若下载的模型不知类型,可使用秋叶的模型解析工具 https://spell.novelai.dev/ ,将模型拖动到空白处即可查看模型信息。
2024-10-22
科学问题二:XXX(小标题) 问题挑战:如何通过构建合理的先验知识或模型假设,刻画出数据中的可变性?如何利用从少量样本中提取到的变化信息来预测未见数据的表现? XXX XXX(问题挑战一的方法) XXX)问题挑战二的方法) 请将XXX补充完整,重点在预测,如何刻画和利用数据分布的“变化性”
以下是为您补充完整的内容: 对于如何通过构建合理的先验知识或模型假设,刻画出数据中的可变性,以及如何利用从少量样本中提取到的变化信息来预测未见数据的表现,我们可以参考以下方法: 在准备 LLM 数据方面,对于制作 LLM 微调数据集,首先获取文本格式非结构式和网络式结构式的数据。对于 QA 数据集,主要依靠已有的大语言模型生成,根据不同文本设定不同的提示词以获取尽可能多且信息量丰富的 QA。先对文件中的文本进行切割,将每一大部分放进一个约 200 字的 txt 文件里,然后设定提示词模板。例如对于公司产品手册,模板可以是:“你是一个聪明的 xxx 公司的 xxx 产品的产品经理。给你一段 xxxxx 有限公司 xx 产品相关的文本,你必须依据文本想出十个不同的问题和这十个问题对应的答案。你想出的问题可以被用来测试公司内部 xxx 职员的专业能力。你想出的问题可以是使用公司产品的用户会想到的问题。你想出的问题和答案必须和所给文本相关。你回答得答案必须可以让使用产品的用户理解。当你想出问题和答案后,你必须用以下格式回复:```
2024-10-21
我是一名研究生,我想利用python实现机器学习,对碳排放进行预测,需要你帮我写出代码,我应该问你哪些问题或者给你哪些前提条件
在您希望利用 Python 实现机器学习对碳排放进行预测并让我为您编写代码时,您需要向我提供以下关键信息和问题: 1. 您所拥有的碳排放相关数据的格式和特征,例如数据的类型(数值型、分类型等)、数据的字段(如时间、能源消耗、生产活动等)。 2. 您对预测模型的性能要求,比如预测的精度、召回率等指标的期望。 3. 您是否有特定的机器学习算法倾向,或者是否希望我根据数据特点为您推荐合适的算法。 4. 数据的规模和分布情况,这会影响模型的训练时间和复杂度。 5. 您是否有可用的预处理步骤,例如数据清洗、特征工程的想法或已经完成的部分。 6. 对于模型的可解释性是否有要求。 7. 您的计算资源情况,例如内存、CPU 核心数等,以便选择适合的模型和训练策略。
2024-10-10
AI对于政府预算编制与预测的影响
AI 对于政府预算编制与预测具有多方面的影响: 案例方面:摩根大通用 AI 创建金融模型,通过处理大量数据集、检测模式并整合多个变量,完善经济和货币预测,使中央银行和政府能从更准确的通胀、国内生产总值增长和失业率等指标预测中受益,为政策选择提供信息,改善利率、流动性管理和宏观审慎措施的决策。 美国政府行动方面:拜登签署的 AI 行政命令指出,AI 能帮助政府为美国人民提供更好的结果,能扩大机构的监管、治理和福利分配能力,降低成本并增强政府系统的安全性。同时,总统指示采取一系列行动,包括为机构使用 AI 发布指导,帮助机构更快速、更便宜、更有效地获取特定 AI 产品和服务,加速招聘 AI 专业人员等。此外,美国《2024 财年预算申请》专门划拨总统预算中的一部分用于人工智能开发和部署,白宫科技政策办公室呼吁获得人工智能资助的机构将人工智能在执行任务时的公平性与可信度作为首要目标,并保护权利和隐私的技术研发。还发布了信息征集,以帮助制定国家 AI 战略。
2024-10-10
AI对于预算编制与预测的影响
AI 对于预算编制与预测具有多方面的影响: 更动态的预测和报告: 生成式 AI 能够帮助编写 Excel、SQL 和 BI 工具中的公式和查询,实现分析自动化,还能发现模式,从更广泛、更复杂的数据集中为预测建议输入,例如考虑宏观经济因素,并建议如何适应模型以支持公司决策。 可以自动创建文本、图表、图形等内容,并根据不同示例调整报告,无需手动整合数据和分析到外部和内部报告中。 对于会计和税务团队,能帮助综合、总结,并就税法和潜在扣除项提出可能答案。 能帮助自动生成和调整采购和应付账款方面的合同、采购订单、发票以及提醒。 挑战: 使用金融数据训练 LLMs:新进入者可能先使用公开金融数据优化模型,再用自身收集的数据;现有参与者虽可利用现有专有数据,但往往过于保守,这给新进入者带来竞争优势。 模型输出准确性:金融问题答案影响重大,新的 AI 模型需尽可能准确,初期人类常作为最终验证环节。 以下是一些相关案例: “工作流:成为生产力工具”,介绍了个人如何用 ChatGPT 提升生产力。 “金融:摩根大通用 AI 创建金融模型”,人工智能可完善经济和货币预测,使中央银行和政府受益。 “工作:人类和 AI 协作效率探讨”,表明使用 AI 的被测试者在任务完成量、速度和结果质量上有显著提升。
2024-10-10
有很多通过学习易经的卦象来预测未来,通过AI能不能学习易经来占卦,要怎么做
目前关于通过 AI 学习易经来占卦的相关内容较为复杂和多样。 一方面,有案例如“问事屋一个摇签算卦 Bot”,其创建者原本打算做基于六爻周易解卦的 bot,但因 AI 对结果的分析和推理存在不足,后转换思路,以庙里摇签抽签的经历为灵感,收集整理相关签文并搭建工作流。 另一方面,从理论角度来看,AI 模型具有一定的灵活性和学习能力,但如同简单神经网络在预测未来时可能失败一样,AI 在学习易经占卦这类复杂且具有深厚文化内涵和哲学思考的领域,仍面临诸多挑战和限制。 需要注意的是,易经占卦更多是一种文化和哲学的表达方式,其结果并非具有科学可验证性的准确预测。
2024-10-06