Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

AI大模型历程

Answer

AI 大模型的发展历程如下:

  1. 早期阶段(1950s - 1960s):包括专家系统、博弈论、机器学习初步理论。
  2. 知识驱动时期(1970s - 1980s):出现专家系统、知识表示、自动推理。
  3. 统计学习时期(1990s - 2000s):机器学习算法如决策树、支持向量机、贝叶斯方法等得到发展。
  4. 深度学习时期(2010s - 至今):深度神经网络、卷积神经网络、循环神经网络等技术兴起。

自 2022 年 11 月 30 日 ChatGPT 发布以来,国内大模型大致经历了三个阶段:准备期(ChatGPT 发布后国内产学研迅速形成大模型共识)、成长期(国内大模型数量和质量开始逐渐增长)、爆发期(各行各业开源闭源大模型层出不穷,形成百模大战的竞争态势)。

当前,随着大模型技术的愈发成熟和规模增大,为 AI Agent 提供了强大能力,有望构建具备自主思考、决策和执行能力的智能体,并广泛应用于多个行业和领域。当前 AI 的前沿技术点包括:大模型(如 GPT、PaLM 等)、多模态 AI(视觉 - 语言模型如 CLIP、Stable Diffusion 以及多模态融合)、自监督学习(自监督预训练、对比学习、掩码语言模型等)、小样本学习(元学习、一次学习、提示学习等)、可解释 AI(模型可解释性、因果推理、符号推理等)、机器人学(强化学习、运动规划、人机交互等)、量子 AI(量子机器学习、量子神经网络等)、AI 芯片和硬件加速。

Content generated by AI large model, please carefully verify (powered by aily)

References

开发:AI应用大模型商业化落地现状与思考

大家下午好!很荣幸能够作为本次活动的分享嘉宾,我是甲木,LangGPT团队成员,很高兴给大家带来《大模型商业化落地现状与思考》的分享。本次分享的内容主要分为五个模块,从大模型的背景入手、深入探讨其在商业领域的现状和应用。接着,我们将分析在商业化过程中所遇到的挑战,并分享一些实战经验,最后将展望AI作为通用技术能够发挥生产力效能所要经历的几个阶段。[heading2]一、大模型的背景和趋势[content]首先,我们先来看大模型的背景和发展趋势。关于AI的演进历程,很多媒体包括各类研究资料都已经做过详细的介绍,相信今天在座的各位对AI的基本情况都已有所了解,因此我不会过多赘述AI的演进历程。(有兴趣的小伙伴可以多从公开资料中查找一下~)我们的重点将放在大模型当前的应用能力上,随着大模型技术的愈发成熟,规模增大,大模型为AI Agent()提供强大能力。Agent+大模型将有望构建具备自主思考、决策和执行能力的智能体,进一步提升大模型的应用能力,广泛应用于多个行业和领域。

问:AI的技术历史和发展方向,目前最前沿的技术点有哪些

AI技术的发展历程和前沿技术点可以概括如下:[heading2]AI技术发展历程[content]1.早期阶段(1950s-1960s):专家系统、博弈论、机器学习初步理论2.知识驱动时期(1970s-1980s):专家系统、知识表示、自动推理3.统计学习时期(1990s-2000s):机器学习算法(决策树、支持向量机、贝叶斯方法等)4.深度学习时期(2010s-至今):深度神经网络、卷积神经网络、循环神经网络等[heading2]当前AI前沿技术点[content]1.大模型(Large Language Models):GPT、PaLM等2.多模态AI:视觉-语言模型(CLIP、Stable Diffusion)、多模态融合3.自监督学习:自监督预训练、对比学习、掩码语言模型等4.小样本学习:元学习、一次学习、提示学习等5.可解释AI:模型可解释性、因果推理、符号推理等6.机器人学:强化学习、运动规划、人机交互等7.量子AI:量子机器学习、量子神经网络等8.AI芯片和硬件加速

2023年度中文大模型基准测评报告.pdf

5(关键进展)时间准备期成长期爆发期◼自2022年11月30日ChatGPT发布以来,AI大模型在全球范围内掀起了有史以来规模最大的人工智能浪潮。国内学术和产业界在过去一年也有了实质性的突破。大致可以分为三个阶段,即准备期(ChatGPT发布后国内产学研迅速形成大模型共识)、成长期(国内大模型数量和质量开始逐渐增长)、爆发期(各行各业开源闭源大模型层出不穷,形成百模大战的竞争态势)。故事的起点:ChatGPT发布国内迅速形成大模型共识

Others are asking
怎样构建一个自己专业的AI小模型
构建一个自己专业的 AI 小模型可以参考以下步骤: 1. 搭建 OneAPI:这是为了汇聚整合多种大模型接口,方便后续更换使用各种大模型,同时了解如何白嫖大模型接口。 2. 搭建 FastGpt:这是一个知识库问答系统,将知识文件放入,接入上面的大模型作为分析知识库的大脑,最后回答问题。如果不想接到微信,搭建完此系统就可以,它也有问答界面。 3. 搭建 chatgptonwechat 并接入微信,配置 FastGpt 把知识库问答系统接入到微信,建议先用小号以防封禁风险。若想拓展功能,可参考 Yaki.eth 同学的教程,里面的 cow 插件能进行文件总结、MJ 绘画等。 部署和训练自己的 AI 开源模型的主要步骤如下: 1. 选择合适的部署方式,包括本地环境部署、云计算平台部署、分布式部署、模型压缩和量化、公共云服务商部署等,根据自身的资源、安全和性能需求进行选择。 2. 准备训练所需的数据和计算资源,确保有足够的训练数据覆盖目标应用场景,并准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础,可以使用开源的预训练模型如 BERT、GPT 等,也可以自行训练一个基础模型。 4. 针对目标任务进行模型微调训练,根据具体应用场景对预训练模型进行微调训练,优化模型结构和训练过程以提高性能。 5. 部署和调试模型,将训练好的模型部署到生产环境,并对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护,大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 大模型的构建过程包括: 1. 收集海量数据:像教孩子成为博学多才的人一样,让模型阅读大量的文本数据,如互联网上的文章、书籍、维基百科条目、社交媒体帖子等。 2. 预处理数据:清理和组织收集到的数据,如删除垃圾信息,纠正拼写错误,将文本分割成易于处理的片段。 3. 设计模型架构:为模型设计“大脑”结构,通常是一个复杂的神经网络,如使用 Transformer 架构。 4. 训练模型:让模型“阅读”提供的数据,通过反复尝试预测句子中的下一个词等方式,逐渐学会理解和生成人类语言。
2025-01-29
有没有好用的ai表格推荐
以下为一些好用的 AI 表格工具推荐: 6 月访问量排名: 1. Highcharts:表格工具,6 月访问量 235 万,相对 5 月变化 0.389。 2. Fillout.com:表格工具,6 月访问量 186 万,相对 5 月变化 0.147。 3. Coefficient:表格工具,6 月访问量 46 万,相对 5 月变化 0.251。 4. Numerous.ai:表格工具,6 月访问量 41 万,相对 5 月变化 0.087。 5. SheetGod:表格工具,6 月访问量 31 万,相对 5 月变化 0.033。 6. GPTExcel:表格工具,6 月访问量 25 万,相对 5 月变化 0.364。 7. 酷表 ChatExcel:表格工具,6 月访问量 18 万,相对 5 月变化 0.159。 8. GPT Workspace:表格工具,6 月访问量 17 万,相对 5 月变化 0.213。 9. OpenAI in Spreadsheet:表格工具,6 月访问量 12 万,相对 5 月变化 0.314。 10. Ajelix AI Excel Tools:表格工具,6 月访问量 10 万,相对 5 月变化 0.145。 4 月访问量排名: 1. :表格工具,4 月访问量 175 万,相对 3 月变化 0.036。 2. Highcharts:表格工具,4 月访问量 127 万,相对 3 月变化 0.257。 3. Numerous.ai:表格工具,4 月访问量 73.4 万,相对 3 月变化 0.911。 4. Coefficient:表格工具,4 月访问量 69 万,相对 3 月变化 0.213。 5. GPTExcel:表格工具,4 月访问量 37 万,相对 3 月变化 1.139。 6. Rows AI:表格工具,4 月访问量 34 万,相对 3 月变化 0.115。 7. SheetGod:表格工具,4 月访问量 26 万,相对 3 月变化 0.016。 8. AI Excel Bot:表格工具,4 月访问量 25.3 万,相对 3 月变化 0.103。 9. OpenAI in Spreadsheet:表格工具,4 月访问量 17 万,相对 3 月变化 0.091。 10. GPT Workspace:表格工具,4 月访问量 17 万,相对 3 月变化 0.189。 关于 Excel 的 AI 功能,目前有以下几种工具和插件可以增强 Excel 的数据处理和分析能力: Excel Labs:Excel 插件,新增生成式 AI 功能,基于 OpenAI 技术,可在 Excel 中利用 AI 进行数据分析和决策支持。 Microsoft 365 Copilot:微软推出,整合了 Word、Excel、PowerPoint、Outlook、Teams 等办公软件,通过聊天形式,用户告知需求,Copilot 自动完成任务。 Formula Bot:提供数据分析聊天机器人和公式生成器两大功能,用户可通过自然语言交互式进行数据分析和生成 Excel 公式。 Numerous AI:支持 Excel 和 Google Sheets 的 AI 插件,可生成公式、相关文本内容、执行情感分析、语言翻译等任务。 这些工具通过 AI 技术提升了 Excel 的数据处理能力,随着技术发展,未来可能会有更多 AI 功能集成到 Excel 中,进一步提高工作效率和数据处理的智能化水平。请注意,内容由 AI 大模型生成,请仔细甄别。
2025-01-29
现在最好的AI大模型
目前较为出色的 AI 大模型包括: 1. GPT4(免费可用):是 OpenAI 在深度学习规模扩大方面的最新里程碑,是一个大型多模态模型,在各种专业和学术基准测试中表现出与人类相当的水平。 2. Midjourney v5(免费):具有极高的一致性,擅长以更高分辨率解释自然语言 prompt,并支持像使用 tile 这样的重复图案等高级功能,能生成令人惊叹的逼真 AI 图像。 3. DALL·E 3(免费可用):代表了生成完全符合文本的图像能力的一大飞跃,能轻松将想法转化为极其精准的图像。 4. Mistral 7B(免费):是一个具有 73 亿参数的模型,在所有基准测试上超越了 Llama 2 13B,在许多基准测试上超越了 Llama 1 34B,在代码任务上接近 CodeLlama 7B 的性能,同时在英语任务上表现良好。 此外,在主要的大语言模型方面: 1. OpenAI 系统:包括 3.5 和 4.0 版本,3.5 模型在 11 月启动了当前的 AI 热潮,4.0 模型功能更强大。微软的 Bing 使用 4 和 3.5 的混合,通常是 GPT4 家族中首个推出新功能的模型。 2. 谷歌:一直在测试自己的人工智能 Bard,由各种基础模型驱动,最近是一个名叫 PaLM 2 的模型。 3. Anthropic 发布了 Claude 2,其最值得注意的是有一个非常大的上下文窗口。
2025-01-29
本网站都有哪些讲Ai量化炒股的学习资料
很抱歉,目前本网站没有关于 AI 量化炒股的学习资料。
2025-01-29
35岁java后端开发如何转型AI开发
对于 35 岁的 Java 后端开发人员转型 AI 开发,以下是一些建议: 1. 利用固定格式文档结合 AI 进行代码开发时,要强调组员的主观能动性,让他们自主设计,组长负责引导和经验分享。文档并非唯一最佳方式,可尝试用简短描述或 Prompt 辅助代码生成。在 AI 编程中,设计非常重要,模块化低耦合设计和清晰的上下文对代码生成效果尤为关键。参考链接: 2. 借助 AI 编程工具(如 Cursor),熟悉 LLM 原理,探索复杂 Prompt 和定制化规则。开展 LLM 相关的 Side Project(如翻译工具、AI 对话应用等),通过实践快速掌握技能。将 AI 当老师,边做边学,获取即时反馈,持续提升。核心建议是行动起来,找到正反馈,坚持使用 AI 辅助编程。参考链接:
2025-01-29
如何让ai写一篇很好的文学理论 论文
以下是关于如何让 AI 写一篇好的文学理论论文的相关内容: 首先,过度追求模型的正面描述和对齐人类价值观可能会带来问题。比如在文学创作中,道德过度正确和大量正面描述实际上是一种“对齐税”,会让模型变得愚蠢。像生成的游戏中主人公全是幸福人生,这样的故事缺乏冲突,人物单薄,不好看。而且全乎正确的道德和完美的正面在现实世界中并不存在,纵观文学史,伟大的文学作品几乎没有全是正面描述的,因为人类的心灵与生活极为复杂,痛苦、绝望和悲伤也是生命体验的一部分,只有正面的故事很难获得共鸣。 其次,好的文字能引起人的生理共鸣与情绪。人们在感受到好文字时,往往有一种被击中、头皮发麻的感觉。共鸣是文学的基础,有共鸣才有读者,有读者才有文学。文学映照的是人类相同的渴望与恐惧,人类之间的共性大于差异。对于像 GPT 这样的大语言模型,其预训练数据量大且丰富,储存了人类几乎所有可能的生命经验,理应能够学会引发人类的共鸣与情绪。 最后,在实际操作中,对于处理文本特别是 PDF,Claude 2 表现出色。可以将整本书粘贴到 Claude 的前一版本中取得不错的结果,新模型更强大。但需要注意的是,这些系统仍会产生幻觉,若要确保准确性,需检查其结果。
2025-01-29
推荐可以做以时间轴的个人成长历程长页的工具
目前在 AI 领域中,暂时没有专门用于制作以时间轴呈现个人成长历程长页的特定工具。但您可以考虑使用一些通用的设计和内容创作工具来实现这一需求,例如 Adobe InDesign、Canva 等,它们具有丰富的模板和设计功能,能够帮助您创建出具有时间轴效果的个人成长历程页面。
2025-01-15
AI是怎么获得学习能力,是谁发现了这种学习模式,发展历程是什么?
AI 的学习能力主要通过以下几种方式实现: 1. 机器学习:电脑通过找规律进行学习,包括监督学习、无监督学习和强化学习。 监督学习:使用有标签的训练数据,算法旨在学习输入和输出之间的映射关系,包括分类和回归。 无监督学习:学习的数据没有标签,算法自主发现规律,经典任务如聚类。 强化学习:从反馈中学习,以最大化奖励或最小化损失,类似训练小狗。 2. 深度学习:这是一种参照人脑的方法,具有神经网络和神经元,由于有很多层所以称为深度。神经网络可用于监督学习、无监督学习和强化学习。 3. 生成式 AI:能够生成文本、图片、音频、视频等内容形式。 AI 学习模式的发现并非由单一的个人完成,而是众多研究者共同努力的成果。 AI 的发展历程中有重要的技术里程碑,如 2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它完全基于自注意力机制来处理序列数据,而不需要依赖于循环神经网络或卷积神经网络。Transformer 比 RNN 更适合处理文本的长距离依赖性。对于大语言模型,生成只是其中一个处理任务,比如谷歌的 BERT 模型,可用于语义理解(如上下文理解、情感分析、文本分类),但不擅长文本生成。生成式 AI 生成的内容称为 AIGC。LLM 即大语言模型,对于生成式 AI,生成图像的扩散模型不属于大语言模型。
2024-12-04
AI的发展历程
AI 的发展历程可以分为以下几个阶段: 1. 早期阶段(1950s 1960s):包括专家系统、博弈论、机器学习初步理论。 2. 知识驱动时期(1970s 1980s):出现专家系统、知识表示、自动推理。 3. 统计学习时期(1990s 2000s):机器学习算法如决策树、支持向量机、贝叶斯方法等得到发展。 4. 深度学习时期(2010s 至今):深度神经网络、卷积神经网络、循环神经网络等技术兴起。 当前 AI 的前沿技术点包括: 1. 大模型,如 GPT、PaLM 等。 2. 多模态 AI,如视觉 语言模型(CLIP、Stable Diffusion)、多模态融合。 3. 自监督学习,如自监督预训练、对比学习、掩码语言模型等。 4. 小样本学习,包括元学习、一次学习、提示学习等。 5. 可解释 AI,涉及模型可解释性、因果推理、符号推理等。 6. 机器人学,涵盖强化学习、运动规划、人机交互等。 7. 量子 AI,包含量子机器学习、量子神经网络等。 8. AI 芯片和硬件加速。 AI 的起源最早可以追溯到上世纪的 1943 年,心理学家麦卡洛克和数学家皮特斯提出了机器的神经元模型,为后续的神经网络奠定了基础。1950 年,计算机先驱图灵最早提出了图灵测试,作为判别机器是否具备智能的标准。1956 年,在美国达特茅斯学院召开的会议上,人工智能一词被正式提出,并作为一门学科被确立下来。此后近 70 年,AI 的发展起起落落。
2024-12-04
ai诈骗发展历程
AI 诈骗是随着 AI 技术的发展而出现的一种新型诈骗手段,其发展历程与 AI 技术的整体发展密切相关。 AI 技术的发展历程大致如下: 1. 早期阶段(1950s 1960s):出现专家系统、博弈论、机器学习初步理论。 2. 知识驱动时期(1970s 1980s):专家系统、知识表示、自动推理得到发展。 3. 统计学习时期(1990s 2000s):机器学习算法如决策树、支持向量机、贝叶斯方法等兴起。 4. 深度学习时期(2010s 至今):深度神经网络、卷积神经网络、循环神经网络等成为主流。 随着 AI 技术的进步,AI 幻觉等问题也逐渐显现。AI 幻觉并非新问题,从早期的“人工智障”到如今“一本正经地胡说八道”,其复杂性和隐蔽性不断提升。这一演变反映了 AI 技术从依赖人工规则到依靠数据驱动,再到深度学习的发展过程,在变得更“聪明”的同时也面临更多挑战。 在神经网络方面,如 CNN 的结构基于大脑细胞的级联模型,在计算上更高效、快速,在自然语言处理和图像识别等应用中表现出色,随着对大脑工作机制认知的加深,神经网络算法和模型不断进步。 目前,AI 技术的发展为诈骗手段的更新提供了可能,例如利用深度伪造技术制造虚假的语音、视频进行诈骗等。
2024-11-21
AI 图像识别的发展历程
AI 图像识别的发展历程如下: 早期处理印刷体图片的方法是将图片变成黑白、调整为固定尺寸,与数据库对比得出结论,但这种方法存在多种字体、拍摄角度等例外情况,且本质上是通过不断添加规则来解决问题,不可行。 神经网络专门处理未知规则的情况,如手写体识别。其发展得益于生物学研究的支持,并在数学上提供了方向。 CNN(卷积神经网络)的结构基于大脑中两类细胞的级联模型,在计算上更高效、快速,在自然语言处理和图像识别等应用中表现出色。 ImageNet 数据集变得越来越有名,为年度 DL 竞赛提供了基准,在短短七年内使获胜算法对图像中物体分类的准确率从 72%提高到 98%,超过人类平均能力,引领了 DL 革命,并开创了新数据集的先例。 2012 年以来,在 Deep Learning 理论和数据集的支持下,深度神经网络算法大爆发,如卷积神经网络(CNN)、递归神经网络(RNN)和长短期记忆网络(LSTM)等,每种都有不同特性。例如,递归神经网络是较高层神经元直接连接到较低层神经元;福岛邦彦创建的人工神经网络模型基于人脑中视觉的运作方式,架构基于初级视觉皮层中的简单细胞和复杂细胞,简单细胞检测局部特征,复杂细胞汇总信息。
2024-11-14
AI的发展历程
AI 的发展历程如下: 1. 早期阶段(1950s 1960s):包括专家系统、博弈论、机器学习初步理论。 2. 知识驱动时期(1970s 1980s):主要有专家系统、知识表示、自动推理。 3. 统计学习时期(1990s 2000s):出现了机器学习算法,如决策树、支持向量机、贝叶斯方法等。 4. 深度学习时期(2010s 至今):深度神经网络、卷积神经网络、循环神经网络等得到广泛应用。 当前 AI 前沿技术点包括: 1. 大模型,如 GPT、PaLM 等。 2. 多模态 AI,如视觉 语言模型(CLIP、Stable Diffusion)、多模态融合。 3. 自监督学习,如自监督预训练、对比学习、掩码语言模型等。 4. 小样本学习,如元学习、一次学习、提示学习等。 5. 可解释 AI,包括模型可解释性、因果推理、符号推理等。 6. 机器人学,涵盖强化学习、运动规划、人机交互等。 7. 量子 AI,如量子机器学习、量子神经网络等。 8. AI 芯片和硬件加速。 AI 的起源最早可追溯到 1943 年,心理学家麦卡洛克和数学家皮特斯提出了机器的神经元模型,为后续的神经网络奠定了基础。1950 年,图灵最早提出了图灵测试,作为判别机器是否具备智能的标准。1956 年,在美国达特茅斯学院召开的会议上,人工智能一词被正式提出,并作为一门学科被确立下来。此后近 70 年,AI 的发展起起落落。 最初,符号推理流行,带来了专家系统等重要进展,但因方法的局限性,20 世纪 70 年代出现了“人工智能寒冬”。随着计算资源变便宜、数据增多,神经网络方法在计算机视觉、语音理解等领域展现出卓越性能,过去十年中,“人工智能”一词常被用作“神经网络”的同义词。
2024-10-29
你好,你是什么模型?
您好,我是一名 AI 知识专家,能够为您提供全面的 AI 知识指导和解答相关问题。 关于模型方面的知识: LoRA 和 LyCORIS 都属于微调模型,常用于控制画风、生成的角色、角色姿势等。它们的后缀均为.safetensors,体积较主模型小,一般在 4M 300M 之间,使用 LoRA 模型较多,LyCORIS 可调节范围更大,现在 SD 已内置。在 WebUl 中使用时,可在 LoRA 菜单中点击使用,也可直接使用 Prompt 调用。 在 Tusiart 中,首页有模型、帖子、排行榜,展示了大手子炼成的模型和图片。生图必需基础模型(Checkpoint),任何生图操作必须选定一个 Checkpoint 模型才能开始,lora 是低阶自适应模型,可有可无,但对细节控制有价值。ControlNet 可控制图片中特定图像,VAE 类似于滤镜调整生图饱和度,选择 840000 即可。Prompt 提示词是想要 AI 生成的内容,负向提示词是想要 AI 避免产生的内容。还有图生图,即上传图片后 SD 会根据相关信息重绘。 如果您想搭建类似的群问答机器人,可以参考以下内容:
2025-01-28
为什么要布置大模型到本地
布置大模型到本地主要有以下原因: 1. 无需科学上网,也无需支付高昂的 ChatGPT 会员费用。 2. 可以通过 Web UI 实现和大模型进行对话的功能,如 Open WebUI 一般有两种使用方式,包括聊天对话和 RAG 能力(让模型根据文档内容回答问题),这也是构建知识库的基础之一。 3. 能够更加灵活地掌握个人知识库。 但需要注意的是,运行大模型需要很高的机器配置: 1. 生成文字大模型,最低配置为 8G RAM + 4G VRAM,建议配置为 16G RAM + 8G VRAM,理想配置为 32G RAM + 24G VRAM(如果要跑 GPT3.5 差不多性能的大模型)。 2. 生成图片大模型(比如跑 SD),最低配置为 16G RAM + 4G VRAM,建议配置为 32G RAM + 12G VRAM。 3. 生成音频大模型,最低配置为 8G VRAM,建议配置为 24G VRAM。 个人玩家的大多数机器可能负担不起,最低配置运行速度非常慢。但亲自实操一遍可以加深对大模型构建的知识库底层原理的了解。
2025-01-27
Coze + 飞书 + 飞书多维表格:通过飞书机器人与 Coze 搭建的智能体进行对话,在聊天窗口中完成链接输入和阅读计划输出。由 Coze 调用大模型、插件完成内容的整理、推荐,利用飞书多维表格存储和管理稍后读数据,无需开发任何插件、APP,能实现跨平台的稍后读收集与智能阅读计划的推荐。其设计思路包括简化“收集”,实现跨平台收集和通过输入 URL 完成收集;自动化“整理入库”,自动整理关键信息并支持跨平台查看;智能“选择”推荐,根据收藏记录和用户兴趣生成阅读计划——这个方法具体如何操作?
以下是关于通过飞书机器人与 Coze 搭建的智能体进行对话,并利用飞书多维表格存储和管理稍后读数据,实现跨平台的稍后读收集与智能阅读计划推荐的具体操作方法: 前期准备: 1. 简化“收集”: 实现跨平台收集功能,支持电脑(web 端)、安卓、iOS 多端操作。 输入一个 URL 即可完成收集,借鉴微信文件传输助手的方式,通过聊天窗口完成收集输入。 2. 自动化“整理入库”: 系统在入库时自动整理每条内容的关键信息,包括标题、摘要、作者、发布平台、发布日期、收集时间和阅读状态。 阅读清单支持跨平台查看。 3. 智能“选择”推荐: 根据当前收藏记录和用户阅读兴趣进行相关性匹配,生成阅读计划。 使用飞书·稍后读助手: 1. 设置稍后读存储地址: 首次使用,访问。 点击「更多创建副本」,复制新表格的分享链接。 将新链接发送到智能体对话中。 还可以发送“查询存储位置”、“修改存储位置”来更换飞书多维表格链接,调整稍后读存储位置。 2. 收藏待阅读的页面链接: 在对话中输入需要收藏的页面链接,第一次使用会要求授权共享数据,授权通过后再次输入即可完成收藏。但目前部分页面链接可能小概率保存失败。 3. 智能推荐想看的内容: 在对话中发送“我想看 xx”、“xx 内容”,即可按个人兴趣推荐阅读计划。 至此,专属 AI 稍后读智能体大功告成,您可以尽情享受相关服务。
2025-01-27
大语言模型
大语言模型相关知识如下: Encoder:在大型语言模型中,Encoder 是模型的编码器部分,负责对输入的文本序列进行编码,获取其对应的语义表示。具有词嵌入、位置编码、注意力机制、层叠编码、上下文建模等关键作用。其输出是输入序列对应的上下文化语义表示,会被模型的 Decoder 部分利用。 介绍:大型语言模型是深度学习的一个子集,可以预训练并进行特定目的的微调。能解决诸如文本分类、问题回答、文档摘要、跨行业的文本生成等常见语言问题,还可利用相对较小的领域数据集进行定制以解决不同领域的特定问题。其三个主要特征是大型(训练数据集规模和参数数量大)、通用性(能解决常见问题)、预训练微调(用大型数据集预训练,用较小数据集微调)。使用大型语言模型的好处包括一种模型可用于不同任务、微调所需领域训练数据较少、性能随数据和参数增加而增长等。视频中还提到了自然语言处理中的提示设计和提示工程,以及三种类型的大型语言模型:通用语言模型、指令调整模型和对话调整模型。 性能对比:对比不同大型语言模型的性能需考虑多个维度,如理解能力、生成质量、知识广度和深度、泛化能力、鲁棒性、偏见和伦理、交互性和适应性、计算效率和资源消耗、易用性和集成性等。可采用标准基准测试、自定义任务、人类评估、A/B 测试、性能指标等方法进行有效比较。
2025-01-27