Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

科普性质的介绍下目前大模型的优秀应用案例和实施经验

Answer

以下为目前大模型的一些优秀应用案例和实施经验:

在问答行业

  • Baichuan 借鉴了 Meta 的 CoVe 技术,将复杂 Prompt 拆分为多个独立且可并行检索的搜索友好型查询,使大模型能够对每个子查询进行定向知识库搜索。
  • 利用自研的 TSF(Think-Step Further)技术来推断和挖掘用户输入背后更深层的问题,以更精准、全面地理解用户意图。
  • 自研 Baichuan-Text-Embedding 向量模型,对超过 1.5T tokens 的高质量中文数据进行预训练,并通过自研损失函数解决了对比学习方式依赖 batchsize 的问题。同时引入稀疏检索和 rerank 模型,形成向量检索与稀疏检索并行的混合检索方式,大幅提升了目标文档的召回率,达到 95%。

在医疗行业

  • 涵盖疾病的诊断与预测、药物研发以及个性化医疗等方向。
  • 例如,麻省理工学院利用 AI 发现了新型广谱抗生素 Halicin。研究者先构建由两千个性能已知的分子组成的训练集,用它们训练 AI 学习分子特点,总结规律,再对美国 FDA 已通过的六万多个分子进行分析,最终成功识别出有效分子,且实验证明效果良好。

在模型架构方面

  • 包括 encoder-only、encoder-decoder 和 decoder-only 等类型。
  • 如 BERT 是 encoder-only 模型的代表,google 的 T5 是 encoder-decoder 模型的代表,众多熟知的 AI 助手包括 ChatGPT 基本属于 decoder-only 架构。
  • 大模型的特点在于预训练数据量大,往往来自互联网上的多种来源,且参数众多,如 Open 在 2020 年发布的 GPT-3 就已达到 170B 的参数。
Content generated by AI large model, please carefully verify (powered by aily)

References

大模型RAG问答行业最佳案例及微调、推理双阶段实现模式:基于模块化(Modular)RAG自定义RAG Flow

基于百川的宣传资料整理([查看原文](https://mp.weixin.qq.com/s?__biz=MzA3MzI4MjgzMw==&mid=2650901201&idx=1&sn=3a9bd61403fb4b024ec5d8c128990495&scene=21#wechat_redirect)),由于资料有限,对于部分细节笔者进行了适当猜测和补充。针对用户日益复杂的问题,Baichuan借鉴了Meta的CoVe技术,将复杂Prompt拆分为多个独立且可并行检索的搜索友好型查询,使大模型能够对每个子查询进行定向知识库搜索。此外,他们还利用自研的TSF(Think-Step Further)技术来推断和挖掘用户输入背后更深层的问题,以更精准、全面地理解用户意图。TSF的技术细节并没有披露,猜测其本质应该是对Step-back prompting方法的改良。在检索步骤中,百川智能自研了Baichuan-Text-Embedding向量模型,对超过1.5T tokens的高质量中文数据进行预训练,并通过自研损失函数解决了对比学习方式依赖batchsize的问题。该向量模型登顶了C-MTEB。同时引入稀疏检索和rerank模型(未披露),形成向量检索与稀疏检索并行的混合检索方式,大幅提升了目标文档的召回率,达到了95%。

开发:AI应用大模型商业化落地现状与思考

首先来看医疗行业,这是关乎每个人生命健康的重要领域。大模型在医疗行业的应用主要涵盖三个方向:疾病的诊断与预测、药物研发以及个性化医疗。从医疗前期的图像诊断,基因组学和精准医疗到药物研发阶段再到最后病人的个性化医疗,人工智能都有其适合的应用场景。例如,在2020年,麻省理工学院利用AI发现了一种名为Halicin的新型广谱抗生素,它不仅能有效杀灭对现有抗生素产生耐药性的细菌,而且不会使细菌产生新的耐药性。这一突破性发现源于AI的助力。研究者先搞了一个由两千个性能已知的分子组成的训练集,这些分子都被标记好了是不是可以抑制细菌生长,用它们去训练AI。AI自己学习这些分子都有什么特点,总结了一套“什么样的分子能抗菌”的规律。之后又对美国FDA已通过的六万多个分子中进行分析,最终成功识别出了一个符合所有要求的分子,这就是Halicin。之后研究者开始做实验证明,它真的非常好使,大概很快就会用于临床,造福人类。这个例子充分展示了AI大模型在医疗领域的巨大潜力,目前很多医疗研究机构都进行医疗大模型的开发研究,大模型在医疗领域大有可为!

从 0 到 1 了解大模型安全,看这篇就够了

encoder-only:这些模型通常适用于可以自然语言理解任务,例如分类和情感分析.最知名的代表模型是BERTencoder-decoder:此类模型同时结合了Transformer架构的encoder和decoder来理解和生成内容。该架构的一些用例包括翻译和摘要。encoder-decoder的代表是google的T5decoder-only:此类模型更擅长自然语言生成任务。典型使用包括故事写作和博客生成。这也是我们现在所熟知的众多AI助手的结构我们目前耳熟能详的AI助手基本都来自左侧的灰色分支,当然也包括ChatGPT。这些架构都是根据谷歌2017年发布的论文“attention is all you need”中提出的transformer衍生而来的,在transformer中,包括Encoder,Decoder两个结构目前的大型语言模型就是右侧只使用Decoder的Decoder-only架构的模型大模型又大在哪呢?第一,大模型的预训练数据非常大,这些数据往往来自于互联网上,包括论文,代码,以及可进行爬取的公开网页等等,一般来说,现在最先进的大模型一般都是用TB级别的数据进行预训练。第二,参数非常多,Open在2020年发布的GPT-3就已经达到170B的参数

Others are asking
需要一些ai入门科普资料
以下是为您提供的 AI 入门科普资料: 一、技术原理相关 1. RAG(检索增强生成):外部知识库切分成段落后转成向量,存在向量数据库。用户提问并查找到向量数据库后,段落信息会和原本的问题一块传给 AI,可搭建企业知识库和个人知识库。 2. PAL(程序辅助语言模型):2022 年一篇论文中提出,对于语言模型的计算问题,不让 AI 直接生成计算结果,而是借助 Python 解释器等工具作为计算工具。 3. ReAct:2022 年一篇《React:在语言模型中协同推理与行动》的论文提出了 ReAct 框架,即 reason 与 action 结合,让模型动态推理并采取行动与外界环境互动,比如用搜索引擎对关键字进行搜索,观察行动得到的结果,可借助 LangChain 等框架简化构建流程。 二、关于未来的想象 1. Transformer 是仿生算法的阶段性实现,10 年、20 年后可能不再使用。 2. 在端到端算法的时代,不应继续使用冯诺依曼架构。 3. 在存算一体(在存储单元里做计算)的芯片之上,一定会诞生全新的算法。 个人总结:很多大佬认为要关注或直接阅读技术论文,比如产品经理转型 AI 产品经理需要懂技术脉络。但小白直接看技术论文有难度,虽可让 AI 辅助阅读,仍需一定知识储备。林粒粒呀的相关视频是很好的科普入门。 此外,安克创新的 CEO 阳萌的一些观点也很有启发,比如之前对安克创新的印象是卖充电宝和安防设备,但看了访谈后会被其认知震撼。
2025-02-12
科普下PPO
PPO(Proximal Policy Optimization,近端策略优化)是 OpenAI 提出的一种强化学习优化方法。 在训练 ChatGPT 等模型时,得到 SFT 和 RM 模型后,将它们串联在一起,固定住 RM,利用 RM 的 loss 对 SFT 做梯度回传。PPO 阶段的完整 loss 包含以下几项: 1. 第一项是串联 $$\\pi_{\\phi}^\\text{RL}$$ 和 RM 做联合梯度回传。具体是从 $$\\pi_{\\phi}^\\text{RL}$$ 采样出 prompt 和 completion 样本对,让 RM 模型 $$r_\\theta$$ 做打分和给 loss,通过梯度回传优化 $$\\pi_{\\phi}^\\text{RL}$$ 的参数权重。 2. 第二项是希望新学的 $$\\pi_{\\phi}^\\text{RL}$$ 不要距离初始的 SFT 太远,用 KL 散度约束住两者的输出概率。因为 RM 网络跟 SFT 是绑定的,如果新学的 $$\\pi_{\\phi}^\\text{RL}$$ 输出分布距离 SFT 太远,RM 网络可能就不适用了。 3. 第三项是防止 $$\\pi_{\\phi}^\\text{RL}$$ 过拟合 RM 打分这个任务,添加训练 SFT 的 loss,即从 SFT 训练的数据里面采样包含 prompt 和 completion 的样本,无监督训练 $$\\pi_{\\phi}^\\text{RL}$$ 。 PPOptx 是上述三项系数都不为 0 的情况,而 PPO 是指第三项系数 $$\\gamma$$ 为 0,前两项系数不为 0 的情况。此外,RM 训练和 PPO 训练可以交替进行,即得到新的 $$\\pi_{\\phi}^{\\text{SFT}}$$ 模型后训练一个匹配的 SM 模型,然后固定 SM 模型按 $$\\text{objective}$$ 的损失函数继续训练 $$\\pi_{\\phi}^{\\text{SFT}}$$ 模型,如此交替。 在 GPT 的现状中,例如 ChatGPT 就是一个 RLHF 模型,人类在很多比较中更喜欢来自 RLHF 模型的 token(输出文字),但 RLHF 模型并非在所有情况下都比基础模型有改进,例如会损失一些熵,导致输出变化更小。
2025-02-06
快速帮我科普下通往AGI之路
通往 AGI 之路的相关内容如下: 上篇文章主要介绍了 WaytoAGI 和为什么要学习研究 AI,解决了 Why 的问题。此次旨在解决 What 和 How 的问题,作者虽不专业,但重点推荐了两个对其个人有重大帮助的视频,并附上了链接。 1. (女神)主讲,和某知识 up 主 Genji 一起制作的免费公益课,新手友好,能带你 50 分钟速通 AI 大模型原理。 2. ,某知识 up 主老石谈芯专访安克创新 CEO 阳萌的视频,一共两期,此链接为第二期,两期内容都值得观看,访谈非常硬核。
2024-12-02
如果我需要撰写一个以“AI对音乐行业就业岗位的影响”为主题的约3000字的科普类文章,我应该优先关注WaytoAGI 知识库中的哪些内容?
很抱歉,目前“通往 AGI 之路”知识库中没有与“AI 对音乐行业就业岗位的影响”相关的直接内容。但您可以从以下几个方面入手来撰写这篇文章: 1. 了解 AI 在音乐创作、制作、表演等方面的应用现状和发展趋势。 2. 研究 AI 技术如何改变音乐的生产流程和效率。 3. 分析 AI 对音乐创作者、演奏者、制作人等不同岗位的具体影响,包括可能的岗位替代和新岗位的产生。 4. 探讨 AI 带来的音乐版权和知识产权问题,以及对相关法律和政策的影响。 5. 关注音乐消费者对 AI 参与音乐创作和表演的接受程度和需求变化。
2024-10-19
以图像识别,为小白科普相关知识和交叉领域,并为研究生提供参考选题
图像识别是指利用计算机技术对图像进行处理和分析,以识别和理解图像中的内容。 对于小白来说,图像识别是让计算机像人一样“看懂”图像。它基于深度学习、机器学习等技术,通过对大量图像数据的学习和训练,能够自动提取图像的特征,并进行分类、识别等操作。 图像识别的应用非常广泛,比如在安防领域,用于人脸识别、车牌识别等;在医疗领域,辅助疾病诊断、医学影像分析;在交通领域,实现交通标志识别、车辆检测等。 图像识别与多个领域存在交叉,如计算机视觉,它不仅关注图像的识别,还包括图像的生成、处理等;与人工智能的其他分支如自然语言处理也有结合,实现图文转换等功能;在工业领域,与自动化生产相结合,进行产品质量检测等。 对于研究生来说,以下是一些参考选题: 1. 基于小样本学习的图像识别算法研究。 2. 融合多模态信息的图像识别模型优化。 3. 针对特定场景(如复杂环境、低光照等)的图像识别改进。 4. 图像识别在医疗诊断中的精准度提升策略。 5. 结合深度学习和传统方法的图像识别性能比较。 6. 基于新型神经网络架构的图像识别应用。
2024-10-19
Aigc科普资料
以下是关于 AIGC 的科普资料: AIGC(人工智能生成内容)是一种利用人工智能技术生成各种类型内容的应用方式。它能够通过机器学习和深度学习算法,根据输入的数据和指令生成符合特定要求的内容,在内容创作、广告、媒体等领域有着广泛的应用。 AIGC 主要分为语言文本生成、图像生成和音视频生成。语言文本生成利用马尔科夫链、RNN、LSTMs 和 Transformer 等模型生成文本,如 GPT4 和 GeminiUltra。图像生成依赖于 GANs、VAEs 和 Stable Diffusion 等技术,应用于数据增强和艺术创作,代表项目有 Stable Diffusion 和 StyleGAN 2。音视频生成利用扩散模型、GANs 和 Video Diffusion 等,广泛应用于娱乐和语音生成,代表项目有 Sora 和 WaveNet。此外,AIGC 还可应用于音乐生成、游戏开发和医疗保健等领域,展现出广泛的应用前景。 目前,我国对 AIGC 的监管框架由《网络安全法》《数据安全法》及《个人信息保护法》构成,并与《互联网信息服务算法推荐管理规定》、《互联网信息服务深度合成管理规定》、《生成式人工智能服务管理暂行办法》、《科技伦理审查办法(试行)》等形成了共同监管的形势。 GenAI(即生成式 AI)是一种能够从已有数据中学习并生成新的数据或内容的 AI 应用,利用 GenAI 创建的内容即 AIGC。 相关概念包括: 人工智能:一种目标,让机器展现智慧,Artificial Intelligence,简称 AI。 生成式人工智能 GenAI:一种目标,让机器产生复杂有结构的内容,Generative AI 简称 GenAI。 机器学习:一种手段,让机器自动从资料中找到公式。 深度学习:一种更厉害的手段,类神经网络 非常大量参数的函数。 大语言模型:是一类具有大量参数的“深度学习”模型,Large Language Models,简称 LLMs。 ChatGPT:一个应用实例,形象比喻:通过投喂大量资料预训练后,ChatGPT 会通过聊天玩“文字接龙游戏”了。英文解释:Chat 聊天,G:Generative 生成,P:Pretrained 预训练,T:Transformer 类神经网络模型。 ChatGPT 是 AIGC 技术的一个应用实例,它代表了 AIGC 在文本生成领域的进展。AGI、GenAI、AIGC 几个概念存在一定的区别。
2024-09-25
飞书接入deepseek 多维表格处理案例
以下是关于飞书接入 DeepSeek 多维表格处理的相关案例和信息: 自定义 AI(DeepSeek 版):https://bytedance.larkoffice.com/base/extension/replit_3f6c0f185eac23fb ,支持 DeepSeek R1、V3 模型,以及 DeepSeek 官方、火山方舟、硅基流动三个服务商。 有案例如“笨笨 v 泡泡”的 deepseekr1:7b 模型行测试题分析过程及结果,可参考:https://mp.weixin.qq.com/s/kjYiRS9RE25vywm0EsP6A?token=8615663&lang=zh_CN 。 相关文章和教程: 《突破 DeepSeek R1 能力天花板,火山引擎扣子+飞书一站式企业解决方案》:https://waytoagi.feishu.cn/wiki/RZE9wP94tiEO6bkU5cTcyecHnnb 。 《羊毛快薅|字节火山上线了 DeepSeek 系列模型并悄悄更改了模型服务价格...》:https://waytoagi.feishu.cn/wiki/HzHSwEwtCiBmWrkRm6fc0J0Qneh 。 《喂饭级教程:飞书多维表格+DeepSeek=10 倍速用 AI》:https://mp.weixin.qq.com/s/aIi4tIy0CCINyQE_3AfF_Q ,介绍了如何结合实现批量处理信息、提升工作效率等。 飞书多维表格的接入方法在整理列上这两天直播教程中的所有模板中有提及。 2 月 10 日的社区动态中有 DeepSeek R1 赏析分享会等相关内容。 2 月 14 日的社区动态中有关于另外一款推理模型 zero 的推理过程等相关内容。
2025-02-17
目前针对H5,有哪些可以和ai结合的案例
目前在 H5 领域,与 AI 结合的案例相对较少。但一些可能的方向包括:利用 AI 进行个性化内容推荐,根据用户的浏览历史和偏好为其推送相关的 H5 页面内容;通过 AI 实现智能客服,在 H5 页面中为用户提供实时的问题解答和帮助;运用 AI 图像识别技术,让用户可以通过拍照或上传图片在 H5 页面中获取相关信息或进行互动。
2025-02-17
AI智能体在企业应用案例
以下是一些 AI 智能体在企业中的应用案例: 决策智能体: 以 Anterior 为例,它是一家健康计划自动化公司,开发了用于自动化理赔提交审核的临床决策引擎。将付款方规则转换为有向无环图,智能体遍历决策树,利用 LLM 评估相关临床文件是否符合规则,在复杂任务中选择最佳方法并更新状态,直至最终确定。 Norm AI 正在为监管合规打造 AI 智能体,Parcha 正在为 KYC 建立智能体。 检索增强生成(RAG): 以 Sana 的企业搜索用例为例,应用程序加载和转换无结构文件,将其分块并作为向量嵌入存储在数据库中。当用户提问时,系统检索相关上下文块,折叠到“元提示”中与检索信息一起喂给 LLM,合成答复返回给用户。 Eve 法律研究的共同驾驭员会将研究查询分解为独立提示链,运行每个提示链生成中间输出,并综合编写最终备忘录。 生成式 AI 应用: 具有搜索、合成和生成三个核心用例,Menlo Ventures 投资组合公司如 Sana(企业搜索)、Eve(法律研究副驾驶)和 Typeface(内容生成 AI)是早期突破性的代表。 领先的应用程序构建商如 Anterior、Sema4 和 Cognition 正在建立解决方案,处理之前只能由大量人力解决的工作流程。借助多步逻辑、外部内存以及访问第三方工具和 API 等新型构建块,拓展 AI 能力边界,实现端到端流程自动化。
2025-02-16
开源模型的MIT模式、Apache、GPL、BSD模式的模型案例有哪些?
目前开源模型的 MIT 模式、Apache、GPL、BSD 模式的具体案例众多且不断更新。MIT 模式的开源模型如 TensorFlow Lite;Apache 模式的有 MXNet;GPL 模式的像 Gnuplot;BSD 模式的例如 OpenCV 等。但请注意,这只是其中的一部分,实际情况可能会有所变化。
2025-02-14
闭源模型分类和典型案例
以下是一些常见的闭源模型分类和典型案例: 通用大模型:字节云雀大模型。 行业大模型:如蚂蚁金融大模型等。 在 2023 年,还有众多闭源模型的发布和升级,例如: 文心一言:经历了从 1.0 到 V3.5 的版本升级。 星火:科大讯飞发布的星火 1.0 及后续的升级版本。 此外,Qwen 系列模型也有出色表现,Qwen2 在性能上超越了目前所有开源模型和国内闭源模型,如文心 4.0 等。Qwen2 具有多种尺寸的预训练和指令调整模型,在大量基准评估中表现出先进的性能,提升了代码、数学、推理等多方面的能力,并在多个国际权威测评中获得冠军。
2025-02-14
AI视频,用海螺走T台的案例
以下是关于 AI 视频中用海螺走 T 台的相关内容: 全新 AI 整活计划第三期:巨大萌物 奖励方式:使用海螺 AI 进行视频制作,海螺 AI 会评选出预计 10 位创意奖,给大家颁发海螺会员+现金奖励。 制作教程: 第一步:点开 whisk 网站(https://labs.google/fx/zh/tools/whisk),找到两张图(如:皮卡丘和埃菲尔铁塔),然后传上去,样式风格空着,写一句 Prompt(如:巨大的皮卡丘抱着埃尔菲铁塔)合成出来一张图片。 第二步:点开海螺网站(https://hailuoai.com),例如 Prompt:巨大的可达鸭在斗兽场上熟睡并打呼,肚皮缓慢起伏,马路上的车在行驶,突然斗兽场塌了,冒出滚滚沙尘,可达鸭突然惊恐地睁大眼睛;巨大的卡比兽,把一碗雪倒扣在富士山上,富士山瞬间被雪覆盖。并提供了相关视频案例的链接。 视频模型:MiniMax 海螺 AI 中级实现精准的画面控制和高画面表现,精准美学控制,给出了现代都市街道上摩托车与警车追逐的 Prompt 示例及相关视频。 实际运用案例(电影、广告片、宣传片、短视频),包括场戏分镜头拆解梳理,如男人无奈起身开门、开门、开门走出、门外小女孩要糖、男人拒绝等情节的视频生成方式及相关视频链接。
2025-02-13
大模型评测
以下是关于大模型评测的相关信息: FlagEval(天秤)大模型评测体系及开放平台: 地址: 简介:旨在建立科学、公正、开放的评测基准、方法、工具集,协助研究人员全方位评估基础模型及训练算法的性能,同时探索利用 AI 方法实现对主观评测的辅助,大幅提升评测的效率和客观性。创新构建了“能力任务指标”三维评测框架,细粒度刻画基础模型的认知能力边界,可视化呈现评测结果。 CEval:构造中文大模型的知识评估基准: 地址: 简介:构造了一个覆盖人文,社科,理工,其他专业四个大方向,52 个学科(微积分,线代…),从中学到大学研究生以及职业考试,一共 13948 道题目的中文知识和推理型测试集。此外还给出了当前主流中文 LLM 的评测结果。 SuperCLUElyb:SuperCLUE 琅琊榜 地址: 简介:中文通用大模型匿名对战评价基准,这是一个中文通用大模型对战评价基准,它以众包的方式提供匿名、随机的对战。他们发布了初步的结果和基于 Elo 评级系统的排行榜。 此外,还有小七姐对文心一言 4.0、智谱清言、KimiChat 的小样本测评,测评机制包括: 测评目标:测评三家国产大模型,以同组提示词下 ChatGPT 4.0 生成的内容做对标参照。 能力考量:复杂提示词理解和执行(结构化提示词)、推理能力(CoT 表现)、文本生成能力(写作要求执行)、提示词设计能力(让模型设计提示词)、长文本归纳总结能力(论文阅读)。 测评轮次:第一轮是复杂提示词理解和执行,包括 Markdown+英文 title 提示词测试、Markdown+中文 title 提示词测试、中文 title+自然段落提示词测试;第二轮是推理能力(CoT 表现);第三轮是文本生成能力(写作要求执行);第四轮是提示词设计能力(让模型设计提示词);第五轮是长文本归纳总结能力(论文阅读)。 测试大模型质量好坏时,常用的问题包括检索和归纳、推理性、有日期相关历史事件等。以下是几个专业做模型测评的网站:
2025-02-17
ai大模型
AI 大模型是一个复杂但重要的概念。以下为您详细介绍: 1. 概念:生成式 AI 生成的内容称为 AIGC。 2. 概念与关系: AI 即人工智能。 机器学习是电脑找规律学习,包括监督学习、无监督学习、强化学习。 监督学习使用有标签的训练数据,目标是学习输入和输出之间的映射关系,包括分类和回归。 无监督学习的数据没有标签,算法自主发现规律,经典任务如聚类。 强化学习从反馈中学习,以最大化奖励或最小化损失,类似训小狗。 深度学习是一种参照人脑有神经网络和神经元的方法(因层数多而称深度),神经网络可用于监督学习、无监督学习、强化学习。 生成式 AI 可以生成文本、图片、音频、视频等内容形式。 LLM 是大语言模型,对于生成式 AI,生成图像的扩散模型不是大语言模型;对于大语言模型,生成只是其中一个处理任务,如谷歌的 BERT 模型可用于语义理解(不擅长文本生成),像上下文理解、情感分析、文本分类。 3. 技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出 Transformer 模型,它完全基于自注意力机制处理序列数据,不依赖循环神经网络或卷积神经网络。
2025-02-17
我是一个ai小白,请给我推荐一个语言大模型的提示词优化工具
以下为您推荐两个语言大模型的提示词优化工具: 1. 星流一站式 AI 设计工具: 在 prompt 输入框中可输入提示词,使用图生图功能辅助创作。 支持自然语言和单个词组输入,中英文均可。 启用提示词优化后可扩展提示词,更生动描述画面内容。 小白用户可点击提示词上方官方预设词组进行生图。 写好提示词需内容准确,包含人物主体、风格、场景特点、环境光照、画面构图、画质等。 可调整负面提示词,利用“加权重”功能让 AI 明白重点内容,还有翻译、删除所有提示词、会员加速等辅助功能。 2. Prompt Perfect: 能够根据输入的 Prompt 进行优化,并给出优化前后的结果对比。 适合写论文、文章的小伙伴,但使用该能力需要消耗积分(可通过签到、购买获得)。 访问地址:
2025-02-17
开源模型和闭源模型
开源模型和闭源模型的情况如下: 专有模型(闭源模型):如 OpenAI、Google 等公司的模型,需访问其官方网站或平台(如 ChatGPT、Gemini AI Studio)使用。 开源模型: 可使用推理服务提供商(如 Together AI)在线体验和调用。 可使用本地应用程序(如 LM Studio)在个人电脑上运行和部署较小的开源模型。 例如 DeepSeek、Llama 等开源模型。 Qwen 2 开源,具有多种尺寸的预训练和指令调整模型,在大量基准评估中表现出先进性能,超越目前所有开源模型和国内闭源模型,在代码和数学性能等方面显著提高。 金融量化领域的大模型正趋向闭源,几个巨头的核心模型如 OpenAI 最新一代的 GPT4、Google 的 Bard 以及未来的 Gemini 短时间内不会公开。Meta 的 LLaMA 目前开源,但未来可能改变。OpenAI 未来可能开源上一代模型。
2025-02-17
大模型的基本原理
大模型的基本原理如下: 1. 模仿人类大脑结构,表现出人的特征,应对大模型回答不及预期的解决之道与人与人交流沟通的技巧相似。 2. GPT 全称是生成式预训练转换器模型(Generative Pretrained Transformer): 生成式(Generative):大模型根据已有的输入为基础,不断计算生成下一个字词(token),逐字完成回答。例如,从提示词“How”开始,依次推理计算出“are”“you”等,直到计算出下一个词是的概率最大时结束输出。 3. 通俗来讲,大模型通过输入大量语料来让计算机获得类似人类的“思考”能力,能够进行文本生成、推理问答、对话、文档摘要等工作。其训练和使用过程可类比为上学参加工作: 找学校:训练大模型需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练。 确定教材:大模型需要大量数据,几千亿序列(Token)的输入基本是标配。 找老师:用合适算法讲述“书本”内容,让大模型更好理解 Token 之间的关系。 就业指导:为让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 搬砖:就业指导完成后进行推导(infer),如进行翻译、问答等。 4. 在 LLM 中,Token 被视为模型处理和生成的文本单位,可代表单个字符、单词、子单词等,在将输入进行分词时会对其进行数字化,形成词汇表。 5. 相关技术名词及关系: AI 即人工智能。 机器学习包括监督学习、无监督学习、强化学习,监督学习有标签,无监督学习无标签自主发现规律,强化学习从反馈里学习。 深度学习参照人脑有神经网络和神经元,神经网络可用于多种学习方式。 生成式 AI 可生成多种内容形式,LLM 是大语言模型,生成只是大语言模型的一个处理任务。 6. 技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出 Transformer 模型,基于自注意力机制处理序列数据,不依赖 RNN 或 CNN。
2025-02-17
千帆大模型开发平台
百度智能云的千帆大模型平台在解决大模型的调用、开发和应用开发方面表现出色。它支持调用文心大模型全系列模型,并提供全面的工具链,支持定制化的模型开发。在应用开发上,通过 AppBuilder 提供企业级 Agent 和企业级 RAG 开发能力,还能将企业应用中产生的数据经过评估和对齐进一步反馈到模型中,形成良性循环,持续优化模型性能。 2024 年上半年,百度智能云在 MaaS 市场和 AI 大模型解决方案市场中均获得第一名,市占率分别为 32.4%和 17%。MaaS 业务主要依托百度智能云千帆大模型平台提供服务,AI 大模型解决方案方面沉淀了八大行业解决方案。在 2024 百度世界大会上,百度智能云千帆大模型平台发布了工作流 Agent 能力,有助于企业更稳定、高效地实现多任务分解和执行。
2025-02-17
国内优秀Agent应用案例
以下是一些国内优秀的 Agent 应用案例: 1. Coze:新一代一站式 AI Bot 开发平台,适用于构建基于 AI 模型的各类问答 Bot,集成丰富插件工具拓展 Bot 能力边界。 2. 文心智能体:百度推出的基于文心大模型的智能体平台,支持开发者根据需求打造产品能力。 3. 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于客服、营销、销售等多种场景,提供多种成熟模板,功能强大且开箱即用。 4. 钉钉 AI 超级助理:依托钉钉强大的场景和数据优势,在处理高频工作场景如销售、客服、行程安排等方面表现出色,提供更深入的环境感知和记忆功能。
2025-01-19
国内优秀智能体案例
以下是一些国内优秀智能体案例: 在车辆使用指南维度,多个大模型表现优异,达到 80 分以上,在操作指南、车辆故障诊断、维修保养等任务上具备较高交互成熟度。 在汽车场景中,部分 13 14B 中小模型超过云端闭源模型,展现出端侧模型满足用户需求的良好能力和巨大潜力。 在社交方向,有用户注册后先创建自己的智能体,让其与他人的智能体聊天,然后真人介入的有趣场景。 字节推出的“扣子”是用于开发下一代 AI 聊天机器人的构建平台。 国内存在如 Dify.AI 等智能体开发平台。
2025-01-19
有哪些优秀的AI copilot?
以下是一些优秀的 AI copilot: 1. 对于编程辅助方面: GitHub Copilot:由 GitHub 联合 OpenAI 和微软 Azure 团队推出,支持多种语言和 IDE,能为程序员快速提供代码建议。 通义灵码:阿里巴巴团队推出,提供多种编程相关能力。 CodeWhisperer:亚马逊 AWS 团队推出,由机器学习技术驱动,实时提供代码建议。 CodeGeeX:智谱 AI 推出的开源免费编程助手,基于 130 亿参数的预训练大模型。 Cody:Sourcegraph 推出的代码编写助手,借助强大的代码语义索引和分析能力了解开发者的整个代码库。 CodeFuse:蚂蚁集团支付宝团队为国内开发者提供的免费 AI 代码助手。 Codeium:由 AI 驱动的编程助手工具,提高编程效率和准确性。 更多辅助编程 AI 产品,还可以查看:https://www.waytoagi.com/category/65 。每个工具功能和适用场景不同,可根据需求选择。 2. 在 Agent 构建平台方面: Coze:新一代一站式 AI Bot 开发平台,集成丰富插件工具。 Microsoft 的 Copilot Studio:主要功能包括外挂数据、定义流程、调用 API 和操作等,并能部署到各种渠道。 文心智能体:百度推出的基于文心大模型的智能体平台。 MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识等,并能访问第三方数据和服务或执行工作流。 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于多种场景。 钉钉 AI 超级助理:依托钉钉优势,在处理高频工作场景表现出色。 3. 此外,还有一些新的 AI 产品和网站,如: SciSpace Copilot:由印度论文服务平台 SciSpace 开发,用于解释科学文献中的文本、数字和表格,输出内容更精确。链接:https://typeset.io/ AIPRM for ChatGPT:SEO Prompt 模板插件,支持 ChatGPT 和 Midjourney 等。链接:https://www.aiprm.com/ Teamsmart:有趣的文档助手,根据不同职业/技能提供不同能力点的机器人。链接:https://www.teamsmart.ai/ Boring Report:应对标题党的神器,去除文章夸张表述,保留客观事实。
2025-01-18
优秀的来源大模型有哪些
以下是一些优秀的大模型: Google 的 T5:属于 encoderdecoder 类型的模型,适用于翻译和摘要等任务。 OpenAI 的 GPT3:预训练数据量大,参数众多,能根据用户输入的任务描述或示例完成任务。 ChatGPT:用户通过像和人类对话的方式即可完成任务。 国内的优秀大模型有: 智谱清言(清华&智谱 AI):基础模型为 ChatGLM 大模型。在工具使用排名国内第一,在计算、逻辑推理、传统安全能力上排名国内前三,更擅长专业能力,但代码能力有优化空间,知识百科稍显不足。可应用于 AI 智能体、较复杂推理、广告文案、文学写作等场景。 通义千问 2.0(阿里云):在语言理解与抽取、角色扮演能力上排名国内前一,在代码、生成与创作、上下文对话能力上排名国内前三,各项能力较为均衡。聚焦在移动设备端的应用,涵盖知识、记忆、工具、创作等方向,支持多种工具和文生文、文生图等场景。 Baichuan213BChat(百川智能):百川智能自主训练的开源大语言模型,是中文开源模型的主导力量。
2024-12-28
如何向chatgpt写一个优秀的关于论文修改的提示词
以下是一些关于向 ChatGPT 写优秀的论文修改提示词的建议: 1. 利用 ChatGPT 的对抗性演练生成提示词: 对指定文章进行改写。 对改写后的版本进行原创性检验。 根据检验结果,指导 ChatGPT 进一步优化。 重复上述过程,直至满足高度原创的标准。 采用逆向工程的方法,梳理 ChatGPT 的改写策略。 整合这些策略,形成一套提高文章原创性的高效提示词。 2. 对于文章修改的具体步骤: 先使用 ChatGPT 对一段文字进行改写。 对改写后的文字进行原创性检测。 把原创度检测工具的结果告诉负责二创的 ChatGPT 角色,让其继续改写。 不断重复上述步骤,让 ChatGPT 多次对文章进行二创。 让 ChatGPT 自己总结提示词。 整理 ChatGPT 返回结果,形成文字二次创作的通用提示词。 3. 对于 ChatGPT 给 DALL·E 3 优化提示词的元提示,需要注意: 不改变表情包、虚构角色的起源或未见过的人物,保持原始提示词的意图,优先考虑质量。 不创建任何具有冒犯性的图像。 对于传统上存在偏见的场景,确保指定关键特征,如性别和种族,且方式无偏见。 对于包含特定人物或名人的名字、暗示或参考的描述,进行谨慎的修改,用通用描述替代,不泄露其身份信息,除非是性别和体格。 对于提到的创意专业人士或工作室,用对其风格的描述替代名称,或在未知时删除该参考。 提示词必须详细、客观地描述图像的每个部分。思考描述的最终目标,并推断出能生成满意图像的内容。
2024-12-19
这样创造一个优秀的智能体
要创造一个优秀的智能体,可以考虑以下几个方面: 1. 前置概念: 省略:在人类日常交流中常有省略现象,因给定情境下有些信息可理解或已被暗示,无需明言。 不严格逻辑能力:人类语言使用受多种因素影响,日常沟通中会用情感驱使表达观点,可能使用不严格逻辑的俚语或造新词。 比喻:日常生活沟通中人们习惯用比喻,能使抽象复杂概念具象易懂,助于交流。 2. 例子: 省略 prompt 方面的例子。 不严格逻辑能力 prompt 方面的例子。 3. xAI 的使命:致力于更好地理解深度学习技术,创建能帮助理解宇宙的聪明智能体,解决重要问题是 AGI 的关键门槛,追求科学是工作基础。 4. 软件开发与智能体:当软件开发部分变得更快、更容易、更便宜时,大型语言模型可表现为智能体,能制定计划和决策,使用工具和逻辑链接的架构可完成复杂任务,已部署到帮助专业开发人员的工具中,但存在怀疑和争议。
2024-12-12