Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如何正确的向AI大模型提问

Answer

向 AI 大模型正确提问可以参考以下方法:

  1. 对于利用 Embedding 技术增强 GPT 能力的过程,OpenAI 发布的相关文档指出,可通过两步搜索来实现。具体步骤包括:
    • 准备搜索数据(仅一次):
      • 搜集数据:获取需要的数据,包括公开数据或者私有的数据。
      • 切块:将文档切分成短小的部分。
      • 嵌入:通过 OpenAI API 对切块的数据进行 Embedding 结果。
      • 存储:存储 Embedding 结果,对于大型数据集的 Embedding 结果,可以使用向量数据库进行保存。
    • 搜索(每次查询一次):给定用户问题,从 OpenAI API 生成查询的 embeddings,使用 embeddings 按照与查询相关性对文本部分进行排序,推荐使用余弦相似性作为距离函数。
    • 提问(每次查询一次):将问题和最相关的部分插入到发送给 GPT 的消息中返回 GPT 的答案。
  2. Embedding 具有多种作用,如搜索(其中结果按与查询字符串的相关性进行排名)、聚类(其中文本字符串按相似性分组)、建议(建议包含相关文本字符串的项目)、异常检测(识别出相关性很小的离群值)、多样性测量(分析相似性分布)、分类(其中文本字符串按其最相似的标签分类)。
  3. 关于 RAG(检索增强生成),它是一种结合了检索和生成的技术,可以让大模型在生成文本时利用额外的数据源,从而提高生成的质量和准确性。其基本流程如下:
    • 首先,给定一个用户的输入,例如一个问题或一个话题,RAG 会从一个数据源中检索出与之相关的文本片段,例如网页、文档或数据库记录,这些文本片段称为上下文。
    • 然后,RAG 会将用户的输入和检索到的上下文拼接成一个完整的输入,传递给一个大模型,例如 GPT。这个输入通常会包含一些提示,指导模型如何生成期望的输出,例如一个答案或一个摘要。
    • 最后,RAG 会从大模型的输出中提取或格式化所需的信息,返回给用户。如果您想构建能够利用私有数据或实时数据进行推理的 AI 应用,需要用特定的信息来增强模型的知识,将相关信息检索并插入到模型的输入中。
Content generated by AI large model, please carefully verify (powered by aily)

References

认识大模型 Embedding 技术加实战

针对上面的问题,OpenAI发布过这样一篇文档,说明如何使用两步搜索来增强GPT的能力:搜索:搜索内部的知识库,检索相关文本。请求:将检索到的文本内容部分发送给GPT大模型,并向其提出问题。具体的操作步骤如下:1、准备搜索数据(仅一次)1)搜集数据:获取需要的数据,公开数据或者私有的数据2)切块:将文档切分成短小的3)嵌入:通过OpenAI API对切块的数据进行Embedding结果,4)存储:存储Embedding结果,对于大型数据集的Embedding结果,可以使用向量数据库进行保存。2、搜索(每次查询一次)给定用户问题,从OpenAI API生成查询的embeddings使用embeddings,按照与查询相关性对文本部分进行排序❝距离函数推荐使用:余弦相似性3、提问(每次查询一次)将问题和最相关的部分插入到发送给GPT的消息中返回GPT的答案[heading3]Embedding共有哪些作用[content]搜索(其中结果按与查询字符串的相关性进行排名)聚类(其中文本字符串按相似性分组)建议(建议包含相关文本字符串的项目)异常检测(识别出相关性很小的离群值)多样性测量(分析相似性分布)分类(其中文本字符串按其最相似的标签分类)

开发:LangChain应用开发指南-大模型的知识外挂RAG

原创AI小智AI小智2023-12-11 08:10发表于湖北AI大模型能够处理广泛主题的文本生成,但模型知识只能基于它们训练时使用的公开数据。如果你想构建能够利用私有数据或实时数据进行推理的AI应用,你需要用特定的信息来增强模型的知识。将相关信息检索并插入到模型的输入中,即检索增强生成(Retrieval Augmented Generation,RAG)。在本文中,我们将介绍如何使用LangChain开发一个简单的RAG问答应用。我们将依次介绍典型的问答架构,讨论相关的LangChain组件,并展示如何跟踪和理解我们的应用。[heading3]RAG的基本概念[content]RAG是一种结合了检索和生成的技术,它可以让大模型在生成文本时利用额外的数据源,从而提高生成的质量和准确性。RAG的基本流程如下:首先,给定一个用户的输入,例如一个问题或一个话题,RAG会从一个数据源中检索出与之相关的文本片段,例如网页、文档或数据库记录。这些文本片段称为上下文(context)。然后,RAG会将用户的输入和检索到的上下文拼接成一个完整的输入,传递给一个大模型,例如GPT。这个输入通常会包含一些提示(prompt),指导模型如何生成期望的输出,例如一个答案或一个摘要。最后,RAG会从大模型的输出中提取或格式化所需的信息,返回给用户。

开发:LangChain应用开发指南-大模型的知识外挂RAG

原创AI小智AI小智2023-12-11 08:10发表于湖北AI大模型能够处理广泛主题的文本生成,但模型知识只能基于它们训练时使用的公开数据。如果你想构建能够利用私有数据或实时数据进行推理的AI应用,你需要用特定的信息来增强模型的知识。将相关信息检索并插入到模型的输入中,即检索增强生成(Retrieval Augmented Generation,RAG)。在本文中,我们将介绍如何使用LangChain开发一个简单的RAG问答应用。我们将依次介绍典型的问答架构,讨论相关的LangChain组件,并展示如何跟踪和理解我们的应用。[heading2]RAG的基本概念[content]RAG是一种结合了检索和生成的技术,它可以让大模型在生成文本时利用额外的数据源,从而提高生成的质量和准确性。RAG的基本流程如下:首先,给定一个用户的输入,例如一个问题或一个话题,RAG会从一个数据源中检索出与之相关的文本片段,例如网页、文档或数据库记录。这些文本片段称为上下文(context)。然后,RAG会将用户的输入和检索到的上下文拼接成一个完整的输入,传递给一个大模型,例如GPT。这个输入通常会包含一些提示(prompt),指导模型如何生成期望的输出,例如一个答案或一个摘要。最后,RAG会从大模型的输出中提取或格式化所需的信息,返回给用户。

Others are asking
推荐几个可以做数据可视化的AI
以下是一些可以做数据可视化的 AI 工具: 1. Lucidchart:流行的在线绘图工具,支持多种图表创建,包括逻辑视图、功能视图和部署视图,用户可通过拖放界面轻松创建架构图。 2. Visual Paradigm:全面的 UML 工具,提供创建各种架构视图的功能,如逻辑视图(类图、组件图)、功能视图(用例图)和部署视图(部署图)。 3. ArchiMate:开源的建模语言,专门用于企业架构,支持逻辑视图创建,可与 Archi 工具配合使用,该工具提供图形化界面创建模型。 4. Enterprise Architect:强大的建模、设计和生成代码工具,支持创建多种架构视图,包括逻辑、功能和部署视图。 5. Microsoft Visio:广泛使用的图表和矢量图形应用程序,提供丰富模板用于创建逻辑视图、功能视图和部署视图等。 6. draw.io(现称为 diagrams.net):免费的在线图表软件,允许创建各种类型图表,包括软件架构图,支持创建逻辑视图和部署视图等。 7. PlantUML:文本到 UML 的转换工具,通过编写描述性文本自动生成序列图、用例图、类图等,帮助创建逻辑视图。 8. Gliffy:基于云的绘图工具,提供创建各种架构图的功能,包括逻辑视图和部署视图。 9. Archi:免费开源工具,用于创建 ArchiMate 和 TOGAF 模型,支持逻辑视图创建。 10. Rational Rose:IBM 的 UML 工具,支持创建多种视图,包括逻辑视图和部署视图。 此外,还有 Graphy:这是一个数据可视化平台,其 AI 功能可帮助用户添加数据并自动生成图表和关键见解,用户还能通过视觉注释和一键增强功能使数据更有意义,并通过故事讲述来传达见解。
2025-02-24
最近的ai新闻
以下是最近的一些 AI 新闻: 2024 年 7 月: 苹果发布了 AI 原生操作系统,加强了硬件和模型布局。 Claude Sonnet 3.5 发布,挑战 OpenAI。 视频生成领域 Runway Gen3 和快手可灵表现优秀。 AI 3D 技术逐渐崭露头角。 Google 和月之暗面推出长上下文缓存技术。 快手发布可灵网页版及大量模型更新。 阶跃星辰发布多款模型。 商汤打造类似 GPT4o 的实时语音演示。 GraphRAG:微软开源新型 RAG 架构。 2024 年 9 月: 9 月 12 日:李继刚再现神级 Prompt,玩法持续翻新;Mistral 发布首个多模态模型 Pixtral 12B。 9 月 13 日:商汤 Vimi 相机开放微博小程序;元象开源中国最大 MoE 大模型 XVERSEMoEA36B。 9 月 14 日:人工智能生成合成内容标识办法(征求意见稿);Jina AI 发布 ReaderLM、Jina Embeddings V3。 9 月 18 日:DeepSeek 发文庆祝登上 LMSYS 榜单国产第一,几小时后 Qwen 新模型表示不服。 9 月 19 日:云栖大会;通义万相 AI 生视频上线;快手可灵 1.5 模型新增运动笔刷能力。 9 月 20 日:腾讯元器智能体对外发布;秘塔科技产品经理 JD 走红 AI 圈;阶跃跃问接入 Step2 万亿参数 MoE 语言大模型。 9 月 21 日:大模型测试基准研究组正式成立。 9 月 23 日:钉钉 365 会员上线。 9 月 24 日:讯飞星火 API 全新升级;豆包大模型全系列发布&更新。 9 月 25 日:Vidu API 正式开放,加速企业级视频创作;OpenAI 发布高级语音功能;西湖心辰开源 WestlakeOmni。 2024 年 1 月: 斯坦福大学 Mobile Aloha。 1 月 10 号 LumaAl Genie 文生 3D。 1 月 11 号 GPT store 上线。 1 月 MagnificAl 高清放大爆火。 1 月最后一天苹果 Vision Pro 宣布发售。 此外,红杉资本美国合伙人 Pat Grady 在最新访谈中表示,AI 技术将为服务行业带来变革机遇,而非取代软件公司。AI 的潜力在于赋能服务行业,但人际关系和实际执行仍需人工。对于基础模型公司,Grady 认为它们可能像数据库公司一样发展,提供开发者 API,有机会进入应用层。他认为现有模型已足够强大,关键在于工程化优化和认知架构设计。
2025-02-24
AI如何赋能售前售中售后等业务场景
AI 能够在以下售前售中售后等业务场景中发挥重要作用: 1. 医疗保健: 售前:通过分析患者数据,为潜在患者提供个性化的医疗建议和服务介绍。 售中:辅助医生进行诊断,如医学影像分析。 售后:为患者提供个性化的康复方案和护理建议。 2. 金融服务: 售前:利用信用评估为潜在客户提供贷款可能性的初步评估和相关产品介绍。 售中:进行风控和反欺诈,确保交易安全。 售后:提供投资分析和客户服务,解答客户疑问。 3. 零售和电子商务: 售前:通过产品推荐和个性化搜索,吸引潜在客户。 售中:提供动态定价和优化购物体验。 售后:利用聊天机器人解决客户售后问题。 4. 制造业: 售前:展示产品的制造优势和质量保障。 售中:确保生产过程的高效和质量控制。 售后:进行预测性维护,为客户提供优质的售后维护服务。 5. 交通运输: 售前:通过虚拟试驾等方式展示产品特点。 售中:提供智能导购服务,帮助客户选择合适的车型。 售后:持续监测车辆状态,提供维护建议。 6. 汽车行业: 售前:AI 辅助“市场营销”和“新媒体运营”,进行热点营销、用户画像预测等。 售中:提升“销售体验”,如智能“试驾”、“金牌销售”智能导购等。 售后:监测车辆使用情况,提供相关服务。 7. 企业运营: 售前:协助准备营销材料和市场分析。 售中:提供销售策略咨询。 售后:处理法律文书和人力资源相关事务。 8. 教育: 售前:为潜在学生提供学习规划建议。 售中:定制化学习内容。 售后:审核论文和提供后续学习支持。 9. 游戏/媒体: 售前:进行游戏定制化推广和出海文案宣传。 售中:提供动态生成的游戏体验和媒体内容。 售后:处理用户反馈和优化内容。 10. 金融/保险: 售前:提供个人金融理财顾问服务。 售中:处理贷款信息和风险评估。 售后:进行保险理赔处理和客户服务。 11. 生命科学: 售前:介绍研发成果和服务。 售中:协助医疗过程中的诊断和治疗。 售后:提供术后护理和康复辅助。
2025-02-24
那个AI擅长修改简历?
以下是一些擅长修改简历的 AI 工具: 1. 超级简历优化助手:这是一款 AI 简历优化工具,使用自然语言处理技术,能分析简历内容并提供优化建议,帮助用户提高求职成功率,市场规模达数亿美元。 2. Kickresume 的 AI 简历写作器:使用 OpenAI 的 GPT4 语言模型自动生成简历,为简历摘要、工作经验和教育等专业部分编写内容,并保持一致语调。 3. Rezi:是一个受到超过 200 万用户信任的领先 AI 简历构建平台,使用先进的 AI 技术自动化创建可雇佣简历的每个方面,包括写作、编辑、格式化和优化。 4. Huntr 的 AI 简历构建器:提供免费的简历模板,以及 AI 生成的总结/技能/成就生成器和 AI 驱动的简历工作匹配。 更多 AI 简历产品,还可以查看这里:https://www.waytoagi.com/category/79 。您可以根据自己的需要选择最适合的工具。
2025-02-24
Google AI studio
以下是关于 Google AI Studio 的相关信息: 1. Gemini 2.0 Flash 现身 Google AI Studio: 多模态实时 API:支持实时视觉与音频流应用开发。 速度提升:首次令牌时间显著优化。 质量改进:超越 Gemini1.5 Pro 在基准测试中的表现。 代理能力增强:多模态理解、复杂指令处理、函数调用全面提升。 新增功能:图像生成与可控的文本转语音。链接: 2. Cognition 的 AI 工程师 Devin 正式推出: 定价 500 美金/月,专注于小型任务处理,而非代替程序员。 核心功能:可通过 Slack 指令分配任务、在 VSCode 中管理代码、通过 API 接入定制化工作流。 优势:提升开发效率,擅长修复 bug、优化代码、编写测试用例。链接: 3. OpenAI 回应 ChatGPT 宕机: 全球范围宕机,影响 iOS18.2 及 Siri 集成功能。 可能因苹果新系统大规模更新,Siri 与 ChatGPT 深度集成所致。链接:
2025-02-24
AI studio
以下是关于“AI studio”的相关信息: 生成式 AI Studio 简介: 生成式人工智能是一种能够生成新的、未曾存在内容的人工智能技术,其生成内容可以是多模态的,包括文本(如文章、报告、诗歌等)、图像(如绘画、设计图、合成照片等)、音频(如音乐、语音、环境声音等)、视频(如电影剪辑、教程、仿真等)。它可以应用于广泛的场景,如文档摘要、信息提取、代码生成、营销活动创建、虚拟协助、呼叫中心机器人等。其工作方式包括训练阶段和应用阶段。在训练阶段,通过从大量现有内容中学习进行训练得到基础模型;在应用阶段,基础模型可用于生成内容并解决一般性问题,还可使用特定领域新数据集进一步训练以解决特定问题得到新模型。Google Cloud 提供了相关工具,如 Vertex AI(端到端机器学习开发平台)、Generative AI Studio(允许快速制作原型和自定义生成式 AI 模型)、Model Garden(提供 MLOps 工具)。 视频赛道获奖名单: |姓名|作品名|作品描述| |||| |元影智能工作室|AI 科技走秀|| |楼济铭|ai 在广财.mp4|| |陈少波|mmexport1719049478881.mp4|谨以此作品,迎接 AI 时代的来临,在这场狂欢中,我们尽情舞蹈,尽情歌唱,沉醉于一个崭新的智能时代!| |成安安|AI 宣传片成片.mp4|从创新性视频制作到智能文案生成,我们的每一步都在重塑内容创作的未来。我们相信,人工智能不仅是技术,更是一种创新力量,AI 未来,让创无所限。| |OneBrocade|阿维塔 07_apo8_prob4.mp4, 摩羯_apo8_prob4.mp4, 10 月 11 日.mp4|| |苏佳煜|天猫精灵变形记.mp4|| |Danny 造梦|白骨精前传.mp4|| |陈思孝|阿维塔.mp4|| |噼哩啪啦猴|AIGC 视频《Isolated》|| |二金|404.mp4|4 个镜头讲述一个故事| |Lumier|25 女性的力量.mp4|| |咖菲猫咪|治愈系清晨|| |对!|AI 梵高.mp4|| |蓝牙耍手机|最终!.mp4|如果地球上的生物同一时刻起跳会发生什么呢?| 翻译:A16Z TOP 100 生成式 AI 应用: 一些移动应用开发者成功打造了不止一款热门应用。比如,位于伊斯坦布尔的应用开发工作室 Codeway 开发了 AI 照片动画应用(在移动端应用榜单中排名第五)最近宣布完成了 1.55 亿美元的股权融资。
2025-02-24
如何给AI提问,得到自己想要的更准确的内容
以下是一些给 AI 提问以获得更准确内容的方法: 1. 设定角色:给 AI 赋予一个明确的角色,例如“你是一个专注于民商事法律领域的律师”,让其以特定角色来理解和回答问题。 2. 举例子:通过给出实际的例子,能使 AI 更准确地了解您的要求。 3. 连续提问:对于复杂的问题,可以就一个问题连续提问,根据 AI 的回复不断细化要求。 4. 直接问 AI 如何提问:当不知道如何提问时,可以先向 AI 请教如何提问,然后用它产生的问题再问它。 5. 讲清楚背景和目的:在提问时,除了明确的问题描述,还要梳理清楚背景信息和提问目的,帮助 AI 更好地理解问题上下文。 6. 学会提问:使用清晰、具体的语言,避免模糊表述,同时了解 AI 的工作原理和限制,设计合适的问题。 7. 拆解环节、切分流程:将复杂任务分解成更小、更具体的环节,让 AI 更精确地执行。 8. 对于编程相关问题: 提供代码范例,尤其是新进入代码节点的 IDE 中的范例。 说清楚输入变量与输出变量的类型。 说明与工作流中匹配或想要的变量名称。 列出输入变量的具体书写形式。 讲清楚代码要实现的功能,复杂功能尽量说清运行逻辑,描述中用变量名称指代相关变量。并可参考以下提问范式:。关键步骤请附上注释。
2025-02-24
如何正确的向deepseek提问来辅助我写一篇文献
以下是向 DeepSeek 提问来辅助写文献的正确方法: 1. 借助 AI 分析好的文章: 找出您最喜欢的文章,投喂给 DeepSeek R1(适合大多数有推理模型的 AI)。 第一次询问:请从写作角度分析这篇文章。 第二次询问:请再从读者角度分析这篇文章。 第三次询问:这篇文章还存在什么缺点和不足,有什么改善和提升的空间。 对作者进行侧写,分析成长背景、个人经历和知识结构对文章的影响。 2. 让 AI 对您写的文章进行点评: 表述为“现在我希望你是一名资深中文写作教师/小学语文老师/中学语文老师/公文写作培训师,拥有 30 年教育经验,是一名传授写作技巧的专家。请先阅读我提供给你的文章,然后对文章进行分析,然后教我如何提升写作水平。请给出详细的优缺点分析,指出问题所在,并且给出具体的指导和建议。为了方便我能理解,请尽量多举例子而非理论陈述。” 3. 根据文章内容对作者进行心理侧写: 表述为“我希望你扮演一个从业 20 多年,临床诊治过两千多例心理分析案例的人性洞察和意识分析方面的专家,精通心理学、人类学、文史、文化比较。先阅读后附文章全文,然后对作者进行人格侧写。要尖锐深刻,不要吹捧包装,不要提出一些只能充当心理安慰的肤浅的见解。包括作者的基本画像、核心性格特质、认知与价值观、潜在心理动机、行为模式推测、矛盾与盲点、文化符号映射。” 此外,还有用 DeepSeek 扮演一本书的作者辅助阅读书籍的案例,比如在读项飚的《跨越边界的社区》时,让 DeepSeek 解释作者为什么这么写,它会从时代背景的张力、浙江村的实践智慧、方法论上的颠覆等层面进行剖析。
2025-02-20
怎么提问文生图
以下是关于文生图提问的相关内容: 在 Coze 中,文生图的开始和结束节点是必需的。节点参数方面,默认绘制 10881088 的方图,最大能画 17281728 的方图,最小 576567,像素区间内各种比例可任选。Ratio 是程序员常用的“枚举”操作。试用效果方面,如“1 girl”等提示词实测效果偏向网红动漫风,也支持中文提示词。但在写入现实主义时可能会遇到风控,可尝试去掉相关关键字。 对于【SD】文生图,提示词如 等。 关于提示词的其他方面,如提示词快闪答疑中,未涉及太多与文生图直接相关的内容。
2025-02-13
想要对deepseek进行提问需要什么技巧吗?有没有什么高校组织给出的方案?
对 DeepSeek 进行提问时,以下是一些技巧: 1. 身份定位技巧:目的是让 AI 理解您的背景和专业水平。例如,差的表述是“帮我写一篇营销方案”,好的表述是“作为一名刚入职的电商运营,需要为天猫美妆店铺制定 618 活动方案”。 2. 场景描述技巧:提供具体的应用场景和限制条件。比如,差的表述是“写一篇新品发布文案”,好的表述是“为新上市的儿童智能手表写一篇朋友圈文案,目标用户是 25 35 岁的年轻父母,预算 3000 以内,需强调安全定位功能”。 3. 结构化输出技巧:指定具体的输出格式和内容结构。例如,差的表述是“分析最近的新能源汽车销量数据”,好的表述是“请用表格对比 2024 年 Q1 特斯拉、比亚迪的销量数据,包含以下维度:月度销量、同比增长、市场份额,并在表格下方总结三个关键发现”。 4. 分步骤提问技巧:将复杂问题拆解为可管理的小任务。比如,差的表述是“怎么做短视频运营?”,好的表述是“请分三步指导新手做美食短视频:前期准备:需要哪些设备和技能 拍摄阶段:关键场景和机位选择 后期制作:剪辑节奏和音乐配合建议”。 5. 反馈优化技巧:通过追问获得更精准的答案。例如,第一轮“帮我做一份产品分析报告”,追问 1:“内容太专业了,能用更通俗的语言解释吗?”追问 2:“可以增加一些具体的用户案例来支撑观点吗?” 6. 深度思考引导技巧:目的是获得更深入的分析和见解。
2025-02-07
为什么要用智能体 提示词和提问题什么区别
智能体的使用具有重要意义,写好提示词是创建智能体的第一步。设计提示词有多种原则和模型,如 CRISPE 框架,其中包括能力与角色(CR)、洞察(I)、陈述(S)、个性(P)、实验(E)等方面,明确希望 AI 扮演的角色、具备的背景信息、要做的事、回答风格以及提供多个答案等。FewShot COT 模型通过加入示例能有更好效果,可提供 1 到多个样本;ZeroShot COT 模型则不增加示例样本。TOT 模型先分步骤,每个步骤产生多个结果并选择,再进行下一步。SelfConsistent COT 模型则注重一个问题的多种解法。 从使用角度看,提示词可分为任务型和拟人化型。任务型提示词高度专业化、流程清晰,遵循严格工作逻辑,专注完成特定任务或解决问题;拟人化提示词模拟人类交互方式,用于陪伴聊天等,需要更细致全面的设计以呈现丰富个性和背景。 在生成式人工智能模型中,提示词是用户输入用于引导模型产生期望输出的文本,可简单可复杂,包含指令、问题、输入数据和示例等,为得到期望回应,通常必须包含指令或问题,其他元素可选。在 LLM 中,基本提示词可直接提问或提供特定任务指令,高级提示词则有更复杂结构,如思维链提示词引导模型逻辑推理得出答案。 提示词和提问题的区别在于,提示词不仅包含问题,还可能包含指令、输入数据和示例等,以更全面地引导模型产生期望的输出。而提问题相对较为简单直接,侧重于获取答案。
2025-02-07
deepseek的提问方式和指令输入规则是什么
DeepSeek 的提问方式和指令输入规则如下: 核心原理认知: AI 特性定位:支持文本/代码/数学公式混合输入,具有动态上下文(约 4K tokens 上下文窗口)和任务适应性(可切换创意生成/逻辑推理/数据分析模式)。 系统响应机制:采用意图识别+内容生成双通道处理,自动检测 prompt 中的任务类型、输出格式、知识范围,对位置权重(开头/结尾)、符号强调敏感。 基础指令框架: 四要素模板:如果不知道如何表达,可套用框架指令。 格式控制语法:强制结构使用```包裹格式要求,占位符标记用{{}}标注需填充内容,优先级符号>表示关键要求,!表示禁止项。 进阶控制技巧: 思维链引导:分步标记法,如请逐步思考:1.问题分析→2.方案设计→3.风险评估;苏格拉底式追问,在得出最终结论前,请先列举三个可能存在的认知偏差。 知识库调用:领域限定指令,如基于 2023 版中国药典,说明头孢类药物的配伍禁忌;文献引用模式,如以 Nature 2022 年发表的论文为参考,解释 CRISPRCas9 最新突破。 性能监测体系:包括需求理解准确率(复杂需求首轮响应匹配度)、知识迁移能力(跨领域案例应用的合理性)、思维深度指数(解决方案的因果链条长度)。新一代交互范式建议采用「人机共谋」模式、启动「思维可视化」指令、实施「苏格拉底式对话」。通过将深度思考能力与场景化需求结合,可解锁 DeepSeek 的「认知增强」模式,建议通过 3 轮迭代测试(需求表达→深度追问→方案优化)建立个性化交互模式。
2025-02-05
AI编程大模型排行榜
以下是一些关于 AI 编程大模型的相关信息: 1. ShowMeAI 周刊 No.13 中提到的相关内容: Learn About:继 NotebookLM 之后又一个 AI Native 产品,谷歌真正的 AI Native Education 尝试。 ima.copilot V.S. 秘塔 V.S. 天工:国区 Perplexity 青出于蓝而胜于蓝,秘塔一骑绝尘。 Markdown:技术圈(最)常用的文本编辑语言,一种「四通八达」的中转格式,并附上好用的转换工具。 把 17 岁高中生涂津豪的 Thinking Claude 提示词,设置在 Cursor 里。 两篇优秀的 AI 编程教程:跟着资深工程师&全栈开发者,挖掘 LLM 编程能力的极限。 恭喜阶跃星辰!step2 在 LiveBench 榜单杀进前 5,斩获国产大模型第 1 名,并顺带聊聊榜单和测评的「内幕」。 举个栗子:当把大模型「开源」用「做饭吃饭」来解释,一起都豁然开朗起来,甚至还玩起了谐音梗。 很有共鸣:为什么大部分人用不起来 AI?可能还没体验到效率飞升的 Aha Moment。 集体讨论:大家都是怎么快速处理长视频、长音频、长文本材料的?都有哪些工作流和工具的配合应用? 2. Trae:字节开发的一款和 AI 深度集成的 AI 编程工具,可让用户限时免费无限量使用地球上最强大的编程大模型 Claude Sonnet,全自动化进行 AI 编程。包含完整的 IDE 功能,如代码编写、项目管理、插件管理、源代码管理等,提供智能问答、实时代码建议、代码片段生成、从 0 到 1 开发项目。 3. 8 月正式上线的国内大模型: 北京的五家企业机构:百度(文心一言)https://wenxin.baidu.com ;抖音(云雀大模型)https://www.doubao.com ;智谱 AI(GLM 大模型)https://chatglm.cn ;中科院(紫东太初大模型)https://xihe.mindspore.cn ;百川智能(百川大模型)https://www.baichuanai.com/ 。 上海的三家企业机构:商汤(日日新大模型)https://www.sensetime.com/ ;MiniMax(ABAB 大模型)https://api.minimax.chat ;上海人工智能实验室(书生通用大模型)https://internai.org.cn 。 能生成 Markdown 格式的:智谱清言、商量 Sensechat、MiniMax 。 目前不能进行自然语言交流的:昇思(可以对文本进行是否由 AI 生成的检测,类似论文查重,准确度不错)、书生 。 受限制使用:MiniMax(无法对生成的文本进行复制输出,且只有 15 元的预充值额度进行体验,完成企业认证后可以进行充值) 。 特色功能:昇思——生图,MiniMax——语音合成 。 阿里通义千问、360 智脑、讯飞星火等均不在首批获批名单中。广东地区获批公司分别为华为、腾讯,科大讯飞系其他地区获批产品。
2025-02-24
表格内填充的内容如何批量循环调用大模型生成内容
以下是关于表格内填充内容如何批量循环调用大模型生成内容的相关信息: 大模型生成文字并非一次性输出整段,而是通过反复调用神经网络模型,一个字一个字地续写,直到输出结束符号。其输出不是确定的一个字,而是所有字的概率,可选择概率高的字或随机挑选。 在生成标题、导语、大纲等涉及文本理解与创作的任务时,可通过配置 LLM 节点来实现。为节省 token 消耗和模型调度费用,在满足预期的情况下,应减少大模型处理环节。例如,豆包·function call 32k 模型能在一轮对话中稳定生成这些内容。配置时要关注节点的各项设置,如根据实际情况调大模型的最大回复长度,并设计填入用户提示词。
2025-02-24
目前市面上有多少不同的大模型,请枚举出来
目前市面上的大模型列举如下: 北京企业机构: 百度(文心一言):https://wenxin.baidu.com 抖音(云雀大模型):https://www.doubao.com 智谱 AI(GLM 大模型):https://chatglm.cn 中科院(紫东太初大模型):https://xihe.mindspore.cn 百川智能(百川大模型):https://www.baichuanai.com/ 上海企业机构: 商汤(日日新大模型):https://www.sensetime.com/ MiniMax(ABAB 大模型):https://api.minimax.chat 上海人工智能实验室(书生通用大模型):https://internai.org.cn 大型模型主要分为两类: 1. 大型语言模型,专注于处理和生成文本信息。 2. 大型多模态模型,能够处理包括文本、图片、音频等多种类型的信息。 大模型的整体架构从整体分层的角度来看,大致分为以下几层: 1. 基础层:为大模型提供硬件支撑,数据支持等,例如 A100、数据服务器等等。 2. 数据层:这里的数据层指的不是用于基层模型训练的数据基集,而是企业根据自己的特性,维护的垂域数据。分为静态的知识库,和动态的三方数据集。 3. 模型层:包括 LLm(大语言模型)或多模态模型。LLm 如 GPT,一般使用 transformer 算法来实现。多模态模型即市面上的文生图、图生图等的模型,训练所用的数据与 llm 不同,用的是图文或声音等多模态的数据集。 4. 平台层:模型与应用间的平台部分,比如大模型的评测体系,或者 langchain 平台等,提供模型与应用间的组成部分。 5. 表现层:也就是应用层,用户实际看到的地方。 另外,阿里通义千问、360 智脑、讯飞星火等均不在首批获批名单中。据悉,广东地区获批公司分别为华为、腾讯,科大讯飞系其他地区获批产品。
2025-02-24
大模型的发展历史
大模型的发展历史如下: 2017 年,发布了 Attention Is All You Need 论文,开启了大模型发展的序幕。 2018 年,Google 提出 BERT(Bidirectional Encoder Representations from Transformers),通过双向预训练并行获取上下文语义信息和掩码语言建模,开创了预训练语言表示范式,参数规模在 110M 到 340M 之间。 2018 年,OpenAI 提出 GPT(Generative Pretrained Transformer),开创了仅使用自回归语言建模作为预训练目标而无需额外监督信号的方式,展示了强大的语言生成能力,参数规模达 1750 亿。 2021 年,Meta 提出 Large LAnguage Model Approach(LLAMA),这是首个开源模型,为构建更大规模、更通用的语言模型提供了系统化的方法与工具,参数规模在十亿到千亿之间。 2023 年是大模型澎湃发展的一年,从 22 年 11 月 ChatGPT 的惊艳面世,到 23 年 3 月 GPT4 作为“与 AGI(通用人工智能)的第一次接触”,到 23 年末多模态大模型的全面爆发,再到刚刚面世的 Sora 再次震惊世界。随着大模型技术的愈发成熟和规模增大,为 AI Agent 提供强大能力,有望构建具备自主思考、决策和执行能力的智能体,广泛应用于多个行业和领域。
2025-02-24
rag 模型微调
RAG(检索增强生成)模型微调相关知识如下: 通用语言模型通过微调可完成常见任务,如分析情绪和识别命名实体。对于更复杂和知识密集型任务,可基于语言模型构建系统并访问外部知识源。Meta AI 引入的 RAG 方法把信息检索组件和文本生成模型结合,可微调且内部知识修改高效,无需重新训练整个模型。 RAG 接受输入并检索相关支撑文档,给出来源,与输入原始提示词组合后送给文本生成器得到输出,能适应事实变化,获取最新信息并生成可靠输出。 通用的 RAG 微调方法如 Lewis 等人(2021)提出的,使用预训练的 seq2seq 作为参数记忆,用维基百科的密集向量索引作为非参数记忆。 在微调阶段: 检索器微调的常用方法包括直接微调、添加可训练的 Adapter 模块、LSR、LLM Reward RL。 生成器微调的主要方法包括直接微调、GPT4 蒸馏、基于反馈的强化学习。 协同微调是在 RAG 系统中同时对检索器和生成器进行微调,如 RADIT 分别对 LLM 和检索器进行微调。 同时,RAG 提高了嵌入模型质量,传统 RAG 解决方案中的问题也得到解决。
2025-02-24
模型微调
以下是关于模型微调的相关信息: 微调步骤: 1. 微调脚本: LoRA 微调: 脚本见: 具体实现代码见: 单机多卡的微调可通过修改脚本中的include localhost:0 来实现。 全量参数微调: 脚本见: 具体实现代码见: 2. 加载微调模型: LoRA 微调:基于 LoRA 微调的模型参数见基于 Llama2 的中文微调模型,LoRA 参数需要和基础模型参数结合使用。通过加载预训练模型参数和微调模型参数。 全量参数微调:调用方式同模型调用代码示例,只需要修改其中的模型名称或者保存路径即可。 微调介绍: 微调可让您从 API 提供的模型中获得更多收益,包括比即时设计更高质量的结果、能够训练比提示中更多的例子、由于更短的提示而节省了 Token、更低的延迟请求。GPT3 已经在来自开放互联网的大量文本上进行了预训练。微调通过训练比提示中更多的示例来改进小样本学习,让您在大量任务中取得更好的结果。对模型进行微调后,您将不再需要在提示中提供示例。这样可以节省成本并实现更低延迟的请求。在高层次上,微调涉及准备和上传训练数据、训练新的微调模型、使用您的微调模型等步骤。 可微调的模型: 微调目前仅适用于以下基础模型:davinci、curie、babbage 和 ada。这些是原始模型,在训练后没有任何说明(例如 textdavinci003)。您还可以继续微调微调模型以添加其他数据,而无需从头开始。 OpenAI 的模型概述: OpenAI API 由具有不同功能和价位的多种模型提供支持。您还可以通过微调针对您的特定用例对我们的原始基本模型进行有限的定制。包括 GPT4 Beta、GPT3.5、DALL·E Beta、Whisper Beta、Embeddings、Codex Limited Beta、Moderation、GPT3 等模型。
2025-02-24
deepseek如何正确使用
以下是关于 DeepSeek 正确使用的相关信息: 媒体报道和网络文章: 归藏的 AI 工具箱:海外敲代码,国内写唐诗:Deepseek R1 爆火后的现象思考,链接:https://mp.weixin.qq.com/s/mm9QXITLIynK0Vve3hnP7Q 卫夕指北:变天!——由一个惊艳例子引发对 DeepSeek 的 10 条思考,链接:https://mp.weixin.qq.com/s/04VnIY8IIKBM2BS9zxNQ6Q 鹤竹子:这才是 DeepSeek 的正确使用方式!你还在用 GPT 那套就废了,春节前最后预警,链接:https://mp.weixin.qq.com/s/z29jvMOJp0GZXPkKrgBwMA 和菜头槽边往事:它们都比 deepseek 好,我知道,链接:https://mp.weixin.qq.com/s/jlOvlC7Sp_Xyz8PSBM1bA 具体使用步骤: 搜索 www.deepseek.com,点击“开始对话”。 将装有提示词的代码发给 Deepseek。 认真阅读开场白之后,正式开始对话。 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担。 通过提示词文件,让 DeepSeek 实现:同时使用联网功能和深度思考功能。 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性。 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改。 用 XML 来进行更为规范的设定,而不是用 Lisp(对作者来说有难度)和 Markdown(运行下来似乎不是很稳定)。 完整提示词:v 1.3 特别鸣谢:李继刚(【思考的七把武器】在前期为作者提供了很多思考方向)、Thinking Claude(这个项目是作者现在最喜欢使用的 Claude 提示词,也是设计 HiDeepSeek 的灵感来源)、Claude 3.5 Sonnet(最得力的助手)
2025-02-11
我几乎是一个AI小白,只能日常跟AI对话,让AI回答我的问题,我希望能系统的了解AI,认识AI,学会正确使用AI,让AI帮助我提高效率,希望你能给出学习建议
以下是为您提供的系统学习 AI 的建议: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,如图像、音乐、视频等,您可以根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 6. 与大语言模型交流的技巧: 对话尽量具体、丰富、少歧义,多说有用的。 假想特定场景,明确希望获得的内容。 把大模型当作大学生,指明方向,拆解任务,教其一步一步操作。 7. AI 教育方面: 以 Khanmigo AI 为例,AI 教师应具有友善和支持的性格,语言简明,不直接给答案,而是通过适当提问帮助学生独立思考,根据学生知识水平调整问题,检查学生是否理解,警惕学生滥用帮助等。
2025-02-10
在coze工作流中,怎样利用下一个代码节点合并前两个代码节点的输出,并以正确的格式输入传入飞书多维表格插件节点
在 Coze 工作流中利用下一个代码节点合并前两个代码节点的输出并以正确格式传入飞书多维表格插件节点的步骤如下: 1. 搭建整理入库工作流: 3.4 大模型节点:提取稍后读元数据。根据对稍后读阅读清单的元数据期望设置大模型节点,使用 MiniMax 6.5s 245k,设置最大回复长度至 50000 以完整解析长内容网页,用户提示词需相应设置。 3.5 日期转时间戳。后续的飞书多维表格插件节点在入库日期字段时只支持 13 位时间戳,需使用「日期转时间戳time_stamp_13」插件进行格式转化,具体设置明确。 3.6 大模型节点:把稍后读元数据转换为飞书多维表格插件可用的格式。飞书多维表格插件目前(2024 年 08 月)只支持带有转义符的 string,以 Array<Object>格式输入,所以要将之前得到的元数据数组进行格式转换,大模型节点配置及用户提示词需相应设置。 3.7 插件节点:将元数据写入飞书表格。添加「飞书多维表格add_records」插件,设置{{app_token}}与{{records}}参数。 3.8 结束节点:返回入库结果。「飞书多维表格add_records」插件会返回入库结果,直接引用该信息用于通知外层 bot 工作流的入库是否成功。 2. 搭建选择内容推荐流: 4.1 开始节点:输入想阅读的内容主题。收到用户输入的“想看 xxx 内容”这类指令开始流程,无需额外配置。 4.2 变量节点:引入 bot 变量中保存的飞书多维表格地址,添加变量节点并设置。 4.3 插件节点:从飞书多维表格查询收藏记录。添加「飞书多维表格search_records」插件,设置{{app_token}}参数,并在{{app_token}}引用变量节点的{{app_token}},输出结果的{{items}}里会返回需要的查询结果,也可在这一步定向检索未读状态的收藏记录。 4.4 大模型节点:匹配相关内容。为处理稳定采用批处理,对检索出来的收藏记录逐个进行相关性匹配,用户提示词可优化以提升匹配精准度。 搭到这里,别忘了对整个工作流进行测试。
2025-01-09
如何快速正确的学习ai做自媒体
以下是关于如何快速正确地学习 AI 做自媒体的建议: 一、了解 AI 基本概念 1. 阅读「」部分,熟悉 AI 的术语和基础概念,包括人工智能的主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 2. 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 二、开始 AI 学习之旅 1. 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 2. 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 三、选择感兴趣的模块深入学习 AI 领域广泛,比如图像、音乐、视频等,您可以根据自己的兴趣选择特定的模块进行深入学习。同时,一定要掌握提示词的技巧,它上手容易且很有用。 四、实践和尝试 1. 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。 2. 在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 五、体验 AI 产品 1. 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 2. 通过与这些 AI 产品的对话,获得对 AI 在实际应用中表现的第一手体验,并激发对 AI 潜力的认识。 此外,关于如何用 AI 进行英语学习和数学学习: 英语学习 1. 利用 AI 写作助手(如 Grammarly)进行英语写作和语法纠错,改进英语表达和写作能力。 2. 使用语音识别应用(如 Call Annie)进行口语练习和发音纠正,获取实时反馈和建议。 3. 使用自适应学习平台(如 Duolingo),利用 AI 技术量身定制学习计划,提供个性化的英语学习内容和练习。 4. 利用智能对话机器人(如 ChatGPT)进行英语会话练习和对话模拟,提高交流能力和语感。 数学学习 1. 使用自适应学习系统(如 Khan Academy),结合 AI 技术提供个性化的数学学习路径和练习题,根据能力和需求精准推荐。 2. 利用智能题库和作业辅助工具(如 Photomath),通过图像识别和数学推理技术获取数学问题的解答和解题步骤。 3. 使用虚拟教学助手(如 Socratic),利用 AI 技术解答数学问题、提供教学视频和答疑服务,帮助理解和掌握数学知识。 4. 参与交互式学习平台(如 Wolfram Alpha)的数学学习课程和实践项目,利用 AI 技术进行数学建模和问题求解。 通过结合 AI 技术和传统学习方法,可以更高效、更个性化地进行英语学习和数学学习,并取得更好的学习效果。但请注意,内容由 AI 大模型生成,请仔细甄别。
2025-01-04
如何让AI协助我思考观点是否正确
要让 AI 协助您思考观点是否正确,可以参考以下内容: 1. 认识到 AI 可能存在的问题: AI 可能会“产生幻觉”,生成看似合理但错误的内容,甚至连续且良好地撒谎,所以对其输出的内容需要全面检查。 AI 不会真正解释自己,给出的关于思考过程的回答可能是编造的,理解系统中的偏见也很困难。 利用 AI 工具时要对输出负责,避免不道德地使用来操纵或作弊。 2. 利用 AI 辅助写作课题的步骤和建议: 确定课题主题:明确研究兴趣和目标,选择有价值和创新性的主题。 收集背景资料:使用学术搜索引擎和文献管理软件等 AI 工具搜集相关文献和资料。 分析和总结信息:利用文本分析工具提取关键信息和主要观点。 生成大纲:使用写作助手生成包括引言、文献综述等部分的大纲。 撰写文献综述:借助 AI 工具确保内容准确完整。 构建方法论:根据需求利用 AI 建议的方法和技术设计研究方法。 数据分析:若涉及数据处理,使用相关 AI 工具。 撰写和编辑:利用写作工具并检查语法和风格。 生成参考文献:使用文献管理工具生成正确格式。 审阅和修改:用审阅工具检查逻辑性和一致性,根据反馈修改。 提交前的检查:确保课题原创性并调整格式。 但要记住,AI 只是辅助,不能替代研究者的专业判断和创造性思维,应保持批判性思维,保证研究质量和学术诚信。 3. 提升自身认知能力以更好判断 AI 协助的结果: 像给大脑升级系统一样不断学习和训练,提升认知能力。 认清常见的“思维陷阱”,如确认偏误(倾向于寻找支持已有观点的信息)、锚定效应(易受第一印象影响)等。 锻炼逻辑思维,学习逻辑推理,识别错误论证。 掌握数据分析能力,对接触到的数字和统计数据保持警惕,不盲目相信。
2024-12-24