直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

有哪些工具直接可以调用国外的多个LLM

回答

以下是一些关于能够调用国外多个 LLM 的相关信息:

  • 开源项目作者 ailm 提出一种仅使用提示词工程和精巧的代码设计,让 LLM 获得稳定的 tool calling 能力,使用多个不具备该功能的 LLM 进行实验,成功率达 100%,工作基于 comfyui 开发,适合无代码基础的人员复现和修改。
  • 在高级提示词工程领域,工具、连接器和技能的整合能显著增强 LLM 的能力。工具是指 LLM 可利用的外部功能或服务,扩展任务范围;连接器是 LLM 与外部工具或服务的接口,管理数据交换和通信;技能是 LLM 可执行的专门功能。
  • 目前开源模型与专有产品存在差距但在缩小,如 Meta 的 LLaMa 模型引发一系列变体。当开源 LLM 达到一定准确度水平时,预计会有大量实验等。开发人员对 LLM 操作工具的研究尚不深入,一些工具如缓存(基于 Redis)、Weights & Biases、MLflow、PromptLayer、Helicone 等得到较广泛使用,还有新工具用于验证 LLM 输出或检测攻击。多数操作工具鼓励使用自身的 Python 客户端进行 LLM 调用。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

无需微调,仅用提示词工程就能让 LLM 获得 tool calling 的功能

大家好,我是一个开源项目作者ailm。目前,绝大多数小型本地开源大语言模型以及部分商用大模型接口都不支持稳定的tool calling功能。而现有的解决方案是微调LLM,这导致大量的时间和算力被浪费。本文提出一种仅使用提示词工程和一些精巧的代码设计,即可让LLM获得稳定的tool calling能力。本文使用多个不具备tool calling能力的LLM作为测试模型,在多个工具调用任务上进行实验,成功率为100%。本文所有工作是基于comfyui开发,适合完全没有代码基础的小伙伴们复现并且按自己的想法修改我的工作。

小七姐:精读翻译《提示词设计和工程:入门与高级方法》

在高级提示词工程领域,工具、连接器和技能的整合显著增强了大型语言模型(LLM)的能力。这些元素使LLM能够与外部数据源互动,并执行超出其固有能力范围的特定任务,极大地扩展了它们的功能和应用范围。在这里,工具是指LLM可以利用的外部功能或服务。这些工具扩展了LLM可以执行的任务范围,从基本的信息检索到与外部数据库或API的复杂互动。连接器作为LLM与外部工具或服务之间的接口。它们管理数据交换和通信,使有效利用外部资源成为可能。连接器的复杂性可以变化,适应各种外部互动。技能是指LLM可以执行的专门功能。这些封装的能力,如文本摘要或语言翻译,增强了LLM处理和响应提示词的能力,即使没有直接访问外部工具。在论文“Toolformer:Language Models Can Teach Themselves to Use Tools”[8]中,作者超越了简单的工具使用,通过训练LLM决定何时使用什么工具,甚至API需要什么参数。工具包括两个不同的搜索引擎,或一个计算器。在以下示例中,LLM决定调用一个外部问答工具、一个计算器和一个Wikipedia搜索引擎。最近,伯克利的研究人员训练了一个新的LLM,名为Gorilla[9],它在使用API方面击败了GPT-4,这是一个特定但相当通用的工具。

LLM 应用程序的新兴架构

目前,开源模型落后于专有产品,但差距正在开始缩小。Meta的LLaMa模型为开源准确性设定了新的标准,并引发了一系列变体。由于LLaMa只被授权用于研究用途,许多新的提供商已经介入训练替代基础模型(例如Together、Mosaic、Falcon、Mistral)。Meta还在[讨论](https://youtu.be/6PDk-_uhUt8?t=139)LLaMa 2的真正开源版本。当(而不是如果)开源LLM达到与GPT-3.5相当的准确度水平时,我们期望看到文本的稳定扩散时刻——包括微调模型的大量实验、共享和生产。像Replicate这样的托管公司已经在添加工具,让软件开发人员更容易使用这些模型。开发人员越来越相信,更小、经过微调的模型可以在狭窄的用例中达到最先进的准确性。我们采访过的大多数开发人员还没有深入研究LLM的操作工具。缓存相对普遍——通常基于Redis——因为它可以缩短应用程序响应时间并降低成本。Weights & Biases和MLflow(从传统机器学习移植而来)或PromptLayer和Helicone(专为LLM设计)等工具也得到了相当广泛的使用。他们可以记录、跟踪和评估LLM输出,通常是为了改进提示构建、调整管道或选择模型。还有许多正在开发的新工具来验证LLM输出(例如Guardrails)或检测提示注入攻击(例如Rebuff)。大多数这些操作工具都鼓励使用他们自己的Python客户端来进行LLM调用,因此看看这些解决方案如何随着时间的推移共存将会很有趣。

其他人在问
集成LLM的工具
以下是关于集成 LLM 的工具的相关内容: 一、“手臂和腿部”:赋予模型使用工具的能力 1. 从知识挖掘转向行动导向,增加模型使用工具的能力,有望在消费者和企业领域实现一系列用例。 对于消费者,LLMs 可能给出菜谱建议并订购食材,或推荐早午餐地点并预订餐桌。 在企业领域,创始人可接入 LLMs 使应用程序更易用,如在 Salesforce 等应用中,用户能用自然语言更新,模型自动更改,减少维护 CRM 所需时间。 2. LLM 虽对常见系统有复杂理解能力,但无法执行提取的信息。不过,公司在不断改善其使用工具的能力。 老牌公司如必应、谷歌和初创公司如 Perplexity、You.com 推出搜索 API。 AI21 Labs 推出 JurassicX,解决独立 LLMs 缺陷。 OpenAI 推出 ChatGPT 插件测试版,允许与多种工具交互,在 GPT3.5 和 GPT4 中引入函数调用,允许开发者将 GPT 能力与外部工具链接。 二、无需微调,仅用提示词工程就能让 LLM 获得 tool calling 的功能 1. 提示词工程主要由提示词注入和工具结果回传两部分代码组成。 2. 提示词注入用于将工具信息及使用工具的提示词添加到系统提示中,包含 TOOL_EAXMPLE、tools_instructions、REUTRN_FORMAT 三个部分。 TOOL_EAXMPLE 提示 LLM 如何理解和使用工具,编写时用无关紧要工具作示例避免混淆。 tools_instructions 是通用工具字典转换成 LLM 可读的工具列表,可动态调整。 REUTRN_FORMAT 定义调用 API 格式。 3. 工具结果回传阶段利用正则表达式抓取输出中的“tool”和“parameters”参数,对于 interpreter 工具使用另一种正则表达式提取 LLM 输出的代码,提高使用成功率。通过识别 LLM 返回的调用工具字典,提取对应值传入工具函数,将结果以 observation 角色返回给 LLM,对于不接受某些角色的 LLM 接口,可改为回传给 user 角色。通过以上提示词工程,可让无 tool calling 能力的 LLM 获得稳定的该能力。
2024-11-12
摘要总结作为 llm 训练的下游任务,一般的训练流程是怎样的
作为 LLM 训练的下游任务,一般的训练流程如下: 1. 首先从大量文本数据中训练出一个基础 LLM。 2. 随后使用指令和良好尝试的输入和输出来对基础 LLM 进行微调和优化。 3. 接着通常使用称为“人类反馈强化学习”的技术进行进一步细化,以使系统更能够有帮助且能够遵循指令。 在训练过程中,会涉及到一些相关的理论探讨和评价指标: 理论探讨方面,如在推理阶段对 InContext Learning 能力的运行分析,将其视为隐式微调,通过前向计算生成元梯度并通过注意力机制执行梯度下降,且实验表明 LLM 中的某些注意力头能执行与任务相关的操作。 评价指标方面,entropylike 指标(如 crossentropy 指标)常用于表征模型的收敛情况和测试集的简单评估(如 Perplexity 指标),但对于复杂的下游应用,还需更多指标,如正确性(Accuracy)、信息检索任务中的 NDCG@K 指标、摘要任务中的 ROUGE 指标、文本生成任务中的 BitsperByte 指标、不确定性中的 ECE 指标、鲁棒性(包括 invariance 和 equivariance)、公平性、偏见程度和有毒性等。
2024-11-07
如何学会ollma dify
以下是关于学习 Ollama 的详细步骤: 1. 了解 Ollama :Ollama 是一个开源的框架,旨在简化在本地运行大型语言模型(LLM)的过程。它是一个轻量级、可扩展的框架,提供了简单的 API 来创建、运行和管理模型,还有预构建模型库,降低了使用门槛,适合初学者或非技术人员使用,特别是希望在本地与大型语言模型交互的用户。 2. 安装 Ollama : 官方下载地址:https://ollama.com/download 。 安装完成后,可通过访问 http://127.0.0.1:11434/ 判断是否安装成功。 3. 启动 Ollama : 从 ollama 的 github 仓库找到对应版本并下载。 启动 ollama 后,在 cmd 中输入 ollama run gemma2 将自动下载 gemma2 模型到本地并启动。 将 ollama 的默认 base URL=http://127.0.0.1:11434/v1/ 以及 api_key=ollama 填入 LLM 加载器节点即可调用 ollama 中的模型进行实验。 4. 常见报错及解决方案:如果 ollama 连接不上,很可能是代理服务器的问题,请将 127.0.0.1:11434 添加到不使用代理服务器的列表中。 5. 使用 Ollama 运行本地大模型: 安装完成 ollama 后,在命令行中运行相应命令。 可通过查看并选择要运行的本地大模型,如 llama2 大模型。考虑机器配置及不同版本的内存要求选择合适的模型参数。运行时,ollama 会自动下载大模型到本地。
2024-11-06
LLM和COT分别是什么
LLM 即大型语言模型(Large Language Model),是一种基于深度学习的自然语言处理模型,具有强大的语言理解和生成能力。例如 FlanT5、ChatGLM、UL2、Qwen、Chinchilla、OPT、PaLM、LLaMA、LLaMA2、Vicuna 等都是常见的 LLM 模型。 COT 即思维链(ChainofThought),它能引导 LLM 逐步推理,增强其逻辑推理能力,对于需要逻辑解决方案的任务非常有效,但在创造性问题解决中存在局限性。在一些研究中,如多模态大模型中,LLM 作为核心智能体可以继承包括 COT 在内的一些显著属性。同时,ReAct 框架中也提到了将 ReAct 和 COT 结合使用的方法。
2024-10-28
LLM原理
LLM(大语言模型)的工作原理如下: 大模型在回复时是一个字一个字地推理生成内容,就像输入法的输入联想逻辑,会根据输入的字推测下一个字。但仅算字的概率存在问题,且全量数据计算算力吃不消。 为解决这些问题,出现了词向量机制和 transformer 模型中的 attention 自注意力机制。 以“我今天吃了狮子头和蔬菜”这句话为例,在 transformer 中,attention 层会对其加入更多信息补充,如“狮子头是一道菜”“今天是星期六”等,层与层之间由模型自主学习哪些信息补充、保留和传递,最终把海量数据以关系网形式“消化”并保留重要相关性。 这些层就像人阅读文章时的连贯性注意力过程,记忆的不是点状知识而是网状经验。 大模型以词向量和 transformer 的模型学习海量知识,把知识作为向量空间中的关系网存储,接受输入时通过向量空间中的匹配进行输出。 就像人脑阅读学习,记忆不是逐字逐句,而是按相关性、重要程度结合历史经验,比如记忆“红色”时会带有很多“feature”信息。 常见缩写和专业词汇解释: LLM:Large language model 的缩写,即大语言模型。 Prompt:中文译作提示词,是输入给大模型的文本内容,其质量会影响回答质量。 Token:大模型语言体系中的最小单元,不同厂商对中文的切分方法不同,1Token 约等于 1 2 个汉字,收费和输入输出长度限制以 token 为单位。 上下文:英文为 context,指对话聊天内容前、后的信息,其长度和窗口会影响回答质量。
2024-10-24
LLM是什么,有什么方法能够调优
LLM 即大型语言模型(Large Language Model)。以下是一些调优 LLM 的方法: 1. 改进提示:在上下文中提供基本事实,例如相关文章段落或维基百科条目,以减少模型生成虚构文本的可能性。通过降低概率参数并指示模型在不知道答案时承认(例如,“我不知道”)来配置模型以生成更少样式的响应。在提示中提供问题和答案的组合示例,其中可能知道和不知道的问题和答案。 2. 微调:采用在通用数据集上预训练的模型,复制这个模型,然后以这些学习到的权重为起点,在新的特定领域数据集上重新训练模型。但由于 LLM 规模较大,更新每个权重可能需要很长时间的训练工作,且计算成本较高,所以微调大型语言模型可能不是最佳选择。 3. 参数有效调优:这是一种创新的调优方法,旨在通过仅训练一部分参数来减少微调 LLM 的挑战。这些参数可能是现有模型参数的子集,也可以是一组全新的参数,例如向模型添加一些额外的层或额外的嵌入到提示。参数有效调整非常适合拥有“适度”数量训练数据的场景,例如数百或数千个训练示例。训练数据应以文本到文本格式构建为受监督的训练数据集,数据中的每条记录或行都应包含输入文本(即提示)。 此外,研究发现 GPT4 等 LLM 在一些简单的代数问题上存在表现局限性,例如随着 L 的增加,模型更容易犯计算错误,90%的错误是由于在合并相似项时跳过了步骤。这启发了是否有有效方法训练或微调 LLM 以实现更准确计算能力的研究问题。同时,LLM 在计数方面也存在困难,不仅在转换器架构中难以实现,而且数据集中计数示例的稀缺性也加剧了这个问题。
2024-10-24
可以调用不同大预言模型的整合工具推荐
以下是为您推荐的可以调用不同大语言模型的整合工具: 1. Poe:由 Quora 开发,有 APP 版本,支持跨端使用。集成了 Chat GPT、GPT4、Claude+、Claude、Dragonfly 等模型,同时支持用户自建 Chatbot。不同语言模型回复效果有差异,适合需要调用多种大语言模型的用户。访问地址: 。Dragonfly 擅长给出较短的回答,并擅长在输入中给出示例时遵循指示。Claude 更擅长创造性回复,配合 Poe 中的提问引导,非常适合在查阅资料时使用,有时能够给出超越直接使用 Chat GPT 时的体验(但和 Chat GPT 一样,Claude 也时常会给出一些错误回复,一些问题可以尝试在两个模型中都问一遍提升信息准确性)。此外支持分享用户和模型的对话内容,但 GPT4、Claude+产品需要付费订阅使用。 2. 国内的一些模型,如智谱和文心,在文生图方面有一定能力。 另外,大模型工具可根据自身条件准备,推荐顺序为:1. chatGPT 4.0 2. kimichat 3. 智谱清言 4 。
2024-11-12
如何快速创建调用API的应用
以下是快速创建调用 API 应用的步骤: 1. 了解请求的组成部分: Body:用于传递请求主体,GET 方法中通常不使用。 Path:定义请求路径,GET 方法中可编码参数在其中。 Query:定义请求查询部分,是 GET 方法常用的参数传递方式。 Header:定义 HTTP 请求头信息,通常不用于传递参数。 2. 配置输出参数: 在配置输出参数界面,可自动解析或手动新增参数。 包括设置参数名称、描述、类型、是否必填等。 对于 Object 类型参数,可添加子项。 3. 调试与校验: 在调试与校验界面填写输入参数并运行。 查看输出结果,Request 为输入传参,Response 为返回值。 4. 发布:在插件详情页右上角点击发布。 以创建调用 themoviedb.org API 应用为例: 注册并申请 API KEY:前往 themoviedb.org 注册,依次点击右上角头像 账户设置 API 请求 API 密钥 click here,选择 Developer 开发者,填写相关信息并提交,获取 API 读访问令牌备用。 构建 GPT:新创建 GPT,设置名字和描述,添加 Instructions 内容,并添加 Webpilot Action 和粘贴相关 Schema 内容。
2024-11-08
字节跳动也被曝出在其秘密研发的大模型项目中存在违规调用 OpenAI 的 API ,你如何看待
2023 年下半年,部分声称性能卓越的中国大模型被揭露为“套壳”产品。如李开复创办的“零一万物”被国外开发者质疑为“套壳”产品,其团队承认在训练过程中沿用了开源架构,但强调是为快速起步。12 月,字节跳动被曝出在其秘密研发的大模型项目中调用了 OpenAI 的 API 并使用 ChatGPT 的输出数据来训练自己的模型。OpenAI 反应迅速坚决,暂停相关账号并表示将进一步调查。字节跳动回应称在 2023 年初技术团队在大模型探索初期有部分工程师将 GPT 的 API 服务用于较小模型的实验性项目研究,且自 2023 年 4 月引入调用规范检查后已停止。此外,不仅国内存在此类现象,24 年也有更多被指“套壳”的事件。同时,提示词攻击在业内是公开的秘密,国内外各大著名的 AI 厂商几乎无一幸免,系统提示处于泄露状态,大模型应用脆弱,数据易被获取。
2024-11-03
deepseek支持function calling,在dify的agent的prompt里要如何写才能调用工具。我说的是如何写提示词,才能让deepseek通过Function Calling调用工具。
要在 Dify 的 agent 的 prompt 里让 DeepSeek 通过 Function Calling 调用工具,您可以参考以下内容: 1. 提示词工程主要由提示词注入和工具结果回传两部分代码组成。 提示词注入:将工具信息及使用工具的提示词添加到系统提示中。INSTRUCTION 包含 TOOL_EAXMPLE、tools_instructions、REUTRN_FORMAT 三个部分。TOOL_EAXMPLE 用于提示 LLM 如何理解和使用工具,编写时注意用无关紧要的工具作示例避免混淆。tools_instructions 是将通用工具字典转换成 LLM 可读的工具列表,可动态调整。REUTRN_FORMAT 定义调用 API 的格式。 工具结果回传:利用正则表达式抓取输出中的“tool”和“parameters”参数。对于 interpreter 工具,使用另一种正则表达式提取 LLM 输出的代码。通过识别 LLM 返回的调用工具的字典,提取对应值传入工具函数,将结果以 observation 角色返回给 LLM,对于不接受该角色的 LLM 接口,可改为回传给 user 角色。 2. 当模型判断需要调用工具函数时,检测到返回的 json 里 function_call 字段不为空,则执行异步函数调用,采用回调方式获取函数返回结果。通过判断返回的 functionCall 的名称执行不同函数并返回结果。 3. 在大模型请求中,最大的两个变量是 Messages 和 Tools。Messages 里放 sys prompt、memory、user query;Tools 里放能力的 Json Scheme,两者组合形成整个完全的 Prompt。Agent 应用开发的本质是动态 Prompt 拼接,通过工程化手段将业务需求转述成新的 prompt。短期记忆在 messages 里的历史 QA 对,长期记忆是 summary 之后的文本再塞回 system prompt。RAG 是向量相似性检索,可放在 system prompt 里或通过 tools 触发检索。Action 是触发 tool_calls 标记进入请求循环,拿模型生成的请求参数进行 API request,再把结果返回给大模型交互,没有 tool_calls 标记则循环结束。Multi Agents 是更换 system prompt 和 tools。
2024-10-24
deepseek支持function calling,在dify的agent的prompt里要如何写才能调用工具
在 Dify 的 agent 的 prompt 中实现调用工具的方法如下: 1. 提示词注入阶段: INSTRUCTION 为注入到系统提示中的字符串,包含 TOOL_EAXMPLE、tools_instructions、REUTRN_FORMAT 三个部分。 TOOL_EAXMPLE 用于提示 LLM 如何理解和使用工具,编写时应使用无关紧要的工具作为示例,避免 LLM 混淆。 tools_instructions 是将通用的工具字典转换成 LLM 可读的工具列表,实际使用时可动态调整。 REUTRN_FORMAT 定义了调用 API 的格式。 2. 工具结果回传阶段: 利用正则表达式抓取输出中的“tool”和“parameters”参数。 对于 interpreter 工具,使用另一种正则表达式提取 LLM 输出的代码,提高使用成功率。 通过识别 LLM 返回的调用工具的字典,提取对应的值,传入相应的工具函数,将工具返回的结果以 observation 的角色返回给 LLM。对于不接受该角色的 LLM 接口,可改为回传给 user 角色。 此外,当模型判断需要调用工具函数时,即检测到返回的 json 里面 function_call 字段不为空,则执行异步函数调用,可通过判断返回的 functionCall 的名称来执行不同的函数并返回结果。 在提升可控性方面,有以下建议: 1. 放弃 JSON mode,虽然模型能力提升能输出 JSON,但仍会出错,且不能保证 100%正确,而模型厂家对 Function Calling 有微调优化。 2. 降低 System prompt 依赖,化繁为简,能在 Tools 里写的东西尽量写在里面。 3. API Response 增强 Prompt,这一步的准确率很高,可增加给大模型的约束和提示。 4. 尽量让模型做选择,而不是填空,减少 token 输出,提高速度和准确率。 5. 利用 Tools 来做 Route,构建 Multi Agent,术业有专攻。
2024-10-24
deepseek支持function calling,prompt里要如何写才能调用工具。
要在 DeepSeek 中通过提示词实现工具调用,主要通过以下提示词工程实现: 1. 实现原理: 提示词工程主要由提示词注入和工具结果回传两部分代码组成。提示词注入将工具信息及使用提示词添加到系统提示中,工具结果回传则解析工具调用的输出,并将返回内容嵌入 LLM。 2. 提示词注入阶段: INSTRUCTION 为注入到系统提示中的字符串,包含 TOOL_EAXMPLE、tools_instructions、REUTRN_FORMAT 三个部分。TOOL_EAXMPLE 用于提示 LLM 理解和使用工具,编写时应使用无关紧要的工具作示例避免混淆。tools_instructions 是将通用工具字典转换为 LLM 可读的工具列表,实际使用时可动态调整。REUTRN_FORMAT 定义了调用 API 的格式。 3. 工具结果回传阶段: 利用正则表达式抓取输出中的“tool”和“parameters”参数。对于 interpreter 工具,使用另一种正则表达式提取 LLM 输出的代码以提高成功率。通过识别 LLM 返回的调用工具字典,提取对应值传入工具函数,将结果以 observation 角色返回给 LLM,对于不接受该角色的 LLM 接口,可改为回传给 user 角色。 在游戏实操中,当模型判断需要调用工具函数时(检测到返回的 json 里 function_call 字段不为空),执行异步函数调用,采用回调方式获取函数返回结果,通过判断返回的 functionCall 名称执行不同函数并返回结果。 对于 ChatGPT,为让其返回符合要求的 JSON 格式,prompt 的定制尤为重要和复杂。OpenAI 发布函数调用及其他 API 更新后,开发人员可向 gpt40613 和 gpt3.5turbo0613 描述函数,让模型智能输出包含调用函数所需参数的 JSON 对象。本地可根据 GPT 返回的函数名、参数进行数据查询,可采用函数查询或 SQL 查询,根据实际业务需求选择,使 AI 输出更可控。
2024-10-24
目前国外主流的图像类AICG应用有哪些
目前国外主流的图像类 AICG 应用包括 DALL·E2、StableDiffusion 等。DALL·E2 能够根据输入的文本描述生成逼真且富有创意的图像;StableDiffusion 则以其强大的生成能力和广泛的自定义选项受到众多用户的青睐。
2024-11-13
目前国外主流的十大图像类AICG应用有哪些
目前关于国外主流的十大图像类 AICG 应用,暂时没有确切和权威的统一排名。不同的评估标准和应用场景可能会导致结果有所差异。一些常见且受到广泛关注的图像类 AICG 应用包括 DALL·E2、StableDiffusion、Midjourney 等,但要确切指出十大应用会因各种因素而难以确定。
2024-11-13
目前国外主流的图像类AICG应用有哪些
目前国外主流的图像类 AICG 应用包括 DALL·E2、StableDiffusion 等。DALL·E2 能够根据输入的文本描述生成逼真的图像;StableDiffusion 则具有强大的图像生成能力和丰富的自定义选项。
2024-11-13
目前国产AI对比国外AI,存在哪些不足和差距,我要实事求是的回答
目前国产 AI 对比国外 AI 存在以下不足和差距: 1. 在通用语言模型方面,如 ChatGPT 和 GPT4 出现后,国内与国外拉开了约 2 年的技术差距。国内最领先的模型水平大概在准 ChatGPT3.5 的水平,和 GPT4 还有不小差距,甚至还不如临时拼凑的 Mistral 团队的水平。 2. 国内部分企业可能存在骄傲自大的情况,也可能被之前 Google 主推的 T5 技术路线带偏,同时 AGI 影响巨大,可能存在国外相关机构与 OpenAI 有特殊沟通而国内未有的情况。 3. 2023 年上半年国内笃信靠资金和卡能实现突破,但下半年纷纷转向“垂直应用”“商业化”,不提 AGI,这种转向可能是短视和致命的。 4. 大厂虽具备冲击 AGI 的资源,但受内部短期考核压力影响,多数力量用于卷新产品圈地盘和向上汇报工作,实际效果未达预期,且背负较多其他业务和政治考量。 不过,在图像类 AI 产品方面,国内产品发展迅速,部分产品如通义万相在中文理解和处理方面表现出色,具有独特优势。在 AI 生成视频工具领域,国内涌现出一系列工具,其生成结果在某些方面甚至远超国外。
2024-11-03
国产AI与国外AI的实际差距
国产 AI 与国外 AI 存在一定的差距,但情况较为复杂,且在不同方面表现有所不同。 在 2023 年之前,国内 AI 行业曾自认为与美国差距不大,但 ChatGPT 和 GPT4 的出现打破了这种认知,OpenAI 直接拉开了 2 年的技术差距。当时国内出现了从追求创造国产 AGI 到转向做“垂直应用”“商业化”的转变。国内最领先的模型水平大概在准 ChatGPT3.5 的水平,和 GPT4 仍有差距。大厂在人才、GPU、数据和资金储备上有冲击 AGI 的能力,但实际效果尚不明确,且受内部短期考核压力等因素影响。 然而到了 2024 年,竞争达到白热化阶段。在文本到视频扩散模型方面,Google DeepMind 和 OpenAI 展示了强大的成果,但中国的相关情况在报告中未详细说明,不过国内也涌现出了一系列表现出色的 AI 生成视频工具,生成结果甚至远超国外。Llama 3.1 在某些任务中能与 GPT4 相抗衡,而中国的一些模型如由 DeepSeek、零一万物、知谱 AI 和阿里巴巴开发的模型在 LMSYS 排行榜上取得优异成绩,尤其在数学和编程方面表现出色,且在某些子任务上挑战了前沿水平。中国模型在计算效率、数据集建设等方面各有优势,能弥补 GPU 访问的限制等不足。
2024-11-03
中国与国外AI模型的差距
目前中国与国外的 AI 模型存在一定差距,但也有自身的优势和进步。 在一些方面,国外模型如 Llama 3.1 在推理、数学、多语言和长上下文任务中能够与 GPT4 相抗衡,首次缩小了开放模型与专有前沿的差距。谷歌 DeepMind 与纽约大学团队的 AlphaGeometry 在奥林匹克级几何问题基准测试中表现出色。GPT 4 Turbo 在 SuperCLUE 测评中的总分遥遥领先,国外模型的平均成绩也相对较高。 然而,中国的 AI 模型也在不断发展。由 DeepSeek、零一万物、知谱 AI 和阿里巴巴开发的模型在 LMSYS 排行榜上取得优异成绩,尤其在数学和编程方面表现突出。国内的最强模型能与美国生产的第二强前沿模型竞争,在某些子任务上挑战了 SOTA。国内模型更注重计算效率,以弥补 GPU 访问的限制,并学会更有效地利用资源。例如 DeepSeek 在推理过程中通过多头隐式注意力减少内存需求,并且改进了 MoE 架构。零一万物更加关注数据集的建设。 在专项基准如语言与知识方面,GPT4 Turbo 依然领先,但国内大模型也表现相对较好,有 14 个模型的得分高于 GPT3.5,有 9 个模型的得分高于 GeminiPro。在中文语言与知识能力上,国内大模型已基本追赶上国外头部大模型,未来有可能率先形成超越。 总体而言,国内外差距依然存在,但国内大模型在过去一年有了长足的进步,平均水平差距在缩小。
2024-11-01
论文写作工具
以下是关于论文写作工具的相关信息: 一、论文写作中常用的 AI 工具和平台 1. 文献管理和搜索 Zotero:结合 AI 技术,可自动提取文献信息,助于管理和整理参考文献。 Semantic Scholar:由 AI 驱动的学术搜索引擎,能提供文献推荐和引用分析。 2. 内容生成和辅助写作 Grammarly:通过 AI 技术提供文本校对、语法修正和写作风格建议,提高语言质量。 Quillbot:基于 AI 的重写和摘要工具,可精简和优化论文内容。 3. 研究和数据分析 Google Colab:提供基于云的 Jupyter 笔记本环境,支持 AI 和机器学习研究,便于数据分析和可视化。 Knitro:用于数学建模和优化的软件,可进行复杂的数据分析和模型构建。 4. 论文结构和格式 LaTeX:结合自动化和模板,高效处理论文格式和数学公式。 Overleaf:在线 LaTeX 编辑器,有丰富模板库和协作功能,简化论文编写。 5. 研究伦理和抄袭检测 Turnitin:广泛使用的抄袭检测工具,确保论文原创性。 Crossref Similarity Check:通过与已发表作品比较,检测潜在抄袭问题。 二、常见的文章润色 AI 工具 1. Wordvice AI:集校对、改写转述和翻译等功能于一体,基于大型语言模型提供全面的英文论文润色服务。 2. ChatGPT:由 OpenAI 开发的大型语言模型,可用于多方面写作辅助。 3. Quillbot:人工智能文本摘要和改写工具,可用于快速筛选和改写文献资料。 4. HyperWrite:基于 AI 的写作助手和大纲生成器,可帮助写作前进行头脑风暴和大纲规划。 5. Wordtune:AI 驱动的文本改写和润色工具,优化文章语言表达。 6. Smodin:提供 AI 驱动的论文撰写功能,可生成符合要求的学术论文。 三、AI 文章排版工具 1. Grammarly:不仅是语法和拼写检查工具,还提供排版功能,改进文档风格和流畅性。 2. QuillBot:AI 驱动的写作和排版工具,改进文本清晰度和流畅性。 3. Latex:广泛用于学术论文排版的软件,使用标记语言描述格式,有许多 AI 辅助的编辑器和插件简化排版。 4. PandaDoc:文档自动化平台,使用 AI 帮助创建、格式化和自动化文档生成,适合商业和技术文档。 5. Wordtune:AI 写作助手,重新表述和改进文本,使其更清晰专业。 6. Overleaf:在线 Latex 编辑器,提供丰富模板和协作工具,适合学术写作和排版。 选择合适的工具取决于具体需求,如文档类型、出版标准和个人偏好。学术论文常用 Latex 和 Overleaf,一般文章和商业文档常用 Grammarly 和 PandaDoc 等。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-11-13
AI会被当做政治工具吗
AI 有可能被当作政治工具。 在英国,其 AI 监管框架适用于整个国家,且会考虑到权力下放的影响,同时将依靠现有立法来实施框架,并持续与各方互动以确保各地受益。 在美国,拜登签署的行政命令指出,AI 能帮助政府更好地服务民众,但使用也可能带来风险,为此总统指示采取一系列行动,包括为机构使用 AI 发布指导、帮助机构更高效获取相关产品和服务、加速招聘 AI 专业人员以及为员工提供培训。 在欧盟,《人工智能法案》旨在促进以人为本和值得信赖的 AI 应用,保护健康、安全、基本权利和民主免受有害影响,如全面禁止某些用途的 AI 、要求生成式 AI 系统披露内容生成方式、将用于影响选举选民的 AI 系统视为高风险等。
2024-11-13
我想搜索全面彻底的搜索某方面客观存在的事实信息,有什么工具可以实现
以下是一些可以用于全面彻底搜索某方面客观存在的事实信息的工具和相关信息: Coze 手搓的极简版 Perplexity:它旨在结合搜索引擎和 LLM 的优势,提供更优的信息检索体验。但 LLM 本身作为知识问答工具存在缺陷,如无法实时获取最新信息、有“幻觉”问题、无法给出准确引用来源等,而搜索引擎返回的信息呈现形式原始,需要进一步处理。 基于嵌入的搜索:OpenAI 提出,如果作为输入的一部分提供,模型可以利用外部信息源,例如通过嵌入实现高效的知识检索。文本嵌入是衡量文本字符串相关性的向量,相似或相关的字符串距离更近,利用快速向量搜索算法,可将文本语料库分割成块进行嵌入和存储,给定查询后进行向量搜索找到最相关的文本块。相关示例实现可在中找到。关于如何使用知识检索来最小化模型编造错误事实的可能性,可参阅策略“指示模型使用检索到的知识来回答查询”。
2024-11-13
请告诉我有哪些会议纪要的AI工具
以下是一些会议纪要的 AI 工具: 会议总结类: 免费的会议语音转文字工具(有使用时间限制,超过需付费): 飞书妙记:https://www.feishu.cn/product/minutes 通义听悟:https://tingwu.aliyun.com/home 讯飞听见:https://www.iflyrec.com/ Otter AI:https://otter.ai/ 更多会议记录工具请访问网站:https://waytoagi.com/sites/category/29 。请注意内容由 AI 大模型生成,请仔细甄别。
2024-11-13
我给出一段文字,要AI唱出来的工具有吗
以下是一些可以将文字唱出来的 AI 工具: 1. Udio:由前 Google DeepMind 工程师开发,通过文本提示快速生成符合用户音乐风格喜好的高质量音乐作品。网址:https://www.udio.com/ 2. Suno AI:是一款革命性的人工智能音乐生成工具。 网址:https://suno.com/create 优点:回答问题更准确、上下文的衔接更好。 限制:需要翻墙,需要邮箱注册。 时间:10 分钟。 价格:每日有免费额度 10 首歌。 Custom Mode:开启为自己有歌词,关闭则给你随机生成歌词,只要填描述。 Lyrics:直接填歌词即可,可以用熟悉的、喜欢的歌曲原词先感受一下产品功能,会有对比性。 Instrumental:不要歌词、直接出纯音乐的曲子。 Style of Music:写 Prompt 的地方,1 句简短的自然语言描述即可,注意最多 100 字符。 内容由 AI 大模型生成,请仔细甄别。
2024-11-13
职场AI工具
以下是一些常见的职场 AI 工具: 在软件架构设计中,用于绘制逻辑视图、功能视图和部署视图的工具包括: Lucidchart:流行的在线绘图工具,支持多种图表创建,用户可通过拖放界面轻松创建架构图。 Visual Paradigm:全面的 UML 工具,提供创建各种架构视图的功能。 ArchiMate:开源建模语言,与 Archi 工具配合使用,支持逻辑视图创建。 Enterprise Architect:强大的建模、设计和生成代码工具,支持多种架构视图创建。 Microsoft Visio:广泛使用的图表和矢量图形应用程序,提供丰富模板。 draw.io(diagrams.net):免费在线图表软件,支持多种类型图表创建。 PlantUML:文本到 UML 转换工具,通过编写描述生成序列图等,帮助创建逻辑视图。 Gliffy:基于云的绘图工具,提供创建架构图功能。 Archi:免费开源工具,用于创建 ArchiMate 和 TOGAF 模型,支持逻辑视图创建。 Rational Rose:IBM 的 UML 工具,支持多种视图创建。 生成式 AI 在小型企业中的应用: 工具服务小型企业是生成式 AI 的一个重要应用场景。在美国,小型企业数量众多且在经济中作用关键,但常面临人手不足和工作繁重的问题,近期劳动力短缺更凸显了这一点。 一些 AI 工具能为小型企业带来即时影响,如 Sameday 可接电话并预约,Truelark 处理短信、电子邮件和聊天,Osome 管理后台办公室,Durable 创建完整专业网站。 通用内容创建工具如 Jasper、Copy 和 Writer 在小型和中型企业中已有显著用户基础,同时也出现了为特定类型企业工作流定制的垂直化工具,如 Harvey 和 Spellbook 帮助法律团队自动化任务,Interior AI 和 Zuma 分别在房地产行业发挥作用。 100 个 AI 应用中的部分职场相关应用: 豆果美食 APP:AI 菜谱生成平台,利用自然语言处理和数据分析,根据用户口味和现有食材生成个性化菜谱。 沪江开心词场:AI 语言学习助手,通过自然语言处理和机器学习,辅助用户学习语言,提供个性化学习方案。 爱奇艺智能推荐:AI 电影推荐系统,借助数据分析和机器学习,根据用户喜好推荐电影。 WPS Office:AI 办公自动化工具,运用自然语言处理和机器学习,提高办公效率,实现自动化办公流程。
2024-11-13