Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

怎么用大模型赚钱

Answer

以下是关于如何用大模型赚钱的一些分析和建议:

  1. 面向各国政府做基础大模型本土化预训练:很多 Global 的量化基金在中国会水土不服,大模型也存在类似情况。OpenAI、Google、Meta 的模型在中文能力和对中国国情的优化上存在不足,不符合政策要求。这给了国内大模型公司做本土化预训练的机会,只要做到国内领先,即使和世界领先的模型有代际差,也能有市场。
  2. 关注行业应用:大模型在企业中的落地应用是关键。目前大模型是典型的赢家通吃领域,巨头在资金、技术和数据方面有优势。但大模型企业需要将技术与更多场景结合,打造落地应用。例如,Gartner 预测到 2028 年至少有 15%的日常工作决策将由代理型 AI 自主做出。
  3. 竞争格局与成绩:国内大模型行业已形成以百度、阿里、字节等科技大厂和创业“AI 六小虎”为主要玩家的竞争格局。2024 年是国内大模型落地元年,中标项目数量和金额大幅增长。如百度在中标数量和金额上排名领先,在金融等细分行业也表现出色。

需要注意的是,大模型领域竞争激烈,只有极少数公司能成功,且需要将大模型商业化,否则企业可能在赛道比拼中失败。同时,大模型的发展与国家政策密切相关,需要受到有效监管才能健康发展。

Content generated by AI large model, please carefully verify (powered by aily)

References

预训练大模型与金融量化

很多Global的量化基金到了中国都会水土不服。同时,国家政策也规定了很多Global的量化基金没法在中国大规模开展业务。这就给了国内的很多量化基金崛起的机会,即使交易系统比国外顶尖机构有一些差距,但是只要在中国能保持领先,整体就会有不错的收益。大模型也是如此,OpenAI、Google、Meta的模型一方面中文能力比较一般,远没有英文能力强大,二没有对中国国情进行优化,不符合政策要求。这给了国内的大模型公司做大模型预训练的机会,只要做到国内第一,即使和世界领先的模型有一个代际差,也是不小的市场。当然,这样的情况,不止在中国,在世界很多国家都会存在。所以,面向各国政府做基础大模型本土化预训练是个不小的市场。由此引申的另一个相似之处就是受政策影响极大。国内量化基金的几个大起大落基本都和政策有关,大模型的发展也和国家的相关办法息息相关。同时,两者都需要收到有效监管才能健康发展。[heading2]其他[content]除了上面几个感受比较深刻的,大模型预训练和金融量化还有不少相似之处,就不一一展开了少数精英的人赚大量的钱。做大模型不用很多人,但每个人都必须绝顶聪明。核心问题一样。下一个token预测和下一个股价预测其实是一个问题。都需要大量数据。都追求可解释性。。。。。。。最后,希望大模型能和量化金融一样,市场足够大到几家头部机构是不能完全吃下的,能给多个大模型公司机会。现在国内有上百家量化基金,规模有大有小,大模型公司也能百花齐放。

七大行业的商业化应用

不过从投资角度,嘉御资本董事长兼创始合伙人卫哲最近提到,“我们不碰大模型。”卫哲认为,多年互联网从业下来告诉人们,一定是头部占据60%、70%的份额,搜索引擎、电子商务无一例外,这次人工智能也是如此,胜出的大模型在中国很难超过2个,在中国以外的世界包括美国,也很难超过2个。大模型是典型赢家通吃领域。需要更多的钱,需要更多的算力,以及更优秀人才。因为更好的算力意味着更多人用,更多人用意味着更多数据,更多数据意味着更好的算力结果。大模型必然是巨头必争之地,巨头有钱,有技术,更重要是有数据。就目前“百模大战”来说,正如周鸿祎所说,大模型关键在于让更多人去使用,将大模型能力与更多场景相结合,打造更多落地应用。所以总结来看,大模型必然是只有极少数公司能做起来,给创业公司的机会很少。甚至可以说,如果不能把大模型商业化,这家企业一定会输在这轮赛道比拼中。因此,摆在大模型企业面前的问题非常严峻,如何将大模型更快落地应用,将技术能力释放并与更多场景相结合,真正产生新一轮科技革命和产业变革,是当前紧要的关键问题。而关于大模型的落地,我们还有很长的路要走,需要时间、需要机会、需要生态。

国内大模型落地“狂飙”一年,各家厂商成绩如何?

Gartner《2025年十大战略技术趋势》中预测,到2028年至少有15%的日常工作决策将由代理型AI(AI智能体)自主做出。2024年,AI大模型在生产和生活中正以“狂飙猛进“的速度落地。“百模大战”过后,国内大模型行业基本跑出了以百度、阿里、字节等科技大厂和创业“AI六小虎”为主要玩家的竞争格局。2024年被称为国内大模型落地元年,经过一年时间的赛跑,各家大模型在各行各业的落地成绩究竟如何?2024年国内大模型项目增3.6倍,百度中标数量和金额双第一各厂商公布的大模型调用数据固然是一个成绩参考,但是让企业客户为大模型买单掏出的真金白银数量无疑是更为直观的成绩。根据云头条统计公开可查的大模型招投标项目数据,2024年国内大模型中标项目数量和金额都呈现大幅度增长。2024年1至11月,大模型中标项目共728个,是2023年全年的3.6倍;中标金额17.1亿元,是2023年全年的2.6倍。大模型中标项目数前五的行业分别是运营商、能源、教育、政务、金融。厂商方面,百度以40个中标项目数、2.74亿元的中标金额排名所有厂商之首,科大讯飞居第二。再看各细分行业,在金融行业,根据2024年1-11月份金融机构发起的大模型相关采购中标项目来看,百度以14个中标数量、3734.4万元中标金额排名第一;科大讯飞居第二。

Others are asking
你是一名DEEPSEEK专家,请用大白话交给小白掌握deepseek的使用,举例说明
DeepSeek 的使用对于小白来说可能有点复杂,但我尽量用大白话给您解释清楚。 比如说,您想让 DeepSeek 帮您生成“玄武门之变结束的当天,李世民在深夜写下一段独白,你觉得他会写什么?”这样的内容。 DeepSeek 会这样来处理: 1. 先回顾玄武门之变的历史背景,比如这场政变发生在 626 年,李世民杀了兄弟,逼父亲退位等。 2. 思考李世民当晚的心理,可能有释然、愧疚、恐惧、自责等多种复杂情绪,还要考虑他是被迫还是早有预谋。 3. 要让生成的独白不仅符合历史事实,还要有文学性,体现人性的复杂。比如要平衡他的野心与自责,对未来的抱负与对过去的悔恨。 4. 考虑当时的文化背景,像儒家思想对孝悌的重视,李世民的行为违背了这些伦理,他可能会内心挣扎,还可能为自己的行为找正当理由。 5. 按照您的需求,给独白加上一些文学修辞,像比喻、对仗、意象等,增强画面感。 另外,DeepSeek 还有个很厉害的地方,就是它能在独白文本中“自作主张”地加入括号里的场景描述,让整个输出更有画面感。比如“(夜风掀动案头《韩非子》,停在‘夫妻者,非有骨肉之恩也’那页)”、“(墨迹在‘弑’字上晕开一团)”、“(忽然扔笔,抓起铜镜)”这些句子,很难相信是 AI 写的。 总之,使用 DeepSeek 时要考虑很多方面的因素,它能根据您的提示词和需求,生成很精彩的内容。
2025-03-13
如果我是一个只会使用大模型对话,不了解提示词逻辑,想要逐步学习ai相关知识的人,你推荐什么呢
以下是为您逐步学习 AI 相关知识的推荐: 1. 关于大模型的思考与探讨:普通用户使用大模型时,语言不是关键,核心是向量空间中的游走脉络,输出时的语言翻译是次要的,且训练语料的中英文差异在于 embedding 环节。 2. 垂类模型与大模型公式:通过合适的模型、prompt 和 test 入口表达,用大模型公式调试出好效果以替代垂类模型,但微调垂类模型可能使大模型泛化能力下降,需分场景看待。 3. 提示词的挖掘:写提示词未挖掘出大模型的天花板,还有提升空间。 4. 读书方法与提示词相关书籍推荐:读书最有效的是笨方法,不取巧,花时间读。并推荐了从数学、作家、代码、原理角度写大模型的四本书。 5. 内置思维链提示词:针对小技巧类的思维链提示词有新模型能力涌现和大模型内置两个趋势,但对于某些如 COT 这类的内置可能会改变大模型的原味,对此存疑。 6. 编写提示词的经验与思考: 原汁原味与生效元素的平衡:为得到原汁原味的效果,需考虑是否反刻某些元素;生效的小技巧大模型可能会内置,如指定角色效果有变化。 压缩与歧义的处理:找到凝练的核心概念(a)后,根据对象用不同方式(b)表达,核心在于找到准确的 a,而寻找 a 的方法目前主要是多读多泡在相关领域。 持续学习与输出:通过阅读吸收输入,转换为自己的语言输出,与大模型交互提炼精华,多输出促进吸收输入。 7. 调教 AI 和提示词: 是否需要提示词工程,是否需要学提示词:持反对观点,像打字和写作一样。方法论不是关键,不断尝试和大模型交互,便是最佳方法。 和大模型交互需要遵循规则吗:不需要。网上流传最广的提示词方法论,是“给大模型一个角色”,这是一个好的策略,但不是必须遵循的原则,甚至所有规则都不是必须遵守的。可以在提示词里面设定规则,也可以聊着聊着临时更改规则,和大模型交互时完全不需要考虑规则。要考虑的就是是否达成了目的,如果没达成,那就锲而不舍的开一个新窗口,再尝试一下。如果还是不行,换个模型。 用 Markdown 格式清晰表达问题:Markdown 通过其易读性、格式化的灵活性和信息的清晰结构,使得与大模型的交流更加高效和精确。有助于模型更好地理解用户的意图。其优势包括结构清晰、格式化强调、适用性广。 8. 小白学习指南: 第一步:要有一个大模型帐号,至少已经熟悉和它们对话的方式。推荐 ChatGPT4 及国产平替: 第二步:看 OpenAI 的官方文档:
2025-03-06
怎么利用大模型训练自己的机器人
利用大模型训练自己的机器人可以参考以下内容: OpenAI 通用人工智能(AGI)的计划显示,在互联网上所有的图像和视频数据上训练一个与人类大脑大小相当的 AI 模型,将足以处理复杂的机器人学任务。常识推理隐藏在视频和文本数据中,专注于文本的 GPT4 在常识推理上表现出色。Google 最近的例子展示了机器人学能力可从大型视觉/语言模型中学习,在语言和视觉训练基础上,只需最少的机器人学数据,视觉和文本任务的知识就能转移到机器人学任务上。特斯拉训练的“Optimus”通过人类示范学习抓取物体,若人类示范是先进机器人学性能所需的一切,在互联网上所有视频上训练的大模型肯定能实现惊人的机器人学性能。 梦飞提供了在自己的电脑上部署 COW 微信机器人项目的教程,程序在本地运行,若关掉窗口进程结束,想持续使用需保持窗口打开和运行。以 Windows10 系统为例,注册大模型可参考百炼首页:https://bailian.console.aliyun.com/ ,需更改"model"和添加"dashscope_api_key",获取 key 可参考视频教程。 张梦飞提供了从 LLM 大语言模型、知识库到微信机器人的全本地部署教程,部署大语言模型包括下载并安装 Ollama,根据电脑系统下载:https://ollama.com/download ,安装完成后将下方地址复制进浏览器中确认安装完成:http://127.0.0.1:11434/ 。下载 qwen2:0.5b 模型,Windows 电脑按 win+R 输入 cmd 回车,Mac 电脑通过 Command(⌘)+Space 键打开 Spotlight 搜索输入“Terminal”或“终端”,复制命令行粘贴回车等待下载完成。
2025-03-03
利用大模型构建系统的工具
以下是关于利用大模型构建系统的工具的相关内容: 大模型的发展历程: 2017 年发布的 Attention Is All You Need 论文是起源。 2018 年,Google 提出 BERT,其创新性地采用双向预训练并行获取上下文语义信息和掩码语言建模,开创了预训练语言表示范式,参数规模为 110M 到 340M。 2018 年,OpenAI 提出 GPT,开创了仅使用自回归语言建模作为预训练目标而无需额外监督信号,展示了强大的语言生成能力,参数规模达 1750 亿。 2021 年,Meta 提出 Large LAnguage Model Approach(LLAMA),这是首个开源模型,为构建更大规模、更通用的语言模型提供了系统化的方法与工具,参数规模为十亿到千亿。 Inhai:Agentic Workflow:AI 重塑了我的工作流: 以 Kimi Chat 为例,它利用「网页搜索」工具在互联网上检索相关内容,并基于检索结果进行总结分析,给出结论。同时,PPT 中介绍了众多不同领域类型的工具,为大模型在获取、处理、呈现信息上做额外补充。 Planning:Agent 通过自行规划任务执行的工作流路径,面向简单或线性流程的运行。例如,先识别男孩姿势,再使用相关模型合成女孩图像,接着使用图像理解文本模型,最后语音合成输出。 Multiagent Collaboration:吴恩达通过开源项目 ChatDev 举例,可让大语言模型扮演不同角色相互协作,共同开发应用或复杂程序。 AI Agent 基本框架:OpenAI 的研究主管 Lilian Weng 提出“Agent=LLM+规划+记忆+工具使用”的基础架构,其中大模型 LLM 扮演 Agent 的“大脑”。规划包括子目标分解、反思与改进,将大型任务分解为较小可管理的子目标处理复杂的任务,反思和改进指对过去行动进行自我批评和自我反思,从错误中学习并改进未来步骤,提高最终结果质量。记忆用于存储信息。 开发:LangChain 应用开发指南 大模型的知识外挂 RAG: LangChain 是专注于大模型应用开发的平台,提供一系列组件和工具构建 RAG 应用: 数据加载器:从数据源加载数据并转换为文档对象,包含 page_content 和 metadata 属性。 文本分割器:将文档对象分割成多个较小的文档对象,方便后续检索和生成。 文本嵌入器:将文本转换为嵌入,用于衡量文本相似度实现检索。 向量存储器:存储和查询嵌入,通常使用索引技术加速检索。 检索器:根据文本查询返回相关文档对象,常见实现是向量存储器检索器。 聊天模型:基于大模型生成输出消息。 使用 LangChain 构建 RAG 应用的一般流程如下:(具体流程未给出)
2025-02-28
表格内填充的内容如何批量循环调用大模型生成内容
以下是关于表格内填充内容如何批量循环调用大模型生成内容的相关信息: 大模型生成文字并非一次性输出整段,而是通过反复调用神经网络模型,一个字一个字地续写,直到输出结束符号。其输出不是确定的一个字,而是所有字的概率,可选择概率高的字或随机挑选。 在生成标题、导语、大纲等涉及文本理解与创作的任务时,可通过配置 LLM 节点来实现。为节省 token 消耗和模型调度费用,在满足预期的情况下,应减少大模型处理环节。例如,豆包·function call 32k 模型能在一轮对话中稳定生成这些内容。配置时要关注节点的各项设置,如根据实际情况调大模型的最大回复长度,并设计填入用户提示词。
2025-02-24
0到1使用大语言模型
以下是关于 0 到 1 使用大语言模型的相关内容: Ollama 框架: 1. 支持多种大型语言模型,如通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同应用场景。 2. 易于使用,适用于 macOS、Windows 和 Linux 系统,同时支持 CPU 和 GPU。 3. 提供模型库,用户可从中下载不同参数和大小的模型,通过 https://ollama.com/library 查找。 4. 支持用户自定义模型,例如修改温度参数调整创造性和连贯性,或设置特定系统消息。 5. 提供 REST API 用于运行和管理模型,以及与其他应用程序的集成选项。 6. 社区贡献丰富,包括多种集成插件和界面,如 Web 和桌面应用、Telegram 机器人、Obsidian 插件等。 7. 安装完后,确保 ollama 后台服务已启动(在 mac 上启动 ollama 应用程序,在 linux 上通过 ollama serve 启动),可通过 ollama list 确认。 大模型安全: 1. 通过对齐(指令调优)使语言模型更好理解人类意图并增加安全保障,可拆解为监督微调、获取 reward model 和强化学习调整输出分布两部分。 2. LLAMA2 专门使用安全有监督微调确保语言模型安全。 3. 强化学习通过引入人类反馈数据调整模型输出分布,使模型面对训练分布外数据时能拒绝不当回答。 4. 但 Alignment 并不足以防护所有安全问题,存在越狱(Jailbreak)情况,导致模型对齐失效。 5. 还需关注隐私问题。 大模型架构与特点: 1. 包括 encoderonly、encoderdecoder 和 decoderonly 三种架构,目前熟知的 AI 助手多为 decoderonly 架构。 2. 大模型预训练数据量大,来自互联网,参数多,如 Open 在 2020 年发布的 GPT3 已达 170B 参数。 3. GPT3 可根据任务描述和示例完成任务,ChatGPT 则通过对话完成任务,二者在形式和安全性上有差别。
2025-02-19
普通人通过ai赚钱
以下是一些普通人通过 AI 赚钱的方式: 1. 电商:婴儿的四维彩超 AI 预测 思路和玩法:通过 AI 工具将宝宝的四维彩超还原出现实模样进行变现。孕妇妈妈在孕期 22 26 周会进行四维彩超检查,很多准爸爸妈妈期待宝宝的模样,从而衍生出市场需求。在小红书、抖音等公域平台发布相关笔记吸引咨询,将客户引流到私域接单变现。 操作流程:客户提供四维彩超图原图,在 Midjourney 里进行垫图和特定描述词,整个流程不超过 10 分钟就能出图。 变现方式:受众群体多为宝妈,变现方式多样,单价不低。但在平台引流要注意隐蔽,避免被平台检测限流或封号。 2. AI 产业中的机会 基础设施层:布局投入确定性强,但涉及海量资金投入,入行资源门槛高,普通人若无强资源应谨慎入局,可考虑“合作生态”的切入机会。 技术层:技术迭代速度快,小规模团队或个人须慎重考虑技术迭代风险,基础通用大模型非巨无霸公司不建议考虑。 应用层:是广阔蓝海,当前针对行业/细分领域的成熟应用产品不多,“杀手级”应用更是稀少,普通个体和小团队强烈推荐重点布局,拥有超级机会和巨大发展空间。 3. 内容创作 像作者本人是 AI 的受益者,AI 是生产力工具,能降本增效,但仍需投入大量时间和精力,起到辅助作用。 同时存在 AI 的受害者,他们的技能失效,AI 未创造足够新的生存空间。 作者作为坚定的 AGI believer,期望 AI 能做出重大科学发现、治愈疾病、消除饥饿和肥胖、给每人发钱,让人类自由从事想做的事。
2025-03-23
如何靠AL赚钱
以下是一些靠 AI 赚钱的方法和要点: 1. 明确盈利方式:您需要清楚如何通过产品或服务赚钱,即让人们为您的产品/服务支付的钱超过提供该产品/服务的成本,同时不能忘记考虑自身成本。 2. 免费产品策略:如果您的产品是免费的,不要试图通过购买用户来增长,而是要做出让人们愿意与朋友分享的东西,因为靠广告变现对于此类产品来说通常很困难。 3. 付费产品策略: 对于客户生命周期价值(LTV)小于 500 美元的付费产品,通常负担不起销售费用,可尝试使用如 SEO/SEM、广告、邮件等不同的用户获取方法,并争取在 3 个月内偿还客户获取成本(CAC)。 对于 LTV 超过 500 美元的付费产品,通常能负担得起直接销售费用,可先自己销售产品以了解有效方法,《Hacking Sales》是一本有用的参考书籍。 4. 尽快实现“泡面盈利”:即赚足够的钱,让您可以靠吃泡面维持生计,这样能掌握自己的命运,不受投资者和金融市场的任意摆布。 5. 关注现金流:密切关注您的现金流,避免在未意识到的情况下把钱用光。
2025-03-21
AI怎么赚钱
以下是关于 AI 赚钱的一些信息: 首先,对于 GPTs/GLMs 能否赚钱的问题,答案是能,但大多数人不能。从一个 AI 产品经理的角色复盘 2023 年的所见所闻所感来聊,虽然目前最大的第三方 GPTs 商店 BeBeGPTs 收录了大量数据,但结果显示赚钱并非易事。 其次,关于如何靠 GPTs/GLMs 赚钱,OpenAI 刚推出 GPTs 时,有人将其比作苹果时代的 AppStore。产品的核心竞争力和护城河不在于 Prompt,而在于数据和服务(定制化 Tools)。例如,WebPilot 的作者通过自己开发的搜索接口提供搜索服务接入 GPTs,小红书写作专家的作者通过收集大量小红书数据和规则包装成 GPTs。也许能赚到红利的钱,但这不是长久赚钱的方法。 另外,AI 收费按 Token 计费,Token 相关问题包括:Token 是双向收费的,汉字、阿拉伯语等不同语言的计费方式,Token 在企业信息化过程中的意义等。在企业环境中,了解 Token 有助于更好理解 AI 在企业中的落地,它类似于积木,通过搭建来完成应用从而提高效率。
2025-03-16
ai赚钱项目
以下为一些关于 AI 赚钱项目的信息: 1. 在杭州站的活动中,参与者们分成 6 个小组进行 AI 赚钱快闪活动,在短时间内产出 AI 体验产品并定价,如“五行和合的 AI 头像”、“AI 随心签”、“AI 祈福壁纸”等,其中“AI 祈福壁纸”项目得到场地老板立刻买单。 2. 对于 GPTs/GLMs 能否赚钱的问题,答案是能,但大多数人不能。文章将从“钱”的角度,以 AI 产品经理的角色复盘 2023 年的所见所闻所感来探讨 AI 赚钱(应用落地)这件事。 3. 刘小排非程序员出身,用 AI 打造多款赚钱产品,强调“洞察需求”与产品验证是核心竞争力,并分享了低成本创业方法。
2025-03-15
我想通过学习ai的技能赚钱,是长久主义者
以下是为您提供的关于通过学习 AI 技能赚钱的相关信息: 首先,阳萌认为在 AI 学习中,最后还是走仿生的方法,即有一个足够长的 Context。这引发了关于记忆保存位置的探讨,比如手机适合收集信号产生本地 Context,阳萌赞成将训练好的模型部署在端侧,记录知识和记忆的 Context 不能跑到云端。同时,要抛开表面事实,回归基础原理,找到突破关键,追求长期全局最优解,相信长期主义,持续学习,自我觉察和自我进化,因为世界是参差的,唯有持续学习能抵御未来的变化。相关视频链接: 另外,关于如何靠 GPTs/GLMs 赚钱,OpenAI 推出 GPTs 时,有人将其比作苹果时代的 AppStore。产品的核心竞争力和护城河不在于 Prompt,而在于数据和服务(定制化 Tools)。传统 SaaS 的能力会被碎片化并整合到各种 GPTs 里,OpenAI 成为流量入口。例如,WebPilot 通过开发搜索接口提供服务接入 GPTs,小红书写作专家通过收集数据和规则包装成 GPTs。靠红利赚钱不是长久之计。
2025-03-12
如何利用ai赚钱
利用 AI 赚钱可以从以下几个方面考虑: 1. 关注 GPTs/GLMs 相关应用: 认识到产品的核心竞争力和护城河在于数据和服务(定制化 Tools)。 例如,像 WebPilot 的作者通过自己开发的搜索接口提供搜索服务接入 GPTs,或者像小红书写作专家的作者收集大量小红书数据和规则包装成 GPTs。 2. 成为 AI 的受益者: 将 AI 作为生产力工具,如在内容创作等领域降本增效,但仍需投入大量时间和精力。 3. 创新和差异化: 在众多同质化产品中,通过独特的数据和服务实现差异化,避免简单的 Prompt 应用,因为 Prompt 易被复制和追平。 需要注意的是,虽然 AI 能带来一定的赚钱机会,但可能只是红利期的短期收益,并非长久之计。同时,AI 的发展也会对一部分人的生存造成影响,新的世界尚未完全建立。我们期待 AGI 能做出重大科学发现、治愈疾病、消除饥饿和肥胖等,为每个人的生活带来实质性的改变。
2025-03-07
搭建私有大模型
搭建私有大模型可以参考以下几种方法: 1. 方法一 搭建,用于汇聚整合多种大模型接口,方便后续更换使用各种大模型,同时会告知如何白嫖大模型接口。 搭建,这是一个知识库问答系统,将知识文件放入,并接入上面的大模型作为分析知识库的大脑,最后回答问题。若不想接入微信,搭建完此系统即可,它也有问答界面。 搭建,其中的cow插件能进行文件总结、MJ绘画。 2. 方法二 部署大语言模型: 下载并安装Ollama,根据电脑系统,从https://ollama.com/download 下载。下载完成后,双击打开,点击“Install”。安装完成后,将下方地址复制进浏览器中,若出现相关字样,表示安装完成:http://127.0.0.1:11434/ 。 下载qwen2:0.5b模型(0.5b是为了方便测试,下载快,设备充足可下载更大模型)。若为windows电脑,点击win+R,输入cmd,点击回车;若为Mac电脑,按下Command(⌘)+Space键打开Spotlight搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。复制相关命令行,粘贴进入,点击回车,等待下载完成。 3. 方法三 企业大模型四步走的第一步是私有化部署通用大模型,一是解决AI科普问题,二是满足一些通用需求。若有能力,可赠送免费的私有化部署通用大模型,其为千亿模型的缩小版、浓缩版,能解决科普问题,让企业员工熟悉大模型,同时满足办公等通用需求。此外,还提供了360AI办公的一套会员服务,围绕办公营销需求做了很多工具,以订阅模式耗费算力,每天几乎一块钱。
2025-03-26
我是一位程序开发小白,不会用代码开发程序。我现在有一台安装Window 11操作系统的笔记本电脑,配置为14代i7CPU、32G内存、1TB硬盘、1张RTX4070显卡。我想部署一套本地的大模型+智能体+知识库。我要怎么样才能实现无代码部署,请列出详细的安装步骤。
以下是为您提供的无代码部署本地大模型、智能体和知识库的详细安装步骤: 1. 硬件评估:您的笔记本电脑配置为 14 代 i7 CPU、32G 内存、1TB 硬盘、1 张 RTX4070 显卡,基本满足部署要求。但需要注意,运行内存最低 32GB,越高越好,最低配可能会经常爆显存。建议将软件和模型部署在 SSD(固态硬盘)上,以提高加载模型的速度。 2. 选择合适的部署工具:ComfyUI 是一个相对配置要求较低、系统资源占用少、出图速度快的工具。它最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以,但速度极慢。SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。 3. 安装准备:如果您的电脑能顺畅清晰地玩 3A 游戏,那么运行相关部署工具一般也没问题。 4. 预算和需求:根据您的需求和预算来选择合适的配置。例如,如果有做 AIGC 视频、建模渲染和炼丹(lora)的需求,可能需要更高的配置。 请注意,以上步骤仅为参考,实际部署过程可能会因具体情况而有所不同。
2025-03-26
ai大模型和工具组合使用技巧
以下是关于 AI 大模型和工具组合使用的技巧: 1. 在 Obsidian 中的使用: 简单方法:通过命令面板打开创建的页面(默认快捷键 Ctrl+P),在弹出的搜索框中输入插件名称(如 custom frames),选择 OpenKimi 并打开设置好的窗口。 进阶配置:包括笔记仓库嵌入大模型(Copilot)、笔记内容作为 RAG 嵌入大模型(Smart Conections)、笔记内使用大模型编写内容。 2. 利用大模型与工具的典型例子:如使用 Kimi Chat 查询问题时,它会在互联网上检索相关内容并总结分析给出结论,同时还有很多不同领域类型的工具为大模型在获取、处理、呈现信息上做补充。 3. Agentic Workflow 方面: Agent 通过自行规划任务执行的工作流路径,面向简单或线性流程的运行。 多 Agent 协作:吴恩达通过开源项目 ChatDev 举例,让大语言模型扮演不同角色相互协作开发应用或复杂程序。 AI Agent 基本框架:OpenAI 的研究主管 Lilian Weng 提出“Agent=LLM+规划+记忆+工具使用”的基础架构,其中大模型 LLM 扮演“大脑”,规划包括子目标分解、反思与改进。 4. 从提示词优化到底层能力提升: 任务拆解:将复杂任务的提示词拆解成若干步骤的智能体,每个智能体负责特定子任务。 工作流构建:组合多个提示词或 AI 工具搭建高频重复工作的工作流。 创作场景的灵活应用:在创作过程中使用简单提示词和连续追问调整大模型回答。 深度思考辅助:将大模型用于辅助深度思考,从居高临下的指挥变为伙伴式的协作和相互学习,关注利用大模型训练和增强认知能力。
2025-03-26
帮我列举2025年3月1日以来,国内外、闭源开源模型厂商的更新记录。
以下是 2025 年 3 月 1 日以来,国内外、闭源开源模型厂商的部分更新记录: 2025 年 3 月 20 日,OpenAI 推出了一套全新的音频模型,旨在通过 API 为开发者提供更智能、更可定制的语音代理支持,包括改进的语音转文本和文本转语音功能,为语音交互应用带来显著提升。 李开复公开表示 OpenAI 面临生存危机,商业模式不可持续。他强调中国的 DeepSeek 以极低成本提供接近的性能,开源模式将主导未来 AI 发展。他认为企业级 AI 应用将成为投资重点,资源限制反而促进了创新。李开复大胆预测,中国将出现三大 AI 玩家,竞争愈发激烈。 SuperCLUE 发布《中文大模型基准测评 2025 年 3 月报告》,指出 2022 2025 年经历多阶段发展,国内外模型差距缩小。测评显示 o3mini总分领先,国产模型表现亮眼,如 DeepSeekR1 等在部分能力上与国际领先模型相当,且小参数模型潜力大。性价比上,国产模型优势明显。DeepSeek 系列模型深度分析表明,其 R1 在多方面表现出色,蒸馏模型实用性高,不同第三方平台的联网搜索和稳定性有差异。 以上信息来源包括: 《》 《》 《》
2025-03-26
用扣子的时候怎么让大模型严格按照知识库内容进行输出
以下是关于让大模型严格按照知识库内容进行输出的相关信息: 扣子的知识库功能强大,可上传和存储知识内容,提供多种查找方法。在智能体中使用知识库,收集相关内容,当智能体回答用户时会先检索知识库,使回复更准确。 在“掘金 x 扣子 Hackathon 活动 深圳站”的总冠军工作流中,对于用户向小说人物角色的提问,通过一系列节点,包括开始节点接收问题、知识库节点检索、大模型节点生成答案等,本质上是一个根据用户 query 进行检索增强生成(RAG)的任务,每个工作流中都嵌入了知识库节点,维护了如小说合集等知识库。 大模型节点是调用大语言模型,使用变量和提示词生成回复。按需选择基础版或专业版模型,基础版支持扣子预设的一批模型资源,专业版除默认添加的豆包模型外,还支持按需接入火山引擎方舟平台的模型资源。模型选择右下角生成多样性可从多个维度调整不同模型在生成内容时的随机性,有精确模式、平衡模式和创意模式等预置模式。输入方面,开启智能体对话历史后,上下文信息将自动携带进入大模型,参数名可随意设置但建议有规律,变量值可引用前面链接过的节点的输出或进行输入。
2025-03-26
我是一个没有技术背景且对AI感兴趣的互联网产品经理,目标是希望理解AI的实现原理并且能够跟开发算法工程师沟通交流,请给我举出AI模型或者机器学习的分类吧。
以下是 AI 模型和机器学习的分类: 1. AI(人工智能):是一个广泛的概念,旨在使计算机系统能够模拟人类智能。 2. 机器学习:是人工智能的一个子领域,让计算机通过数据学习来提高性能。包括以下几种类型: 监督学习:使用有标签的训练数据,算法学习输入和输出之间的映射关系,包括分类和回归任务。 无监督学习:学习的数据没有标签,算法自主发现规律,经典任务如聚类。 强化学习:从反馈中学习,以最大化奖励或最小化损失,类似训练小狗。 3. 深度学习:是机器学习的一个子领域,模拟人脑创建人工神经网络处理数据,包含多个处理层,在图像识别、语音识别和自然语言处理等任务中表现出色。 4. 大语言模型:是深度学习在自然语言处理领域的应用,目标是理解和生成人类语言,如 ChatGPT、文心一言等。同时具有生成式 AI 的特点,能够生成文本、图像、音频和视频等内容。 2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它基于自注意力机制处理序列数据,不依赖循环神经网络或卷积神经网络。生成式 AI 生成的内容称为 AIGC。
2025-03-26