Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

AI发展的方式除了大模型,还有什么

Answer

AI 的发展方式除了大模型,还包括以下方面:

  1. 算法:算法的不断优化和创新推动着人工智能的发展。
  2. 算力:强大的算力支持是实现复杂人工智能任务的基础。
  3. 数据:优质的数据集对于人工智能学习算法的发展至关重要,被称为“AI 时代的石油”。
  4. 深度神经网络:通过简单细胞检测特征、复杂细胞汇总信息产生结果等方式实现识别、判断和行动等功能。
  5. 端侧模型:端侧模型并非越小越好,而是要够用、好用,设备算力决定最优模型规模,多模态能力是突破通用计算的关键。
  6. 端侧 Agents:在终端设备上自主运行的智能代理程序,具备感知、决策、执行的闭环能力,是连接模型与应用的关键。
  7. 预训练:包括对编程语言、维基百科、新闻常识、网络社区、各类书籍等内容的预训练,但由于版权和费用问题,不包括期刊论文数据库。
  8. 开源生态:促进了 AI 技术的交流和发展。
Content generated by AI large model, please carefully verify (powered by aily)

References

张翼然:AI引领未来课堂的探索与实践.pdf

高级游戏人机对弈算法AI伴随着神经⽹络的发展⽽出现的计算机模仿⼈脑神经元杰弗⾥⾟顿引领了多层神经⽹络⼤规模数据分析技术算力数据数据集对⼈⼯智能学习算法发展⾄关重要,AI时代的⽯油深度神经⽹络如何识别物体:简单细胞检测特征,复杂细胞汇总信息产⽣结果,通知更⾼层词简单细胞,逐级识别识别;判断;⾏动回答;逻辑推理;⽣成算法、算⼒、数据推动动着⼈⼯智能一路发展大模型是什么?本质就是两个文件:一个是参数文件,一个是包含运行这些参数的代码文件。参数文件更像是一个问答机器人的“大脑镜像”,因为它主要负责处理和生成文本信息,就像一个超级智能的聊天机器人。它能够理解问题,并根据其训练数据生成符合逻辑和语法的回答,但缺乏控制物理世界的能力。数据算法Generative文字接龙“知识库解压缩”工作原理介绍by FT做文章摘要,请调低0-0.2,创意写作,可以尝试0.6-0.8,不建议更高,会胡说八道ChatGPT网页版不可调,因此:API方式比直接用网页版ChatGPT可控性更高你可以明确地控制候选词汇的数量,确保模型不会生成概率非常低的词,适合有明确结构要求的任务。

张翼然:用AI为教师减负(3H).pdf

数据集对⼈⼯智能学习算法发展⾄关重要,AI时代的⽯油深度神经⽹络如何识别物体:简单细胞检测特征,复杂细胞汇总信息产⽣结果,通知更⾼层词简单细胞,逐级识别识别;判断;⾏动回答;逻辑推理;⽣成算法、算⼒、数据推动动着⼈⼯智能一路发展大模型是什么?本质就是两个文件:一个是参数文件,一个是包含运行这些参数的代码文件。参数文件更像是一个问答机器人的“大脑镜像”,因为它主要负责处理和生成文本信息,就像一个超级智能的聊天机器人。它能够理解问题,并根据其训练数据生成符合逻辑和语法的回答,但缺乏控制物理世界的能力。数据算法Generative文字接龙“知识库解压缩”工作原理介绍by FT做文章摘要,请调低0-0.2,创意写作,可以尝试0.6-0.8,不建议更高,会胡说八道ChatGPT网页版不可调,因此:API方式比直接用网页版ChatGPT可控性更高你可以明确地控制候选词汇的数量,确保模型不会生成概率非常低的词,适合有明确结构要求的任务。top-p可以自适应地选择词汇数量,因此比top-k更灵活,尤其在生成多样性和连贯性之间提供了更好的平衡。Pre-Training世界模型预训练内容包括:编程语言、维基百科、新闻常识、网络社区、浪漫、科幻、悬疑、恐怖等书籍、(让AI生成语言更像人类)由于版权和费用,训练内容不包括期刊论文数据库

AI50年度关键词——腾讯研究院.pdf

则提升效率→模态叠加本质洞见多源汇聚,融贯通达1.1.端侧模型不是"越小越好",而是"够用更好"、"好用最好"2.2.设备算力决定了最优模型规模,未来终端需求将呈多样化3.3.多模态能力是突破通用计算的关键,仍有强需求39端侧Agents在终端设备上自主运行的智能代理程序,具备感知、决策、执行的闭环能力。核心观察A:大模型发展有两种路线:单一系统(快思考)vs双系统结合(快+慢思考)B:端侧资源约束要求最优化使用C:Agent是连接模型与应用的关键逻辑链条1.1.为什么需要Agent?A+B⇒双系统路线更适合端侧•资源有限性•任务复杂性•生态多样性1.2.Agent如何创造价值?B+C⇒双重价值实现•资源优化:任务分解、按需调用•生态连接:跨应用协作、UI理解1.3.发展趋势:•技术:从单一模型到多智能体协作•生态:从封闭应用到开放服务•交互:从指令执行到场景理解本质洞见自主循环,智在边端1.1.Agent不是锦上添花,而是端侧AI的必需品2.2.Agent的作用远不止于目前,未来,平台竞争将围绕Agent能力展开

Others are asking
ai入门学习
以下是新手学习 AI 的全面指南: 1. 了解 AI 基本概念: 建议阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,您将找到一系列为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛(比如图像、音乐、视频等),您可以根据自己的兴趣选择特定的模块进行深入学习。 一定要掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动是学习 AI 的另一种有效方式。尝试使用如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 此外,还有以下相关的学习内容: 1. 入门指南:强化学习: 原文地址:https://mp.weixin.qq.com/s/pOO0llKRKL1HKG8uz_Nm0A 学习深度强化学习的第一个算法可以选择 DQN,并以搞懂它作为入门目标。 2. 写给不会代码的您:20 分钟上手 Python+AI: 在深入学习 AI 时,编程可能会带来挑战,但这份指南旨在让大家更快掌握 Python 和 AI 的相互调用。 您可以在接下来的 20 分钟内,循序渐进地完成以下任务:完成一个简单程序、完成一个爬虫应用抓取公众号文章、完成一个 AI 应用为公众号文章生成概述。 关于 Python:Python 拥有丰富的标准库,还可以通过 pip 工具从类似 GitHub 的平台订购新的工具,在 AI 领域被广泛使用。 关于 OpenAI API:OpenAI 通过 ChatGPT 提供开箱即用的服务,也通过 OpenAI API 提供更加灵活的服务,可通过代码调用完成更多自动化任务。
2025-02-20
免费生成音乐的ai 软件
以下是一些免费生成音乐的 AI 软件: :与 DAW 集成的生成音乐工具,100%免版权费。 :为创意媒体提供的伦理音乐 AI。 :AI 音乐创作平台和探索声音宇宙的个人音乐制作人。 :通过音乐赋予您新的创作和表达方式。 :使用 AI 改变您的歌唱声音。 :为您的创造力和生产力提供 AI 音乐。 :使用 AI 生成声音、音效、音乐、样本、氛围等。 :带有 AI 助手并支持本地 VST 插件的网页 DAW。 :Audacity®音频编辑器的网页版。 此外,Riffusion 推出了 FUZZ 这一全新音乐生成模型,基于扩散模型,支持永久免费开放(只要服务器能撑住)。FUZZ 通过生成声谱图(Spectrogram)并转换为音频,可输入提示词(音乐类型、乐器、情绪等)生成风格匹配的音乐,支持无缝风格过渡,如从“爵士小号独奏”平滑切换到“电子舞曲节奏”。
2025-02-20
雪梅May的AI学习笔记
以下是雪梅 May 的 AI 学习笔记相关内容: 1. 作者介绍: 适合纯 AI 小白,可参考此日记,学习模式为输入→模仿→自发创造。 学习内容因 AI 节奏快可能不适用,可去 waytoAGI 社区找感兴趣的最新内容。 学习时间有空就进行,目前作者进行到 90 天。 2024 年保持较好学习状态,若觉得难做到不用有压力。 学习资源免费开源。 2. 第一阶段: DAY5 2024.5.26:开始使用 kimi,抱着每天问 100 个问题的心态调整思考模式。 DAY6 2024.5.31:应朋友推荐学习吴恩达生成式人工智能课程,在 B 站有资源,抽空 3 天学完。 DAY7 2024.6.1:探索用 AI 解决真实问题,如写行业研究报告。 3. 2024 年 12 月 31 日历史更新(归档): 雪梅 May 挑战 100 天与 AI 学习的过程,分为系统性学习、模仿实践、研究 Prompt 提示词阶段,学习路线图适合新人参考。 Meta 首席 AI 科学家 LeCun 访谈,指出 AI 根本局限,阐述不同于主流 LLM 的技术路径。 少卿的《AI 帮你赢,谈双重主体性》,强调将 AI 视为方法,提供实用应用框架。
2025-02-20
再罗列10个关注量最多的优质ai公众号教学或资讯
以下是 10 个关注量较多的优质 AI 公众号教学或资讯: 1. 超时空视角:提供 AI 资讯。 2. EverAI:在小红书、抖音、B 站等平台有教程及 AI 工具界面操作。 3. 猫叔个人公众号:AI 替代人类。 4. 小鱼干了:SD 喂饭达人,教程详细,案例丰富。 5. 白马少年:分享心得 blender,SD 出图练模型教程。 6. okingjo:lora 训练教程和心得。 7. 樊川:城市设计建筑大模型 IUrbanDesign。 8. 努力的五花肉:MJ 高手,热衷且擅长于 UI&UX 领域的内容创作与分享。 9. 文小言 APP 中的学习强国公文助手:可以帮助用户进行文汇检索,AI 公文书写,AI 公文润色等。 10. Recraft AI:提供多种样式的可选风格,对所有用户每日都有免费的试用点数,并允许对生成的图像进行商业使用。
2025-02-20
再来几个头部ai公众号
以下是一些头部的 AI 公众号: 超时空视角 赛博禅心 302.AI 产研负责人(产品官网:https://302.ai ) 01Founder(小红书:2205271258,公众号:01Founder,即刻:Max_means_best,微信:Max_Deze) 和 AI 一起进化(公众号:kaixindelele) 星际码仔(公众号:星际码仔) AI 大同学(微抖红手:AI 大同学,2 年老站能不更新就不更新:https://openai.mbmzone.com/mbmgpt/ ) PlayWithAI(小红书:PlayWithAI) 少女的 AI 大冒险(公众号:少女的 AI 大冒险)
2025-02-20
推荐几个ai相关的优质公众号
以下是为您推荐的一些 AI 相关的优质公众号: 超时空视角 麦橘 麦乐园 MAILAND 𝐦𝐚𝐣𝐢𝐜𝐌𝐈𝐗 模型的作者 orange Web3 天空之城 Ragnar 瑞哥那 海辛 三思 INDIGO TALK 云中江树 陈财猫 阿文
2025-02-20
你使用了哪些大模型
以下是关于大模型的相关信息: 大模型的定义:大模型的“大”指用于表达 token 之间关系的参数多,主要是模型中的权重(weight)与偏置(bias),例如 GPT3 拥有 1750 亿参数。以 Transform 为代表的大模型采用自注意力(Selfattention)机制来学习不同 token 之间的依赖关系,生成高质量 embedding。数字化便于计算机处理,为让计算机理解 Token 之间的联系,需把 Token 表示成稠密矩阵向量,这个过程称为 embedding,常见算法有基于统计的 Word2Vec、GloVe,基于深度网络的 CNN、RNN/LSTM,基于神经网络的 BERT、Doc2Vec 等。 国内部分大模型: 北京:百度(文心一言)https://wenxin.baidu.com 、抖音(云雀大模型)https://www.doubao.com 、智谱 AI(GLM 大模型)https://chatglm.cn 、中科院(紫东太初大模型)https://xihe.mindspore.cn 、百川智能(百川大模型)https://www.baichuanai.com/ 上海:商汤(日日新大模型)https://www.sensetime.com/ 、MiniMax(ABAB 大模型)https://api.minimax.chat 、上海人工智能实验室(书生通用大模型)https://internai.org.cn 部分大模型的特点:在聊天状态下能生成 Markdown 格式的有智谱清言、商量 Sensechat、MiniMax;目前不能进行自然语言交流的有昇思、书生;受限制使用的有 MiniMax;特色功能方面,昇思能生图,MiniMax 能语音合成。 大模型的动手实验:由于作者使用的是 macOS 系统,因此采用 GGML 量化后的模型。比较有名的相关项目有 ggerganov/llama.cpp:Port of Facebook's LLaMA model in C/C++ 中下载模型,3G 到 7G 不等。此外,llama.cpp 还提供了 WebUI 供用户使用,首先启动 server,它默认监听 8080 端口,打开浏览器就可以对话。
2025-02-20
养老场景实时健康监测与风险预警在技术上怎么实现,用AI大模型实现,请给出一个可行的方案
以下是一个利用 AI 大模型实现养老场景实时健康监测与风险预警的可行方案: 首先,需要明确相关的概念和技术名词。AI 即人工智能,机器学习是电脑找规律学习,包括监督学习、无监督学习和强化学习。监督学习是基于有标签的训练数据,学习输入和输出之间的映射关系,包括分类和回归。无监督学习是在无标签数据中自主发现规律,例如聚类。强化学习是从反馈中学习以最大化奖励或最小化损失,类似训小狗。深度学习参照人脑,具有神经网络和神经元,因层数多被称为深度,神经网络可用于多种学习方式。生成式 AI 能生成文本、图片、音频、视频等内容形式,LLM 是大语言模型,生成图像的扩散模型不属于大语言模型,像谷歌的 BERT 模型可用于语义理解,如上下文理解、情感分析、文本分类。 在技术里程碑方面,2017 年 6 月谷歌团队发表的《Attention is All You Need》论文首次提出了 Transformer 模型,其完全基于自注意力机制处理序列数据,不依赖循环神经网络或卷积神经网络。 对于养老场景的实时健康监测与风险预警,可利用传感器收集老人的生理数据,如心率、血压、血糖等。这些数据通过物联网传输到服务器,利用深度学习算法对数据进行分析和处理。例如,使用基于 Transformer 模型的大模型,对历史健康数据和当前实时数据进行学习和分析,建立老人的健康模型。通过与正常健康指标的对比,及时发现异常情况,并结合无监督学习中的聚类算法,对不同健康状况的老人进行分类,以便提供个性化的预警和建议。同时,利用强化学习不断优化模型的预警准确性和及时性。 总之,通过整合传感器数据采集、物联网传输、深度学习算法分析和模型优化等环节,借助 AI 大模型实现养老场景的实时健康监测与风险预警。
2025-02-20
大模型和小模型区别是什么?为什么大模型有幻觉,小模型没有?
大模型和小模型的区别主要体现在以下几个方面: 1. 规模和参数:大模型通常具有更多的参数和更复杂的架构,而小模型相对规模较小。 2. 能力和性能:在处理自然语言等任务时,大模型往往表现出更强的能力,例如更准确的理解和生成能力。 3. 应用场景:大模型适用于通用的、复杂的任务,小模型则更适合特定的、简单的场景。 关于大模型存在幻觉而小模型没有的原因: 1. 工作原理:大模型基于统计模型预测生成内容,通过训练数据猜测下一个输出结果,可能因错误数据导致给出错误答案。 2. 数据局限性:大模型的知识完全源于其训练数据,可能存在过时、不准确或不完整的信息。 3. 不可预测性:大模型的输出结果具有不可预测性,而小模型相对更稳定和可预测。
2025-02-20
大模型讲解
大模型是指输入大量语料,使计算机获得类似人类“思考”能力,能进行文本生成、推理问答、对话、文档摘要等工作。 大模型的训练和使用过程可以用“上学参加工作”来类比: 1. 找学校:训练大模型需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练。 2. 确定教材:大模型需要大量数据,几千亿序列(Token)的输入基本是标配。 3. 找老师:选择合适算法让大模型更好理解 Token 之间的关系。 4. 就业指导:为让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,进行如翻译、问答等工作,在大模型里称之为推导(infer)。 在 LLM 中,Token 被视为模型处理和生成的文本单位,会被数字化形成词汇表,便于计算机处理。为让计算机理解 Token 之间的联系,还需把 Token 表示成稠密矩阵向量,这个过程称为 embedding,常见算法有基于统计的 Word2Vec、GloVe,基于深度网络的 CNN、RNN/LSTM,基于神经网络的 BERT、Doc2Vec 等。以 Transform 为代表的大模型采用自注意力(Selfattention)机制来学习不同 token 之间的依赖关系,生成高质量 embedding。大模型的“大”在于用于表达 token 之间关系的参数多,主要是模型中的权重(weight)与偏置(bias)。 从整体分层的角度来看,大模型整体架构分为以下几层: 1. 基础层:为大模型提供硬件支撑、数据支持,如 A100、数据服务器等。 2. 数据层:包括静态的知识库和动态的三方数据集。 3. 模型层:有 LLm(大语言模型,如 GPT,一般使用 transformer 算法实现)或多模态模型(如文生图、图生图等模型,训练数据与 llm 不同,用图文或声音等多模态数据集)。 4. 平台层:如大模型的评测体系、langchain 平台等,提供模型与应用间的组成部分。 5. 表现层:即应用层,是用户实际看到的地方。
2025-02-20
生成3d模型可以让模型动起来吗?
生成 3D 模型后是可以让模型动起来的。例如,通过以下工具和流程可以实现: 工具链:Midjourney(生成等距图像)→Trellis(图像转 3D 模型)→Browser Lab(浏览器内 3D 编辑器)。 步骤: 使用 Midjourney 生成等距 3D 场景,提示词示例:3D isometric bedroom with a bed and desk。(DALLE 3 也可测试) 用 Trellis 工具将图像转为 3D 模型(支持 Tripo 3D 等其他工具)。工具地址: 下载生成的 3D 模型(GLB 文件或高斯分布文件),然后导入 Browser Lab 编辑器中进一步编辑。编辑器地址: 结合可灵 AI、Hailuo AI、Runway 等工具可让场景中的人物动起来。 对于文物雕塑上色,可使用 runway 让固有想法的物体变得动态,runway gen3 的 V2V 可以让物体重新建模、重新上色,再把背景上个色,传到剪映,加上 BGM。 先上传图片,运用提示词,只要让物体动起来就行,一次可能不成功,可以多次抽卡(分够的话)。 生成好的视频的左下方,点击“Reuse”,再点击上方出现的“Video to Video”,视频就会跳转到我们的工作台。 再在下方输入提示词“3D modeling with vibrant colors”等待生成。 再重复上面一个步骤,把提示词换成“Changing the background to the universe,the body emits light”。 最后导入剪映,按照自己喜欢的风格,剪成一个小短片。 另外,可以用即梦 S2.0(或其他可以动效的工具)出动态视频,在剪映提前转成 9:16 或 16:9 的大小,否则 runway 会裁剪尺寸。
2025-02-20
你用的是什么ai模型
以下是关于所使用的 AI 模型的相关信息: 我使用的是 GPT4,其他模型的效果不太好。如果您使用 GPT4 总结的内容质量不行,可以点击“重试”按钮让其重新总结。 默认情况下,Cursor Chat 将 OpenAI 的 GPT4(具体为 GPT4Turbo 实例)用于其 AI 模型,您可以通过选择喜欢的 AI 模型,且为 Chat 选择的模型会保存供未来使用。 有实例中使用的是阿里千问模型。
2025-02-20
普通人学习ai生图方式
以下是为普通人提供的学习 AI 生图的相关内容: 如何判断一张图片是否 AI 生成: 当我们接触的 AI 制品增多,可通过“整体看光影,细节看结构”的技术要点来找出画面 bug。通过大量分析 AIGC 画作,人们会在脑中形成“判断模型”,但起初可能“知其然,不知其所以然”。从本质上看,人类绘画创作是线性发展,而 AI 是以积累数据、扩散噪声、再降噪收束的路径生图,会导致同一张图呈现不同绘画级别的细节。 Liblibai 简易上手教程: 1. 首页模型广场:展示其他用户的模型,可查看详情、收藏并用于生图。 2. Checkpoint:生图必需的基础模型,必选。 3. Lora:低阶自适应模型,类似 Checkpoint 的小插件,可有可无,用于控制细节。 4. VAE:编码器,类似滤镜,调整生图饱和度,可无脑选 840000。 5. CLIP 跳过层:用于生成图片后控制、调整构图变化,一般设为 2。 6. Prompt 提示词:想要 AI 生成的内容。 7. 负向提示词 Negative Prompt:想要 AI 避免产生的内容。 8. 采样方法:选择让 AI 生图的算法。 AI 线上绘画教程: 如果需要大量商用且具艺术美感的图片,AI 生图是高效办法。主流工具如 midjourney 付费成本高,stable diffusion 硬件门槛不低,可选择免费在线 SD 工具网站如。本教程适用于入门玩家,旨在让读者半小时内自由上手创作绘图。
2025-02-14
在2025年2月12日这个时间点,我有哪些方式可以快速,稳定的使用 deepseek r1
在 2025 年 2 月 12 日,您可以通过以下方式快速、稳定地使用 DeepSeek R1: PPIO 派欧云(https://ppinfra.com/modelapi/product/llmapi?utm_medium=article&utm_source=WayToAGI):提供满血版全版本的 DeepSeekR1,输入价格为¥4/百万 tokens,输出价格为¥16/百万 tokens。有开发者福利,新注册立得 500 万 tokens(关注 PPIO 公众号回“deepseek”再领 1 亿),初创企业认证有 10 万算力补贴。产品服务特点为服务稳定性 99.9%,保持 0 故障,与 DeepSeek 官方同价,客户支持通道 10 分钟响应。 百度智能云:DeepSeekR1 限时免费,配额 1000RPM/10000TPM,无调用 tokens 上限。本模型将于 2025 年 2 月 19 日 00:00 起正式商用计费,输入价格 0.002 元/千 tokens,输出价格 0.008 元/千 tokens,有在线体验。 硅基流动:DeepSeekR1 输入价格为¥4/M Tokens,输出价格为¥16/M Tokens,有在线体验。2025 年 2 月 6 日起,未实名用户每日最多请求此模型 100 次。 此外,在 2 月 12 日,还有以下相关内容: 《》,来自社区伙伴 Hua 的投稿,手把手指导您在微软 Azure AI Foundry 平台上完成 DeepSeek R1(671B)模型的完整部署流程,包含环境准备、资源管理、模型测试及 API 调用说明。 《》Anthropic 正式发布 Anthropic AI Economic Index,聚焦 AI 对经济的长期影响。该指数直观展现 AI 如何融入现代经济的各类实际任务,并从职业(occupation)和具体工作任务(task)两个维度,量化 AI 对劳动力市场的影响。 《》DeepSeekR1 的火爆现象背后,企业可以获得显著提升。其强化学习和联网搜索能力,改变了信息获取方式,从“检索—阅读—摘要”转变为“提问—获得答案”,大幅提升工作效率。同时,DeepSeek 的开源策略打破了技术垄断,让国内大模型能力迅速提升。
2025-02-12
问答方式如何使用好大模型
以下是关于如何使用好大模型的一些指导: 1. 本地部署资讯问答机器人: 加载所需的库和模块,如用于解析 RSS 订阅源的 feedparse,用于在 Python 程序中跑大模型的 ollama(使用前确保 ollama 服务已开启并下载好模型)。 从订阅源获取内容,可通过指定的 RSS 订阅 url 提取,如需多个 url 稍作改动即可。然后用专门的文本拆分器将长文本拆分成小块,并附带相关元数据,最终合并成列表用于后续处理。 为文档内容生成向量,使用文本向量模型 bgem3,从 hf 下载好模型放置在指定路径,通过函数利用 FAISS 创建高效向量存储。 Ollama 支持多种大型语言模型,包括通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同场景。易于使用,适用于 macOS、Windows 和 Linux 系统,支持 cpu 和 gpu。提供模型库,用户可从中下载不同模型,还支持自定义模型,如修改温度参数等,同时提供 REST API 用于运行和管理模型及与其他应用集成,社区贡献丰富。需先安装,可通过 https://ollama.com/download/ 下载,安装后确保后台服务已启动。 2. 编写清晰的说明: 在 OpenAI 官方说明文档中提到的“官方最佳实践”为用户提供了若干策略。 策略一是编写清晰的说明,在询问中包含详细信息,多说一些内容,多提供一些信息,能有效提高大模型回复的质量和丰富性。通过多个具体例子展示了提供更多细节能得到更符合预期的回答。
2025-02-11
deepseek的提问方式和指令输入规则是什么
DeepSeek 的提问方式和指令输入规则如下: 核心原理认知: AI 特性定位:支持文本/代码/数学公式混合输入,具有动态上下文(约 4K tokens 上下文窗口)和任务适应性(可切换创意生成/逻辑推理/数据分析模式)。 系统响应机制:采用意图识别+内容生成双通道处理,自动检测 prompt 中的任务类型、输出格式、知识范围,对位置权重(开头/结尾)、符号强调敏感。 基础指令框架: 四要素模板:如果不知道如何表达,可套用框架指令。 格式控制语法:强制结构使用```包裹格式要求,占位符标记用{{}}标注需填充内容,优先级符号>表示关键要求,!表示禁止项。 进阶控制技巧: 思维链引导:分步标记法,如请逐步思考:1.问题分析→2.方案设计→3.风险评估;苏格拉底式追问,在得出最终结论前,请先列举三个可能存在的认知偏差。 知识库调用:领域限定指令,如基于 2023 版中国药典,说明头孢类药物的配伍禁忌;文献引用模式,如以 Nature 2022 年发表的论文为参考,解释 CRISPRCas9 最新突破。 性能监测体系:包括需求理解准确率(复杂需求首轮响应匹配度)、知识迁移能力(跨领域案例应用的合理性)、思维深度指数(解决方案的因果链条长度)。新一代交互范式建议采用「人机共谋」模式、启动「思维可视化」指令、实施「苏格拉底式对话」。通过将深度思考能力与场景化需求结合,可解锁 DeepSeek 的「认知增强」模式,建议通过 3 轮迭代测试(需求表达→深度追问→方案优化)建立个性化交互模式。
2025-02-05
大模型训练方式
大模型的训练方式如下: 1. 通俗来讲,大模型是输入大量语料,让计算机获得类似人类的“思考”能力,能进行文本生成、推理问答、对话、文档摘要等工作。可以用“上学参加工作”来类比其训练和使用过程: 找学校:训练大模型需要大量计算,GPU更合适,只有购买得起大量GPU的才有资本训练。 确定教材:大模型需要大量数据,几千亿序列(Token)的输入基本是标配。 找老师:即选择合适算法讲述“书本”内容,让大模型更好理解Token之间的关系。 就业指导:为让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 搬砖:就业指导完成后,进行如翻译、问答等工作,在大模型里称之为推导(infer)。Token被视为模型处理和生成的文本单位,能代表单个字符、单词等,在将输入进行分词时,会形成词汇表。 2. 100基础训练大模型的步骤: 步骤一·创建数据集:进入厚德云模型训练数据集(https://portal.houdeyun.cn/sd/dataset),在数据集一栏中点击右上角创建数据集,输入数据集名称。zip文件可以是包含图片+标签txt,也可以只有图片没有打标文件,也可以一张一张单独上传照片,但建议提前把图片和标签打包成zip上传。Zip文件里图片名称与标签文件应当匹配,例如:图片名"1.png",对应的达标文件就叫"1.txt"。上传zip以后等待一段时间,确认创建数据集,返回到上一个页面,等待一段时间后上传成功,可以点击详情检查,可预览到数据集的图片以及对应的标签。 步骤二·Lora训练:点击Flux,基础模型会默认是FLUX 1.0D版本,选择数据集,点击右侧箭头,会跳出所有上传过的数据集。触发词可有可无,取决于数据集是否有触发词。模型效果预览提示词则随机抽取一个数据集中的标签填入即可。训练参数这里可以调节重复次数与训练轮数,厚德云会自动计算训练步数,如果不知道如何设置,可以默认20重复次数和10轮训练轮数,可以按需求选择是否加速,点击开始训练,会显示所需要消耗的算力,然后等待训练,会显示预览时间和进度条,训练完成的会显示出每一轮的预览图,鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此lora生图的界面。点击下方的下载按钮则会自动下载到本地。 步骤三·Lora生图:点击预览模型中间的生图会自动跳转到相应页面。模型上的数字代表模型强度,可在0.61.0之间调节,也可以自己添加lora文件,点击后会显示训练过的所有lora的所有轮次。VAE不需要替换,正向提示词输入写的提示词,可以选择基于这个提示词一次性生成几张图,选择生成图片的尺寸,横板、竖版、正方形。采样器和调度器新手小白可以默认,迭代步数可以在2030之间调整,CFG可以在3.57.5之间调整,随机种子1代表随机生成图。所有设置都好了以后,点击开始生态,生成的图会显示在右侧。如果有哪次生成结果觉得很不错,想要微调或者高分辨率修复,可以点开那张图,往下滑,划到随机种子,复制下来,粘贴到随机种子这里,这样下次生成的图就会和这次的结果近似。如果确认了一张很合适的种子和参数,想要搞清放大,则点开高清修复,可以选择想放大的倍数,新手小白可以就默认这个算法,迭代步数建议在2030之间,重回幅度根据需求调整,正常在0.30.7之间调整。 3. 今日作业:按照比赛要求,收集六个主题中一个主题的素材并且训练出lora模型后提交lora模型与案例图像。提交链接:https://waytoagi.feishu.cn/share/base/form/shrcnpJAtTjID7cIcNsWB79XMEd
2025-01-23
与 AI 共事,是否改变了你解决问题的方式
与 AI 共事确实改变了人们解决问题的方式。具体表现为: 更加聚焦目标,避免陷入具体细节。 从实现细节中抽离出来,更加高效地工作。 对复杂问题的理解发生变化,能力在过程中得到提升。 为流程带来全新视角,突破过去能力的限制。 对于个人博客,AI 提供了不同的思路和视角,使其变得可执行可操作。 在医疗保健领域,为了让 AI 产生真正的改变,应创建像优秀医生和药物开发者那样学习的模型生态系统。例如,预医学生和设计新疗法的科学家都需要经历从基础到专业的学习过程,AI 也应如此,通过逐步训练不同的模型,而非仅依靠大量数据和生成模型来解决问题。
2025-01-11
未来5年AI的发展方向
未来 5 年 AI 的发展方向可能包括以下几个方面: 1. 模型发展:从小模型阶段向更强大的模型演进,如 GPT 的出现标志着 AGI 的拐点,Sora 的出现打开了 AGI 的大门,未来可能加大算力和训练,与具身机器人结合,加速智能提升。 2. 能力提升:从能与人类交流到具备对世界力量的感知和与物理世界互动的能力,逐步发展到强人工智能。 3. 应用拓展:在关键领域改变成本结构和提高生产力,如降低医疗、教育等领域的成本,使服务更易获得和负担得起。AI 涉及的领域不断扩大,应用范围更加广泛。 4. 社会影响:可能带来更好的教育、更健康的人口和更有生产力的人,解放人力去解决更重要的问题,创造更美好的社会。但也需要政府和民营企业共同努力,进行人员再培训和能力增强,以应对可能的就业机会变化。 5. 技术突破:如没有编码能力的人独自创建的应用程序或网站走红,OpenAl o1 的开源替代品在推理基准测试中超越它,苹果设备上的研究成果加速个人设备上 AI 的发展等。同时,在一些领域也存在挑战,如对人形机器人的投资水平可能下降,挑战者难以对 NVIDIA 的市场地位造成重大打击等。此外,还可能面临国家安全审查、立法实施等方面的问题。
2025-02-20
我想做一个产品(生涯规划领域的垂直大模型),这个产品服务的对象是所有人:帮助所有人进行更好的职业规划。每个人都能通过使用这个产品更好地了解自己,了解自己的天赋、兴趣、优势,然后找到自己的热爱的领域和热爱的事业,并且能够个性化地推荐相关的行业和职业,包括职业的主要工作内容和核心能力要求等等。 请对这个产品进行可行性分析,并给出产品的发展规划,别忘了给这个项目起一个名字。
以下是对您提出的生涯规划领域垂直大模型产品的可行性分析和发展规划,并为项目取名为“生涯智途”。 可行性分析: 1. 需求广泛:帮助人们进行职业规划是一个普遍存在的需求,涵盖了各个年龄段和职业阶段的人群。 2. 数据可用性:可以通过各种渠道收集大量与职业相关的数据,包括行业报告、职位描述、人才需求等。 3. 技术支持:当前大模型技术的发展为实现这样的产品提供了可能,能够处理和分析大量复杂的数据。 发展规划: 1. 数据收集与整理:广泛收集各类职业数据,建立丰富的数据库,确保数据的准确性和完整性。 2. 模型训练与优化:利用收集到的数据进行模型训练,不断优化模型,提高预测和推荐的准确性。 3. 功能开发: 个性化测评:开发能够准确评估用户天赋、兴趣、优势的功能模块。 精准推荐:根据用户的特点,提供个性化的行业和职业推荐,并详细介绍职业的工作内容和核心能力要求。 持续学习与更新:随着行业变化,及时更新数据和模型,以提供最新的职业信息。 4. 用户体验优化:设计简洁、易用的界面,提供良好的用户交互体验。 5. 市场推广:通过线上线下多种渠道进行推广,提高产品的知名度和用户覆盖面。 希望以上分析和规划对您有所帮助。
2025-02-18
目前ai发展成熟吗
目前 AI 仍处于不断发展的阶段,尚未完全成熟。 人类是工具的创造者,每一代都在前人的基础上创造出更强大的工具,如今 AGI 成为了人类进步的又一工具。长期以来,人类创新推动生活各方面繁荣改善,AI 也在持续快速发展。 例如,Transformer 架构早在 2017 年就已提出,但 AI 近几年才爆发,其中神经网络的规模是重要影响因素。以 GPT 模型为例,从 2018 年第一代的 1 亿左右参数量,到 2023 年第四代的万亿规模,规模越大智能程度越高,且在达到一定规模后出现“涌现”能力,智能程度飞速上升,但这种“涌现”出现的机理目前尚无统一解释。 在未来,AI 有望在多个领域取得进展,如 2024 年内,图片超短视频的精细操控、AI 音频能力、“全真 AI 颜值网红”、游戏 AI NPC、AI 男/女朋友聊天、实时生成的内容、AI Agent 等方面会有发展;2025 2027 年,AI 3D 技术、全真 AI 虚拟人、AR/VR 技术、具身智能等技术可能会有明显突破。 然而,AI 立法、伦理讨论仍大规模落后于技术进展,AI 造成的 DeepFake、诈骗、网络攻击等问题开始引发担忧,且可能导致结构性失业等社会问题。
2025-02-18
有关于数据标注行业发展趋势的文章吗?
以下是关于数据标注行业发展趋势的相关内容: 数据标注行业呈现出以下几个主要的发展趋势: 从量到质的转变:早期大模型训练侧重通过大量算力和大规模数据集来提升性能,但随着技术进步,数据质量成为提高模型性能的关键瓶颈,更注重提高数据的质量和相关性,而非单纯增加数据量和算力。 数据标注向知识密集型转变:多模态模型需处理多种类型数据,使数据标注过程更细致复杂。例如进行情绪判断或推理时,需要更高水平的理解和分析能力。这要求从事标注的人员不仅要接受专业培训,在某些情况下还需要特定领域专家执行。 数据标注的自动化和合成数据的使用:随着人工智能技术发展,数据标注领域正经历自动化转型,可使用大模型自动标注数据,提高标注效率并减少人力成本。合成数据使用越来越普遍,因其成本较低、能避免隐私问题及可生成长尾场景数据。例如在自动驾驶领域,可用于生成罕见但关键的路况场景,提高模型的鲁棒性和准确性。 此外,相关法律法规也对生成式人工智能技术研发过程中的数据标注做出规定,如提供者应制定清晰、具体、可操作的标注规则,开展数据标注质量评估,对标注人员进行必要培训等。
2025-02-17
DEEPSEEK发展现状介绍一下
DeepSeek 的发展现状如下: 1. 训练成本方面:远高于传闻的 600 万美元,总计约 13 亿美元。定价低于实际成本,导致高额亏损。MixtureofExpert 方法虽降低计算需求,但大规模内存使用可能增加总成本。 2. 竞争优势方面:以低成本开发顶级 AI 模型的 Mistral AI 被中国 DeepSeek 迅速赶超,DeepSeek 的“极简算力”模式可能削弱 Mistral 的竞争优势。 3. 市场表现方面:展示出媲美领先 AI 产品性能的模型,成本仅为一小部分,在全球主要市场的 App Store 登顶。 4. 实际使用体验方面:在文字能力上表现突出,尤其在中文场景中高度符合日常、写作习惯,但在专业论文总结方面稍弱。数学能力经过优化表现不错,编程能力略逊于 GPT。GRPO 算法替代传统 PPO,降低价值函数估计难度,提高语言评价场景的灵活性与训练速度。 5. 热度方面:微信指数达 10 亿多次,陈财猫将分享提示词及小说创作心得。
2025-02-17
AIagent的发展方向
AI Agent 被认为是大模型未来的主要发展方向之一,其发展具有以下特点和阶段: 从原理上看,中间的“智能体”通常是 LLM 或大模型,为其增加了工具、记忆、行动、规划四个能力。目前行业里主要用到的是 langchain 框架,它通过代码或 prompt 的形式将 LLM 与 LLM 之间以及 LLM 与工具之间进行串接。 在人工智能的发展历程中,AI Agent 并非一蹴而就,其发展可分为几个阶段,并受到符号主义、连接主义、行为主义的影响。在人工智能的黎明时期,符号人工智能作为主导范式,以对符号逻辑的依赖著称,代表之作是基于知识的专家系统。其特点是基于逻辑和规则系统,使用符号来表示知识,通过符号操作进行推理。优点是推理过程明确、可解释性强,缺点是知识获取困难、缺乏常识、难以处理模糊性。时间为 20 世纪 50 70 年代。 近期出现的各类 AI 搜索引擎不断颠覆传统搜索引擎,如 perplexity.ai、metaso、360 搜索、ThinkAny 等。AI Agent 在辅助高效处理信息和简便信息表达方面表现出色,例如智能摘要能辅助快速筛选信息,自然语言描述可生成美观可用的图片。在工作流方面,每个人应根据自身情况找到适合的工具,如产品经理可使用 AI 进行用户画像、竞品调研、设计产品测试用例、绘制产品功能流程图等。关于 AI Agent 的未来,曾被认为异想天开的想法都可能成为现实,技术迭代会不断向前。
2025-02-15