Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

AI发展背后是哪些技术进步推动的,原理是什么?

Answer

AI 发展背后主要由以下技术进步推动:

  1. 核心架构:Transformer 和 Diffusion 这两种架构分别在数据转换和数据向图像转换方面发挥了关键作用,构成了当前 AI 技术的基石。
  2. 算力提升:自 2010 年以来,GPU 等计算资源的快速发展使算力得到空前爆发,为 AI 技术进步提供强大支持。
  3. 人才网络:AI 领域的关键人才大多源自 Google 及其相关实验室和收购的公司,形成强大人才网络,推动了技术发展,并培养了一批领军人物,人才在不同公司间的流动和合作促进了 AI 技术的快速进步。

其原理在于:这些技术的协同作用使得 AI 能够更高效地处理和分析大量数据,实现更复杂的任务和功能。例如,强大的算力能够支持大规模的数据训练和模型优化,优秀的架构能够提高数据处理和模型表达能力,而人才的创新和合作则不断推动技术的突破和应用拓展。

Content generated by AI large model, please carefully verify (powered by aily)

References

2024 年历史更新(归档)

《[量子位:AI视频生成研究报告](https://waytoagi.feishu.cn/record/S20crIXGHeREDwcA3qLc其它推荐报告:《[量子位:中国具身智能创投报告](https://waytoagi.feishu.cn/record/EfohrRIQoeV9EkcwF3Xcb4uYnhf)》具身智能(Embodied AI)正成为人工智能的新浪潮。该技术使机器人能感知、学习并与环境交互,广泛应用于物理实体。具身智能的发展得益于大模型和生成式AI的进步,技术路线包括端到端模型和分层决策模型。《[用友:AI在企业招聘中的应用现状调研报告](https://waytoagi.feishu.cn/record/EGgxrvbqSea5M3cZGkDc0w3MnNf)》报告预测,随着技术进步,AI将进一步推动个性化人力资源管理,创造无人值守的HR平台,推动企业持续发展。《[云计算开源产业联盟:中国AIOps现状调查报告(2024)](https://waytoagi.feishu.cn/record/JWmSrPjX4e516qcIaw3cRmvanqg)》《[易观分析:中国在线旅游市场年度报告2024](https://waytoagi.feishu.cn/record/ISghrazTvevU6YcXHNNc2joHnPg)》《[帆软:Al+for+Bl:让人人都成为数据分析师](https://waytoagi.feishu.cn/record/Blh6rLZcUeLnatcXG63cRCu0nwd)》

【法律法规】《促进创新的人工智能监管方法》.pdf

1.8.The government will put in place a new framework to bring clarity and coherence to the AI regulatory landscape.This regime is designed to make responsible innovation easier.It will strengthen the UK’s position as a global leader in AI,harness AI’s ability to drive growth and prosperity,14 and increase public trust in its use and application.8AI Barometer Part 4–Transport and logistics,Centre for Data Ethics and Innovation,2021.9 How TikTok Reads Your Mind,New York Times,2021.10 Privacy Considerations in Large Language Models,Google Research,2020.11 Artificial Intelligence,Human Rights,Democracy,and the Rule of Law,Alan Turing Institute and Council of Europe,2021.12 Demand for AI skills in jobs,OECD iLibrary,2021.13 Public expectations for AI governance(transparency,fairness and accountability),Centre for Data Ethics and Innovation,2023.14 The AI sector is estimated to contribute£3.7bn in GVA(Gross Value Added)to the UK economy.AI Sector Study 2022,DSIT,2023.5A pro-innovation approach to AI regulation1.9.We are taking a deliberately agile and iterative approach,recognising the speed at which these technologies are evolving.Our framework is designed to build the evidence base so that we can learn from experience and continuously adapt to develop the best possible regulatory regime.Industry has praised our pragmatic and proportionate approach.2.10.Our framework is underpinned by five principles to guide and inform the responsible development and use of AI in all sectors of the economy:o Safety,security and robustnesso Appropriate transparency and explainabilityo Fairnesso Accountability and governance

2024年3月 / 科技变革与美股投资 2024

最近,2024年2月,Sora的出现再次震撼了技术界,预示着我们可能很快就会见证更多令人兴奋的技术突破。虽然现在我们可能还没到达视频生成AI的顶峰,但已有的成就足以让人惊叹。这一切都说明,我们正站在一个新的技术革命的门槛上,未来充满了无限可能。在这次人工智能的飞速发展中,三个关键因素起到了催化剂的作用:架构、算力以及人才网络。首先,当我们谈论当前市场上那些仿佛魔法一般的AI技术时,几乎所有的成就都可以追溯到两个核心架构——Transformer和Diffusion。这两种架构分别代表了数据转换和数据向图像转换的能力,它们构成了当前AI技术的基石。其次,自2010年以来,由于GPU等计算资源的快速发展,算力得到了空前的爆发,为AI技术的进步提供了强大的支持。除了技术和算力之外,AI领域的人才网络也起到了不可忽视的作用。值得注意的是,这一次的AI革命中的所有关键人才几乎都源自于Google,特别是Google在加拿大多伦多和蒙特利尔成立的两个实验室,以及它收购的英国公司DeepMind。这些机构和个人形成了一个强大的人才网络,推动了AI技术的发展,并培养了一批杰出的AI领军人物。从Google到OpenAI,再到Facebook和其他多家公司,这些人才的流动和合作推动了AI技术的快速进步。这次革命的比较角度可以是,过去几十年我们一直在追求更快的计算机,但现在和未来,我们将追求更强大的大脑,即软件2.0。这一概念由Andrej Karpathy提出,标志着从传统软件开发到以AI模型为核心的新时代的转变。未来,我们将依赖于无尽的算力和多样化的AI模型来构建“机器之心”,这将使我们能够实现前所未有的智能服务和应用。

Others are asking
有哪些公司主要做数据处理,比如把文档转化成ai可理解的东西
以下是一些主要从事数据处理,将文档转化为 AI 可理解内容的公司: 在基础模型领域,有 OpenAI、Google、Cohere、AI21、Stability.ai 等公司,它们在构建大型语言模型方面展开竞争。此外,还有新兴的开源选项如 Eleuther。 像 Hugging Face 这种共享神经网络模型的社群,在软件 2.0 时代可能成为智慧的枢纽和人才中心。 还有一些独立应用公司,例如 Jasper(创意文案)、Synthesia(合成语音与视频)等,它们涉及 Creator&Visual Tools、Sales&Marketing、Customer Support、Doctor&Lawyers、Assistants、Code、Testing、Security 等各种行业。
2025-03-25
如何部署本地AI?
部署本地 AI 可以参考以下内容: 1. 平台选择: 线上平台:出图速度快,不吃本地显卡配置,无需下载大模型,能参考其他创作者作品,但出图尺寸受限。 线下平台:可添加插件,不卡算力,出图质量高,但使用时电脑可能宕机,配置不高可能爆显存导致出图失败。 建议充分发挥线上和线下平台的优势,线上找参考、测试模型,线下作为主要出图工具。 2. 开始方式: 本地部署:如果电脑是 M 芯片的 Mac 电脑或 2060Ti 及以上显卡的 Windows 电脑,可以选择本地部署,强烈建议在配有 N 卡的 Windows 电脑上进行。 在线平台:电脑不符合要求的可使用在线工具,在线工具分为在线出图和云电脑两种,根据实际情况选择。 配台电脑:不建议一开始就配主机,玩几个月后还有兴趣再考虑,主机硬盘要大,显卡在预算内买最好。 3. 具体步骤(以把大模型接入小米音箱为例): 第四步:填写 API 服务,如智普、硅基等,其他模型的 API 端口参考官方文档。 第五步:语音服务,可参考官方说明,若有问题可自行尝试并反馈。 第六步:启动服务,在最上方可导出编辑内容为 json 格式,每次调整设置都需重置后重新启动,建议回答完毕后增加结束提示语以提高连续对话稳定性。 希望以上内容对您有所帮助。
2025-03-25
国内ai变成应用
国内 AI 应用发展迅速,在多个领域取得了突破: 早期应用:主要基于 NLP 技术,如聊天机器人和客服机器人。随后,中英文翻译、语音识别、人脸识别等技术取得突破,应用广泛,如语音助手、智能翻译设备、人脸识别支付系统等。但这些技术突破大多限于特定领域,模型应用范围相对狭窄。 新发展路线:OpenAI ChatGPT 等大型语言模型展示了新方向,通过大规模模型预训练,涌现出多功能于一体的智能应用。 编程工具:字节的 Trae 是很厉害的 AI 编程工具,国内版已上线,支持多款模型。目前处于公测阶段免费,能让不懂技术的人开发简单应用程序,未来超级产品经理或成为现实。 图像类产品: 可灵:由快手团队开发,用于生成高质量图像和视频,图像质量高,最初采用内测邀请制,现开放使用,价格相对较高,有不同收费选项。 通义万相:作为国产 AI 工具,在中文理解和处理方面出色,可选择多种艺术和图像风格,生成图像质量高、操作界面简洁直观、用户友好度高,可与阿里其他产品和服务无缝整合,目前免费,但存在一些局限性,如某些类型图像无法生成、处理非中文或国际化内容可能不够出色等。
2025-03-25
如何训练AI智能体
以下是关于训练 AI 智能体的一些信息: 1. 可以将一些创新的 prompt 融入工作流中,以更高效地训练智能体。这种方法不仅能改进现有的大语言模型,还能探索新的应用领域,实现低成本、高效能和模型效益最大化,突破单纯依赖算法的方式。 2. 采用流式训练方式提升训练速度和质量,例如将孔明灯换成泡泡,基于 Transformer 模型进行流匹配,这种方式优于扩大模型。 3. 利用多种 AI 生成工具,如输入简单提示词就能创作音乐的 so no 音频生成工具,能创建个人 AI 智能体的豆包,输入文本可生成播客的 Notebook LN。 4. 了解 AI 工程平台,如 define 等,涉及数据清洗管道、数据存储和检索、编辑生成平台、构建 prompt 技巧、智能体概念、插件调用、运维平台、模型层和缓存机制等,还能接入多家大模型。以 coach 平台为例,新版本有很多模板,有众多插件工具,包括必应搜索、链接读取、代码执行器等,还有工作流,可创建应用 APP,有新手教程和文档,可创建智能体,通过工作流节点调用和 prompt 构建提示词,还能调用插件、图像流、知识库等,商城中有各种智能体和插件模板,知识库可添加多种格式内容。 5. 了解一些为大模型提供数据、企业模型和算力服务的平台,如魔搭社区等,有按任务划分的模型库、数据集和在线应用供体验。
2025-03-25
mermaid编辑工具
Mermaid 是一款用于创建各种图表的工具,它支持多种类型的图表,如思维导图、时序图、UML 图等。以下是关于 Mermaid 编辑工具的一些信息: 可以使用 Mermaid 语法创建简单的思维导图,例如:GRAPH CODE 判断 大语言模型 自然语言处理 机器学习 深度学习 执行 文本分析 情感分析 算法优化 神经网络 结束。 可用于将代码转化为图表,如在“code to diagram”的搜索结果中,Mermaid 不仅支持十几种图像,还提供了在线编辑器,生成器的网址为:https://mermaid.live/ 。 可以通过 ChatGPT 结合自然语法生成 Mermaid 图形语法,生成流程包括确定制作目标、通过自然语言描述逻辑、在线校验测试是否成功。例如,要求 ChatGPT 基于给定内容生成高速公路上车辆切入场景的时序图。
2025-03-25
怎么零基础学习ai
以下是零基础学习 AI 的建议: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 对于中学生学习 AI,建议如下: 1. 从编程语言入手学习: 可以从 Python、JavaScript 等编程语言开始学习,学习编程语法、数据结构、算法等基础知识。 2. 尝试使用 AI 工具和平台: 可以使用 ChatGPT、Midjourney 等 AI 生成工具,体验 AI 的应用场景。 探索一些面向中学生的 AI 教育平台,如百度的“文心智能体平台”、Coze 智能体平台等。 3. 学习 AI 基础知识: 了解 AI 的基本概念、发展历程、主要技术如机器学习、深度学习等。 学习 AI 在教育、医疗、金融等领域的应用案例。 4. 参与 AI 相关的实践项目: 参加学校或社区组织的 AI 编程竞赛、创意设计大赛等活动。 尝试利用 AI 技术解决生活中的实际问题,培养动手能力。 5. 关注 AI 发展的前沿动态: 关注 AI 领域的权威媒体和学者,了解 AI 技术的最新进展。 思考 AI 技术对未来社会的影响,培养对 AI 的思考和判断能力。 总之,无论是零基础还是中学生,学习 AI 可以从编程基础、工具体验、知识学习、实践项目等多个方面入手,全面系统地学习 AI 知识和技能。
2025-03-25
LLM的原理
LLM(大语言模型)的工作原理如下: 以“我今天吃了狮子头和蔬菜”这句话为例,在 Transformer 中,会由 Attention 层对其加入更多信息补充,如“狮子头是一道菜”“今天是星期六”等,这些补充信息作为输入给到下一个 Attention 层,层与层之间,哪些信息补充、保留、传递,由模型自主学习,最终模型把海量数据以关系网形式“消化”并保留重要相关性。 形象地说,就像人阅读文章时的连贯性注意力过程,在阅读理解时,脑子里会消化吸收记忆,记忆的不是点状知识,而是网状经验。 大模型以词向量和 Transformer 模型学习海量知识,把知识作为向量空间中的关系网存储,接受输入时通过向量空间中的匹配进行输出。 观察大模型回复,是一个字一个字流式输出的,因为大模型确实在一个字一个字地推理生成内容。比如输入法输入联想,根据输入的单个字推测下一个字,加入上下文能帮助模型理解下一个字。但存在两个问题:一是全量数据计算算力吃不消,二是仅算字的概率易被不相干信息干扰,此时词向量机制和 Transformer 模型中的 Attention 自注意力机制解决了难题。 另外,RAG 对大语言模型的作用就像开卷考试对学生,事实性知识与 LLM 的推理能力相分离,被存储在容易访问和及时更新的外部知识源中,分为参数化知识(模型训练中学习得到,隐式储存在神经网络权重中)和非参数化知识(存储在外部知识源,如向量数据库中)。
2025-03-25
我想学习ai视频ai生图的相关技能,并且我不想速成,我想了解其中的底层原理以便可以更好的控制生成的内容,我应该如何学习
以下是关于学习 AI 视频和生图相关技能的一些建议: 一、基础概念 1. 模型 Checkpoint:生图必需的基础模型,任何生图操作必须选定一个才能开始。 Lora:低阶自适应模型,可视为 Checkpoint 的小插件,用于精细控制面部、材质、物品等细节。 VAE:编码器,功能类似于滤镜,可调整生图的饱和度,一般选择 840000 这个。 2. 提示词 Prompt 提示词:想要 AI 生成的内容,需要花费功夫学习,可从照抄别人开始。 负向提示词 Negative Prompt:想要 AI 避免产生的内容,同样需要学习,可从照抄开始。 3. 其他概念 ControlNet:控制图片中特定图像,如人物姿态、特定文字、艺术化二维码等,属于高阶技能,可后续学习。 ADetailer:面部修复插件,用于治愈脸部崩坏,是高阶技能。 二、参数设置 1. 迭代步数:AI 调整图片内容的次数。步数越多,调整越精密,出图效果理论上更好,但耗时越长,且并非越多越好。 2. 尺寸:图片生成的尺寸大小,需适中选择,太小生成内容有限,太大 AI 可能放飞自我。 3. 生成批次和每批数量:决定重复生成图的批次和每批次同时生成的图片数量。 4. 提示词引导系数:指图像与 prompt 的匹配程度,数字增大图像更接近提示,但过高会使图像质量下降。 5. 随机数种子:固定后可对图片进行“控制变量”操作,首次生成图时无需关注。 6. 重绘幅度:图生图时用到,幅度越大,输出图与输入图差别越大。 在学习过程中,您可以先从熟悉基础模型、提示词和常见参数设置入手,通过实践和参考他人的经验不断积累知识,逐步掌握更高级的技能和工具。
2025-03-24
AI发展技术原理脑图
以下是关于 AI 发展技术原理的相关内容: 腾讯研究院发布的“AI50 年度关键词”报告,基于全年三十余万字的 AI 进展数据库,精选 50 个年度关键词,覆盖大模型技术的八大领域,通过“快思考”与“慢思考”两种维度进行分析,形成 50 张 AI 技术图景卡片。其中“快思考”维度采用人机协同方式呈现印象卡片,“慢思考”维度深入分析技术发展底层逻辑。 DiT 架构是结合扩散模型和 Transformer 的架构,用于高质量图像生成的深度学习模型,其带来了图像生成质的飞跃,且 Transformer 从文本扩展至其他领域,Scaling Law 在图像领域开始生效。 从 AI 发展历程来看,自 1950 年提出至今短短几十年,在国内近 20 年随着互联网发展才开始普及。最初应用主要是基于 NLP 技术的聊天和客服机器人,随后中英文翻译、语音识别、人脸识别等技术取得突破并广泛应用。但以前模型应用范围相对狭窄,而 OpenAI ChatGPT 等大型语言模型的突破展示了新的发展路线,通过大规模模型预训练可涌现出广泛智能应用。 小白理解 AI 技术原理与建立框架的相关内容包括:思维链可显著提升大语言模型在复杂推理的能力;RAG 是检索增强生成,可搭建企业和个人知识库;PAL 是程序辅助语言模型;ReAct 是 reason 与 action 结合的框架,可让模型动态推理并与外界环境互动。 希望以上内容对您有所帮助。
2025-03-24
我是一名硬件工程师 如何让ai快速理解我的原理图并优化
以下是关于让 AI 理解原理图并优化的相关知识: 1. 在 AI 硬件发展方面,存算一体的方式是未来的趋势。对比人脑,其能耗低,使用存算一体的芯片有望诞生全新算法,运行几百亿参数的大模型的最佳架构也是存算一体,因其避免了数据搬运。 2. 大模型在通用知识方面较强,但对专业领域知识了解不足。将大模型与私域知识结合有 5 种方法:重新训练(拿私域数据重新训练大模型)、微调(拿私有数据 finetuning 大模型)、RAG(将知识库里的知识搜索送进大模型)、关键词工程(写好提示词)、加长 Context(当 Context 能无限长时,可将知识和记忆 prefill 到 Context 里)。学术界中,做深度学习的人偏向于用 RAG,做过搜索的人偏向于用 Long Context。 3. 在 Trae 优化代码方面,当请求“帮我把当前的代码给优化一下”时,请求先到 Trae 自己的服务器,服务器再请求对应模型返回数据。不会发送本地代码文件,只发送“文件名”加“问题”,且在最开始 Trae 打开项目进行索引构建时,已在云端构建好项目文件。 对于您作为硬件工程师让 AI 快速理解原理图并优化的需求,目前可能需要进一步探索如何将原理图的特征和相关信息转化为适合 AI 处理和理解的形式,或许可以借鉴上述将专业知识与大模型结合的方法,以及利用高效的数据库和模型架构来提高处理效率。
2025-03-23
Stable Diffusion 是 Diffusion Model 的优化版本,引入了潜在空间(Latent Space)技术,这个潜在空间(Latent Space)是什么意思,它的实现原理是什么?
在 Stable Diffusion 模型中,潜在空间(Latent Space)指的是图像的潜在分布,它包含了与图像相关的所有信息。 图像被映射到潜在空间后,扩散过程在这个空间中进行。ComfyUI 中的许多操作都在潜在空间中进行,如 KSampler 节点就是在这个空间中执行采样过程。在潜在空间中,通过节点调整对潜在空间的操作,如噪声添加、去噪步数等,这部分通常由潜在空间操作模块来实现。 在 Stable Diffusion 模型中,图像的潜在分布是通过一个编码器解码器结构来学习的。编码器将图像映射到潜在空间,而解码器则将潜在空间中的向量映射回图像空间。通过这种方式,模型可以学习到图像的潜在分布,从而实现图像生成、编辑和操作。 在采样过程中,Stable Diffusion 模型通过逐步降低噪声水平来生成图像。在这个过程中,模型根据当前的噪声水平预测图像的潜在分布,然后根据这个分布生成一个新的图像。这个过程重复进行,直到生成一个高质量的图像。 与之对应的是像素空间(Pixel Space),像素空间指的是图像中每个像素的原始颜色或强度值所组成的空间。图像可以看作是一个二维或三维的矩阵,其中每个元素代表一个像素。在像素空间中,图像的表示是密集的,且包含了大量的细节信息。
2025-03-21
简述manus的原理
Manus 是一款由中国团队研发的全球首款通用型 AI 代理工具,于 2025 年 3 月 5 日正式发布。 其原理包括以下方面: 1. 技术架构: 基于多智能体(Multiple Agent)架构,运行在独立的虚拟机中。 核心功能由多个独立模型共同完成,分别专注于不同的任务或领域,如自然语言处理、数据分析、推理等。 关键组件包括虚拟机、计算资源、生成物、内置多个 agents 等。 采用“少结构,多智能体”的设计哲学,在数据质量高、模型强大、架构灵活的情况下,自然涌现 AI 的能力。 2. 工作流程: 意图识别:从用户输入中提取关键词和任务类型,引导用户补充信息以明确需求。 任务初始化:创建任务文件夹并启动隔离环境(Docker 容器),为任务执行提供独立的运行空间。 步骤规划:利用推理模型将任务拆解为具体步骤,将步骤信息写入 todo.md 文件进行跟踪。 任务执行:通过 function call 调度专用智能体执行具体任务,各智能体将执行结果写入任务文件夹,主线程负责更新任务状态并调度下一步骤。 归纳整理:汇总所有执行结果并针对用户需求整理输出,提供任务产物(文档/代码/图片等)供用户浏览或下载,收集用户反馈。 3. 专用智能体设计: Search Agent:调用搜索 API 获取结果列表,使用无头浏览器模拟网页浏览行为,结合多模态模型提取有效信息,通过点击和滚动操作获取更多内容。 Code/DataAnalysis Agent:根据需求创建并执行代码,保存执行结果,提供预览功能。 Manus 还存在一些改进空间,如使用 DAG 替代线性任务依赖关系、引入自动化测试智能体进行质量控制、实现用户介入与自动执行的混合模式。在技术评估方面,工程实现完善,交互体验优于同类产品,但技术壁垒不高,主要依赖模型能力,Token 消耗较高,成本问题需要解决,任务准确性和用户满意度有待更多案例验证。 当前的 Manus 约等于 AI 操纵着一个没有图形界面的 Linux 虚拟机和浏览器,能感知电脑环境,执行各类操作,如跑各种 linux 下的指令、库、程序(cd、ls 指令、python 等),访问各种网页、获取一些 API 接口的数据,但因无图形界面,无法运行图形程序。访问网页时,阻挠人类使用的各种要素也会打扰到 Manus。Manus 提供了用户可视的命令行视窗、浏览器、vscode 两种选项,方便查看运行指令、接管网页和修改文件。用户还可给 Manus 上传文件,未来也可能对接私有 API。
2025-03-19
当代人工智能的进步正在催化博弈论的复兴
当代人工智能的进步正在催化博弈论的复兴。以下是关于人工智能简史的相关内容: 早期的国际象棋对弈程序以搜索为基础,通过程序尝试估计对手在给定棋步数量下可能走的棋步,并依据在几步棋内所能达到的最佳位置选择最佳棋步,这促进了阿尔法贝塔剪枝搜索算法的发展。搜索策略在对局即将结束时效果良好,因为此时棋步可能性的搜索空间局限在很小范围内,但在对局刚开始时,搜索空间巨大,需考虑通过学习人类棋手的现有对局来改进算法。随后的实验采用了基于案例的推理,即程序在知识库中寻找与当前棋局位置相似的案例来决定棋步。能够战胜人类棋手的现代对弈程序基于神经网络和强化学习,程序通过长时间与自己对弈,从自身错误中学习来学会下棋,这与人类学习下棋过程相似,且计算机程序学习速度更快。 人工智能作为一个领域始于二十世纪中叶,最初符号推理流行并带来重要进展,如专家系统,但因从专家提取知识、用计算机可读形式表现及保持知识库准确性复杂且成本高,20 世纪 70 年代出现“人工智能寒冬”。随着时间推移,计算资源变便宜、数据增多,神经网络方法在计算机视觉、语音理解等领域展现出可与人类媲美的性能,过去十年中,“人工智能”一词多被用作“神经网络”的同义词。在创建国际象棋计算机对弈程序时,可观察到这些方法的变化。
2024-09-28
【深度拆解】ChatGPT-4o背后的技术革新:从语言模型到多模态跨越
ChatGPT4o 背后的技术革新具有重要意义。人类的感知多样,仅靠语言描述世界远远不够,多模态理解非常有用,能更全面学习世界、理解人类需求等。2023 年 9 月 GPT4v 发布,将大语言模型竞赛带入多模态模型时代,如 ChatGPT 能看图说话、画图,Google 的 Gemini 支持多种模态,但 OpenAI 常抢先发布。今年 5 月 OpenAI 发布 GPT4o,向智能体方向迈进,其是之前技术的集大成者,通过端到端神经网络混合训练视觉、语音和文本数据,平均音频输入反应时间为 300 毫秒,能感悟人类表达的情绪等。OpenAI 未公开 GPT4o 技术细节,唯一线索来自内部炼丹师的博客 AudioLM。此外,GPT4 是 OpenAI 的多模态工具,在编程任务中表现出色,ChatGPT 是用户友好界面,可与高级语言模型交互。2024 年 5 月 14 日 OpenAI 发布 GPT4o,效率高、价格降低、延迟缩短。9 月 16 日 OpenAI 推出 o1 系列模型,在复杂任务中表现优异,o1mini 适合编码任务,两个模型已在 ChatGPT 中提供,有免费或收费版本。
2025-03-09
Claude大模型背后是什么公司
Claude 大模型背后的公司是 Anthropic。Claude 系列在前段时间推出了 Claude3.5Sonnet 等模型,并且在代码生成等方面表现出色。同时,Anthropic 公司的 Claude 还具有较大的上下文窗口等特点。
2025-01-17
企业做自己的小模型,需要用到的工具及工具背后的公司都有哪些?
企业做自己的小模型,可能会用到以下工具及背后的公司: 1. 在编排(Orchestration)方面,涉及的公司如 DUST、FIAVIE、LangChain 等,其提供的工具可帮助管理和协调各部分及任务,确保系统流畅运行。 2. 部署、可扩展性和预训练(Deployment, Scalability, & PreTraining)类别中,像 UWA mosaicm、NMAREL、anyscale 等公司提供的工具,有助于部署模型、保证可扩展性及进行预训练。 3. 处理上下文和嵌入(Context & Embeddings)的工具,相关公司有 TRUDO、Llamalndex、BerriAI 等,能帮助模型处理和理解语言上下文,并将词语和句子转化为计算机可理解的形式。 4. 质量保证和可观察性(QA & Observability)方面,例如 Pinecone、drant、Vald 等公司提供的工具,可确保模型表现并监控其性能和状态。 此外,还有以下工具和相关公司: 1. 图片生成 3D 建模工具,如 Tripo AI(由 VAST 发布)、Meshy、CSM AI(Common Sense Machines)、Sudo AI、VoxCraft(由生数科技推出)等。 企业还可能涉及具身智能、3D 眼镜、AI 绘本、AI 图书、学习机、飞书的多维表格、蚂蚁的智能体、Coze 的智能体、Zeabur 等云平台、0 编码平台、大模型(通义、智谱、kimi、deepseek 等)、编程辅助、文生图(可灵、即梦等)等方面,可能需要相应资质。
2024-11-20
AI创作背后的版权陷阱
AI 创作背后存在诸多版权陷阱: 1. AI 绘画的版权归属存在争议。有人认为其只是从现有素材库拼接和重塑内容,创意来自原始艺术家;也有人认为 prompt 体现了创意。在新法律法规出台前,使用 AI 制作的图版权可能为公版,难以保证著作权。为确保版权,应将机器生成内容作为原始素材,突出“人类创作”部分。 2. 在数字化时代,AI 技术发展对现有知识产权法律体系构成挑战。如广州互联网法院的一起判决,标志着我国在知识产权保护方面的司法实践迈出重要一步。AI 在内容生成方面,对版权法的挑战主要体现在输入端训练数据合法性和输出端生成内容的版权属性问题。 3. 律师建议,AI 直接生成的东西在中国及海外通常不受法律保护。因此需要对其进行后期修改,如土豆人 tudou_man 作品后期部分占 30%40%,使用正版软件并完成版权链。大众对 AIGC 作品存在抵触,如认为其盗图抢饭碗,初学者使用 AI 时往往不做处理,而专业创作者会尽力规避瑕疵,导致创作成本较高。
2024-11-03
请给我推荐一个适合非技术人员学习的提示词工程手册,但是我不希望提示词工程手册太实操导向,需要包括背后的原理和逻辑,而不是只像一个公式一样的教给我
以下为您推荐适合非技术人员学习的提示词工程手册: 1. 小七姐:Prompt 喂饭级系列教程 小白学习指南(二) 强调对框架的理解和运用,介绍了多种提示词框架,如情境,并提供了学习的三步走:懂原理、找需求、用框架。 2. 19. RAG 提示工程系列(一) 虽然网络上提示工程资料众多,但 RAG 任务中提示工程的资料相对较少。此系列将带领大家了解 RAG 架构的概念、组成、痛点及提示词工程在其中的应用,并指导实操案例,帮助编写调试符合企业生产级标准的提示词。 3. VIRTUAL Claude 官方文档提示词工程最佳实践@未来力场编译版(中英对照) 指出提示词工程是一门实证科学,需要不断测试和迭代,包括开发测试用例、构建初版提示词、进行用例测试、优化提示词和分享完善后的提示词,同时不要忘记测试边缘情况。
2024-08-15
sora背后的核心技术是啥
Sora 是一种基于扩散模型的视频生成模型,其核心技术是一个预训练的扩散变换器。扩散模型是一种生成式模型,通过学习输入数据的分布来生成新的数据。在 Sora 中,扩散模型被用来学习视频的分布,从而生成新的视频。 Sora 的核心技术源自 Diffusion Transformers(DiT),它结合了 VAE、ViT、DDPM 技术,优化了视频生成。具体来说,Sora 将原始输入视频压缩成一个时空潜在表示,然后从压缩视频中提取一系列时空潜在补丁,以封装短时间间隔内的视觉外观和运动动态。这些补丁类似于语言模型中的单词标记,为 Sora 提供了用于构建视频的详细视觉短语。Sora 的文本到视频生成是通过扩散变换器模型执行的。从一个充满视觉噪声的帧开始,模型迭代地去除噪声并根据提供的文本提示引入特定细节。本质上,生成的视频通过多步精炼过程出现,每一步都使视频更加符合期望的内容和质量。 总的来说,Sora 的核心技术是一个预训练的扩散变换器,它能够解析文本并理解复杂的用户指令,然后通过扩散模型生成视频。
2024-06-10