Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

AI是如何产生的,AI是什么

Answer

AI(人工智能)的起源最早可追溯到上世纪。1943 年,心理学家麦卡洛克和数学家皮特斯提出机器的神经元模型,为后续神经网络奠定基础。1950 年,计算机先驱图灵最早提出图灵测试,作为判别机器是否具备智能的标准。1956 年,在美国达特茅斯学院,马文·明斯基和约翰·麦凯西等人共同发起召开了著名的达特茅斯会议,“人工智能”一词被正式提出,并确立为一门学科。

人工智能是一门研究如何使计算机表现出智能行为的科学。例如,对于“根据照片判断一个人的年龄”这类无法明确编程的任务,正是人工智能感兴趣的。

在技术原理方面,相关技术名词众多。AI 即人工智能,机器学习包括监督学习、无监督学习、强化学习。监督学习有标签的训练数据,无监督学习学习的数据无标签。强化学习从反馈里学习。深度学习参照人脑有神经网络和神经元。生成式 AI 可以生成文本、图片、音频、视频等内容形式,LLM 是大语言模型。2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出 Transformer 模型,它完全基于自注意力机制处理序列数据,比 RNN 更适合处理文本的长距离依赖性。

Content generated by AI large model, please carefully verify (powered by aily)

References

走入AI的世界

2022年11月30日,OpenAI发布基于GPT 3.5的ChatGPT,自此开始,一股AI浪潮席卷全球,但AI(人工智能,Artificial Intelligence)并不是近几年才有的新鲜事,他的起源,最早可以追溯到上世纪的1943年。1943年,心理学家麦卡洛克和数学家皮特斯提出了机器的神经元模型,为后续的神经网络奠定了基础。1950年,伟大的计算机先驱图灵最早提出了图灵测试,做为判别机器是否具备智能的标准(即在一个对外不可见的房间内放置一台可以与外界沟通的机器,如果外界交互的人无法区分房间里到底是真人还是机器,那么我们就说房间里的机器具备了智能,通过了图灵测试)。1956年,在美国一个小镇的达特茅斯学院中,马文·明斯基和约翰·麦凯西拉着香农大佬站台背书,共同发起召开了著名的达特茅斯会议,在这次会议上,人工智能Artificial Intelligence一词被正式提出,并做为一门学科被确立下来。此后接近70年的漫长时间里,AI的发展起起落落,两次掀起人类对AI毁灭人类世界的恐慌,热度拉满,但又最终以“不过如此”冷却收场。图1 AI发展史

人工智能简介和历史

译者:Miranda,原文见https://microsoft.github.io/AI-For-Beginners/lessons/1-Intro/README.md[heading1][课前测试](https://red-field-0a6ddfd03.1.azurestaticap[content]人工智能(Artificial Intelligence)是一门令人兴奋的科学,它研究我们如何使计算机表现出智能行为,例如做一些人类所擅长的事情。最初,查尔斯·巴贝奇(Charles Babbage)发明了计算机,用于按照一套明确定义的程序(即算法)来对数字进行运算。现代计算机虽然比19世纪提出的原始计算机模型要先进得多,但仍然遵循着相同的受控计算理念。因此,如果我们知道实现某些目标所需的每一个步骤及其顺序,就有可能编写出程序,使计算机按照我们的想法去做这些事。✅“根据照片判断一个人的年龄”是一件无法明确编程的任务,因为我们并不知道当我们在做这件事时,是如何经过某些清晰的步骤,从而在脑海中得到一个数字的。然而,对于有些任务,我们并不能知道明确的解法。例如从一个人的照片中来判断他/她的年龄。我们之所以能做这件事,是因为我们见过了很多不同年龄的人,但我们无法明确自己的大脑具体是通过哪些步骤来完成这项任务的,所以也无法编写明确的程序让计算机来完成。这种类型的任务正是人工智能(简称AI)感兴趣的。✅想一想,如果人工智能得以实现,哪些任务可以被交给计算机完成?考虑金融、医学和艺术领域,这些领域如今是如何从人工智能中受益的?

【AI学习笔记】小白如何理解技术原理与建立框架(通俗易懂内容推荐)

一、视频一主要回答了什么是AI大模型,原理是什么。1、概念:生成式AI生成的内容,叫做AIGC2、概念与关系:相关技术名词1)AI——人工智能2)机器学习——电脑找规律学习,包括监督学习、无监督学习、强化学习。3)监督学习——有标签的训练数据,算法的目标是学习输入和输出之间的映射关系。包括分类和回归。4)无监督学习——学习的数据没有标签,算法自主发现规律。经典任务包括聚类,比如拿一堆新闻文章,让模型根据主题或内容特征分成具有相似特征的组。5)强化学习——从反馈里学习,最大化奖励或最小化损失;类似训小狗。6)深度学习——一种方法,参照人脑有神经网络和神经元(因为有很多层所以叫深度)。神经网络可以用于监督学习、无监督学习、强化学习。7)生成式AI——可以生成文本、图片、音频、视频等内容形式8)LLM——大语言模型。对于生成式AI,其中生成图像的扩散模型就不是大语言模型;对于大语言模型,生成只是其中一个处理任务,比如谷歌的BERT模型,可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类;3、技术里程碑——2017年6月,谷歌团队发表论文《Attention is All You Need》。这篇论文首次提出了Transformer模型,它完全基于自注意力机制(Self-Attention)来处理序列数据,而不需要依赖于循环神经网络(RNN)或卷积神经网络(CNN)。GPT含义:Transformer是关键。Transformer比RNN更适合处理文本的长距离依赖性。

Others are asking
AI数字员工
AI 数字员工是为企业和个人提供数字劳动力,解决重复性、创意性工作难题的一种应用。以下是关于 AI 数字员工的一些详细信息: 摊位活动主题和内容:为企业和个人提供数字劳动力,解决重复性、创意性工作难题。体验 demo 包括抖音运营、AI 客服、智能问诊、企业定制员工、定制知识库等。 学习路径:结合“一人公司”的愿景,需要大量的智能体(数字员工)替我们打工。未来的 AI 数字员工会以大语言模型为大脑,串联所有已有的工具和新造的 AI 工具。创造者的学习方向是用大模型和 Agent 模式把工具串起来,着重关注在创造能落地 AI 的 agent 应用。Agent 工程(基础版)如同传统的软件工程学,有一个迭代的范式,包括梳理流程、“任务”工具化、建立规划、迭代优化。 数字人相关技术: 算法驱动的数字人:开源代码仓库包括 ASR 语音识别(如 openai 的 whisper、wenet、speech_recognition)、AI Agent(大模型如 ChatGPT、Claude、ChatGLM、文星一言、千帆大模型、通义千问等,Agent 部分可使用 LangChain 的模块自定义)、TTS(如微软的 edgetts、VITS、sovitssvc)。 人物建模模型:可以通过手动建模(音频驱动)或者 AIGC 的方式生成人物的动态效果。但简单的构建方式还存在一些问题,如如何生成指定人物的声音、TTS 生成的音频如何精确驱动数字人口型以及做出相应的动作、数字人如何使用知识库做出某个领域的专业性回答。
2025-03-08
openai deep research使用技巧
OpenAI 的 Deep Research 功能能够整合多源信息,进行复杂的信息查询与分析,并生成专业水准的报告,同时详细展示思考和搜索过程。目前,该功能仅支持文本输出,未来还将增加嵌入式图片、数据可视化等功能。使用入口为在 ChatGPT 输入框中选择「Deep Research」模式,输入问题后即可开始体验。 在 OpenAI 推出「Deep Research」功能一天后,Hugging Face 的工程师迅速联合推出了免费开源的版本 Open Deep Research,能自主浏览网页、滚动页面、处理文件,以及基于数据进行计算。使用入口为前往 Demo 网站(opendeepresearch.vercel.app)体验。 Deep Research 让 AI 自动完成多步骤研究任务,快速分析海量信息并生成专业报告,具备自动化信息汇总、文献引用与多领域适用性,适合科研、工程、金融等行业。目前向 Pro 用户开放,未来将扩展至 Plus 和 Team 用户,并提供更强大的功能。 该智能体基于优化版 OpenAI o3 模型,结合网络浏览和 Python 分析能力,实现高效研究,适用于科学、政策、工程等高强度知识工作,也能帮助购物者做复杂决策。Pro 用户已可使用,后续将逐步向 Plus、Team 和企业用户开放。
2025-03-08
AI如何应用到供应链中
AI 在供应链中的应用主要包括以下几个方面: 1. 预测性维护:AI 可以用于预测供应链中机器设备的故障,帮助避免停机,保障供应链的稳定运行。 2. 质量控制:通过检测产品缺陷,提高供应链中产品的质量。 3. 优化供应链:利用 AI 分析历史数据和市场变化,自动生成采购计划、库存预测、物流优化等内容,从而提高供应链的效率和降低成本。 4. 风险管理:诸如保障技术和技术标准等可信 AI 工具能够支持供应链风险管理。这些工具还能通过在这些系统中建立合理的信任,推动 AI 的采用和应用,使用户相信整个供应链中的关键 AI 相关风险已被识别、解决和减轻。例如,通过描述制造商应采取的确保 AI 系统安全的措施,技术标准可以向 AI 系统的购买者和用户提供保证,即已采取了适当的以安全为重点的措施,最终鼓励采用 AI。 5. 责任评估与分配:对 AI 框架的评估将评估法律责任在不同的 AI 应用和系统中是否得到有效和公平的分配。在实施框架时,将持续广泛地收集来自监管机构、行业、学术界和民间社会关于其对 AI 生命周期中不同参与者的影响的证据,以持续监测框架对 AI 供应链中参与者的影响。特别关注基础模型,因为它们可能对生命周期问责制构成潜在挑战,尤其是作为开源模型时。通过集中评估是否有足够的 AI 问责措施,可以评估是否需要对整个经济和 AI 生命周期中的 AI 责任进行进一步干预。
2025-03-08
AI如何应用到供应链
AI 在供应链领域有以下应用: 1. 预测性维护:可预测机器故障,帮助工厂避免停机,保障供应链的稳定运行。 2. 质量控制:检测产品缺陷,提高产品质量,减少因质量问题导致的供应链中断。 3. 优化供应链:通过分析数据来优化供应链流程,提高效率和降低成本。 4. 风险管理:利用工具如保证技术和技术标准来支持供应链风险管理,增强对系统的信任,让用户确信关键的 AI 相关风险已被识别、处理和减轻。 5. 物流和配送:优化物流路线和配送计划,降低运输成本,提高货物送达的及时性和准确性。 需要注意的是,以上内容由 AI 大模型生成,请仔细甄别。
2025-03-08
有什么构建类似键鼠精灵 AI工作流的方法
以下是构建类似键鼠精灵 AI 工作流的一些方法: 1. 利用 Comfyui 界面: 打开 Comfyui 界面后,右键点击界面,找到 Comfyui LLM party 的目录。您可以手动连接节点来实现工作流,例如实现一个最简单的 AI 女友工作流;也可以直接将相关工作流文件(如)拖拽到 Comfyui 界面中一键复刻。 2. 启动 ollama: 从 ollama 的 github 仓库找到对应版本并下载。 启动 ollama 后,在 cmd 中输入 ollama run gemma2 将自动下载 gemma2 模型到本地并启动。将 ollama 的默认 base URL=http://127.0.0.1:11434/v1/以及 api_key=ollama 填入 LLM 加载器节点即可调用 ollama 中的模型进行实验。 如果 ollama 连接不上,很可能是代理服务器的问题,请将 127.0.0.1:11434 添加到不使用代理服务器的列表中。 3. 低代码+UI 版本: 方法一:直接使用 Coze 的 API 对接前端 UI 框架,将工作流逻辑集中在工程模板端,实现前后端分离的处理方式。 方法二:直接调用大模型 API,并通过前端代码实现提示词处理和逻辑控制,将交互流程完全放入前端代码中。 实现文件上传:通过 Coze 的,用户可将本地文件上传至 Coze 的云存储。在消息或对话中,文件上传成功后可通过指定 file_id 来直接引用该文件。 关于 API 的使用及工作流执行流程可以参考。 4. 飞书机器人创建: 飞书应用建立: 在中创建自建应用。 进入应用获取 app_id 与 app_secret。 添加应用能力>开启机器人应用能力。 权限管理>消息与群组>选择需要的权限打开。 安全设置>将 comfyUI 运行的电脑 IP 加入白名单。 发布机器人以应用生效。 获取群组或用户 id: 要先把创建的机器人拉到群组中或者拉进私聊。 飞书开发平台找到发送消息的开发文档。 右侧点击获取 token。 选择 receive id type,chat_id 对应群组,open_id 与 user_id 对应个人,点击选择成员,复制对应的 id 即可。 如果需要让机器人发送语音,需要自行在电脑上安装 ffmpeg 。
2025-03-08
帮我搜索一下一个图片处理的AI工具,我记得是以M开头的
以下为您找到一些以 M 开头的图片处理 AI 工具: Midjourney Murf 此外,还有其他一些常见的图片处理 AI 工具,如 DallE、Leonardo、BlueWillow 等。 如果您需要去除图片水印,以下是一些推荐的工具: AVAide Watermark Remover:在线工具,支持多种图片格式,操作简单,还提供去除文本、对象等功能。 Vmake:可上传最多 10 张图片,适合快速去除水印并在社交媒体分享图片的用户。 AI 改图神器:提供智能图片修复去水印功能,支持粘贴或上传手机图像,操作方便。 这些工具各有特点,您可以根据具体需求选择。
2025-03-08
Monica和Openai的记忆功能是如何让大模型产生记忆的?是什么原理?
大模型的记忆功能实现方式较为复杂,不同的模型可能有所不同。 OpenAI 的模型中,大模型 LLM 扮演了“大脑”的角色,其记忆功能可能通过“Agent = LLM + 规划 + 记忆 + 工具使用”的基础架构来实现。但需要注意的是,对于 ChatGPT 这类模型,实际上其本质上并没有直接的记忆功能。它能理解之前的交流内容,是因为每次将之前的对话内容作为新的输入重新提供给模型。这种记忆功能并非由大型模型直接实现,而是通过在别处进行存储来达成。 如果对话内容过长,可能会影响模型的整体性能。解决这个问题的一个简单方法是启动另一个对话框。对于之前的数据,通常只能进行总结。
2025-03-01
目前通过AI给自己擅长的领域赋能,且已经产生收益的案例有哪些
以下是一些通过 AI 给自己擅长的领域赋能且已经产生收益的案例: 在法律法规领域,AI 已在多个方面带来重大进展和效率提升,如交通监控、银行账户欺诈检测、工业大规模安全关键实践的控制,以及加速新药发现和应对气候变化的技术等。 在企业应用方面,工作流程自动化平台 ServiceNow 通过 AI 驱动的 Now Assist 实现了近 20%的事件避免率;Palo Alto Networks 利用 AI 降低了处理费用的成本;Hubspot 利用 AI 扩大了能够支持的用户规模;瑞典金融科技公司 Klarna 通过将 AI 融入用户支持,在运行率方面节省了 4000 多万美元。如今,成千上万的公司正在将 AI 整合到他们的工作流程中,以扩张规模和降低成本。
2025-02-20
deepseek的产生对AI行业的影响
DeepSeek 的产生对 AI 行业具有多方面的影响: 1. 华尔街分析师的反应: DeepSeek 展示出媲美领先 AI 产品性能的模型,但成本仅为其一小部分,在全球主要市场的 App Store 登顶。 Jefferies 警告其技术可能打破资本开支狂热,Citi 对其技术突破提出质疑。 高盛预测其可能改变科技巨头与初创公司的竞争格局,降低 AI 行业进入门槛。 2. 实际使用体验: 在文字能力上表现突出,尤其在中文场景中高度符合日常、写作习惯,但在专业论文总结方面稍弱。 数学能力经过优化,表现不错;编程能力略逊于 GPT,据用户反馈。 GRPO 算法替代传统 PPO,降低价值函数估计难度,提高语言评价场景的灵活性与训练速度。 3. 训练成本方面: 训练成本远高于传闻的 600 万美元,总计约 13 亿美元。 定价低于实际成本,导致高额亏损。 MixtureofExpert 方法降低计算需求,但大规模内存使用可能反而增加总成本。 4. 竞争格局影响: 以低成本开发顶级 AI 模型的 Mistral AI 被中国 DeepSeek 迅速赶超。 DeepSeek 的“极简算力”模式可能削弱 Mistral 的竞争优势。
2025-02-17
如何更好的使用知识库,我在知识库中增加了很多文档,但是反而感觉导致AI产生大量幻觉和混乱
以下是关于如何更好使用知识库以及 RAG 相关的知识: RAG 技术是 AI 领域的重要技术,但存在一些常见误区: 不能随意输入任何文档就期望得到准确回答,RAG 流程包含离线环节(文档解析、切割及向量化写入向量数据库)和在线检索环节(用户问题理解、初步检索、重排序及大模型生成),任何环节都会影响最终质量,且有效实现 RAG 系统需要考虑多个复杂因素,如文档预处理、高效索引、相关性排序等。 RAG 虽然能显著减少幻觉,但不能完全消除,只要有大模型参与,就可能产生幻觉。 RAG 仍消耗大模型的 Token,最终还是将知识库中检索的结果给到 LLM,由 LLM 进行重新整理输出。 对于使用知识库的建议: 知识库在不断更新,常来逛逛。 遇到问题先搜索,搜不到就提问。 好用的内容要收藏,方便下次查找。 每个人都有自己的节奏,不要着急。 一旦有了自己的方向和持续玩的 AI 角度,知识库中的大量高质量教程就是最好的助力。 当成为高手并愿意分享时,为社区留下内容。 开源知识库和社区的意义在于共建、共学、互相帮助。 不要怕犯错,大胆尝试。 RAG(RetrievalAugmented Generation)即检索增强生成,由检索器和生成器组成,检索器从外部知识中快速找到与问题相关的信息,生成器利用这些信息制作精确连贯的答案,适合处理需要广泛知识的任务,能提供详细准确的回答。
2025-02-11
到今天,大语言模型还会产生“幻觉”吗
截至今天,大语言模型仍会产生“幻觉”。 大语言模型偶尔会根据输入输出一些荒谬或不符合事实的内容,目前各家大语言模型在该问题上的表现都不尽如人意。产生“幻觉”的原因包括: 1. 样本存在错误(Imitative Falsehoods):如果大语言模型学习的“教材”中有错误,它也容易给出错误回答。缓解该问题的一个办法是上采样(Up Sampling)。 2. 信息过时(Outdated Factual Knowledge):以前正确的信息现在可能过时了。 此外,大语言模型通过训练数据猜测下一个输出结果,可能因错误数据导致给出错误答案,优质数据集对其很重要。如果在其训练过程中,模型被暴露于大量知识之中,它并没有完美地记忆所见到的信息,并不十分清楚自己的知识边界,可能会尝试回答有关深奥话题的问题,并虚构听起来有道理但实际不正确的内容。 在构建应用程序时,可以使用一些技术来避免这种情况,例如要求模型先从文本中找到相关引文,然后使用引文回答问题,并将答案追溯回源文件,这通常有助于减少“幻觉”的发生。
2025-01-22
意识是什么 怎么产生的
意识是一种复杂且神秘的现象。从根本上说,它在大脑中产生,虽然科学家尚未完全研究出其核心机制,但目前认为: 大脑通过数亿万计的神经元连接产生意识,让我们有了记忆的感觉,无数的想法在这个生物的神经网络里时刻涌现。 意识体现在觉察、反思、自主能力上,是帮助个体主动反思做决策的轮子,本质是对上下文的推理补全。 大脑主要用于创造想法,而非储存,我们的大脑无法记住所有看过的细节,在神经元连接中产生意识,让我们用合适的神经通路连接想法,并通过主观的自我“意识”解释出来。
2025-01-01