Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

ai概念第一次是被谁提出来的,什么时候?

Answer

AI 概念首次被提出是在 1956 年的达特茅斯会议上。这次会议由时任达特茅斯学院的数学助理教授约翰·麦卡锡发起,邀请了包括马文·明斯基、克劳德·香农、艾伦·纽厄尔、赫伯特·西蒙等多位杰出科学家参与。约 47 位参与者就自动计算机、编程语言、神经网络、计算理论等多个前沿话题进行了深入讨论,并首次提出了“人工智能”(Artificial Intelligence)这一术语,为这个新兴领域正式命名。在此之前,艾伦·图灵和约翰·冯·诺依曼等人通过理论和实践为 AI 奠定了初步的理论基础。1943 年,心理学家麦卡洛克和数学家皮特斯提出了机器的神经元模型,为后续的神经网络奠定了基础。1950 年,图灵最早提出了图灵测试,作为判别机器是否具备智能的标准。此后近 70 年,AI 的发展起起落落。

Content generated by AI large model, please carefully verify (powered by aily)

References

AI-Agent系列(一):智能体起源探究

1956年,人工智能(AI)作为一个独立学科的诞生标志性事件——达特茅斯会议,在美国达特茅斯学院举行。这次会议不仅汇集了当时AI领域的先驱者,还明确了未来人工智能研究的方向和目标。在二战后,随着科技的迅速进步,计算机科学取得了显著发展。艾伦·图灵和约翰·冯·诺依曼等人通过理论和实践为AI奠定了初步的理论基础。图灵通过提出“图灵测试”探索机器是否能模拟人类智能,而冯·诺依曼则设计了现代计算机体系结构的原型。这次会议由时任达特茅斯学院的数学助理教授约翰·麦卡锡发起,他邀请了包括马文·明斯基、克劳德·香农、艾伦·纽厄尔、赫伯特·西蒙等多位杰出科学家参与。这些来自不同学科领域的专家共同探讨了一个前沿话题:机器如何模仿人类的学习和其他智能行为。尽管与会者之间并没有达成广泛共识,这次为期两个月的研讨会却产生了划时代的成果:首次提出了“人工智能”(Artificial Intelligence)这一术语,并为这个新兴领域正式命名。这一概念的提出不仅标志着人工智能作为一个独立研究领域的诞生,也指明了后续研究者的探索方向。此外,会议聚集了大约47位参与者,他们就自动计算机、编程语言、神经网络、计算理论等多个前沿话题进行了深入讨论。虽然当时看来颇具争议,但这些讨论为人工智能的发展奠定了坚实基础,并促进了不同学科间的交流与合作。在之后岁月里,参与者各自对AI领域做出显著贡献:麦卡锡开发Lisp编程语言极大地促进自然语言处理和机器学习;明斯基在神经网络研究中做出重要贡献并在MIT建立第一个AI实验室;香农通过信息论支持数据处理;罗切斯特在IBM开发早期计算机并提出基本概念。

AI-Agent系列(一):智能体起源探究

1956年,人工智能(AI)作为一个独立学科的诞生标志性事件——达特茅斯会议,在美国达特茅斯学院举行。这次会议不仅汇集了当时AI领域的先驱者,还明确了未来人工智能研究的方向和目标。在二战后,随着科技的迅速进步,计算机科学取得了显著发展。艾伦·图灵和约翰·冯·诺依曼等人通过理论和实践为AI奠定了初步的理论基础。图灵通过提出“图灵测试”探索机器是否能模拟人类智能,而冯·诺依曼则设计了现代计算机体系结构的原型。这次会议由时任达特茅斯学院的数学助理教授约翰·麦卡锡发起,他邀请了包括马文·明斯基、克劳德·香农、艾伦·纽厄尔、赫伯特·西蒙等多位杰出科学家参与。这些来自不同学科领域的专家共同探讨了一个前沿话题:机器如何模仿人类的学习和其他智能行为。尽管与会者之间并没有达成广泛共识,这次为期两个月的研讨会却产生了划时代的成果:首次提出了“人工智能”(Artificial Intelligence)这一术语,并为这个新兴领域正式命名。这一概念的提出不仅标志着人工智能作为一个独立研究领域的诞生,也指明了后续研究者的探索方向。此外,会议聚集了大约47位参与者,他们就自动计算机、编程语言、神经网络、计算理论等多个前沿话题进行了深入讨论。虽然当时看来颇具争议,但这些讨论为人工智能的发展奠定了坚实基础,并促进了不同学科间的交流与合作。在之后岁月里,参与者各自对AI领域做出显著贡献:麦卡锡开发Lisp编程语言极大地促进自然语言处理和机器学习;明斯基在神经网络研究中做出重要贡献并在MIT建立第一个AI实验室;香农通过信息论支持数据处理;罗切斯特在IBM开发早期计算机并提出基本概念。

走入AI的世界

2022年11月30日,OpenAI发布基于GPT 3.5的ChatGPT,自此开始,一股AI浪潮席卷全球,但AI(人工智能,Artificial Intelligence)并不是近几年才有的新鲜事,他的起源,最早可以追溯到上世纪的1943年。1943年,心理学家麦卡洛克和数学家皮特斯提出了机器的神经元模型,为后续的神经网络奠定了基础。1950年,伟大的计算机先驱图灵最早提出了图灵测试,做为判别机器是否具备智能的标准(即在一个对外不可见的房间内放置一台可以与外界沟通的机器,如果外界交互的人无法区分房间里到底是真人还是机器,那么我们就说房间里的机器具备了智能,通过了图灵测试)。1956年,在美国一个小镇的达特茅斯学院中,马文·明斯基和约翰·麦凯西拉着香农大佬站台背书,共同发起召开了著名的达特茅斯会议,在这次会议上,人工智能Artificial Intelligence一词被正式提出,并做为一门学科被确立下来。此后接近70年的漫长时间里,AI的发展起起落落,两次掀起人类对AI毁灭人类世界的恐慌,热度拉满,但又最终以“不过如此”冷却收场。图1 AI发展史

Others are asking
两张照片还原人脸,用什么AI工具
以下是一些可用于两张照片还原人脸的 AI 工具和方法: 1. Stable Diffusion: 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,在显存不够时放大图片。 利用 GFPGAN 算法将人脸变清晰,可参考文章。 将图片发送到图生图中,打开 stableSR 脚本放大两倍,切换到 sd2.1 模型进行修复,vae 选择 vqgan,提示词可不写。 2. Midjourney(MJ):加上简单的相机参数、写实风格,使用 MJ v 6.0 绘图,可调整图片比例。 3. InsightFaceSwap: 输入“/saveid”,idname 可随意填写,上传原图。 换脸操作输入“/swapid”,id 填写之前设置的名称,上传分割好的图。 选择效果较好的图片,注意插件每日免费使用次数。 此外,还会用到 PS 进行图片的角度调整、裁切、裁剪、拼接等操作。
2025-02-21
AI编程的落地场景是什么
以下是 AI 编程的一些落地场景: 1. 智能体开发:从最初只有对话框的 chatbot 到具有更多交互方式的应用,低代码或零代码的工作流在某些场景表现较好。 2. 证件照应用:以前实现成本高,现在可通过相关智能体和交互满足客户端需求。 3. 辅助编程: 适合原型开发、架构稳定且模块独立的项目。 对于像翻译、数据提取等简单任务,可通过 AI 工具如 ChatGPT 或 Claude 解决,无需软件开发。 支持上传图片、文档,执行代码,甚至生成视频或报表,大幅扩展应用场景。 4. 自动化测试:在模块稳定后引入,模块变化频繁时需谨慎。 5. 快速迭代与发布 MVP:尽早发布产品,不追求完美,以天或周为单位快速迭代。 需要注意的是,AI 编程虽强,但目前适用于小场景和产品的第一个版本,在复杂应用中可能导致需求理解错误从而使产品出错。在进度不紧张时可先尝试新工具,成熟后再大规模应用。同时,压缩范围,定义清晰的 MVP(最小可行产品),先完成一个 1 个月内可交付的版本,再用 1 个月进行优化迭代。
2025-02-21
不同ai模型的应用场景
以下是不同 AI 模型的应用场景: 基于开源模型: Civitai、海艺 AI、liblib 等为主流创作社区,提供平台让用户利用 AI 技术进行图像创作和分享,用户无需深入了解技术细节即可创作出较高质量的作品。 基于闭源模型: OpenAI 的 DALLE 系列: 发展历史:2021 年初发布 DALLE,2022 年推出 DALLE 2,2023 年发布 DALLE 3,不断提升图像质量、分辨率、准确性和创造性。 模型特点:基于变换器架构,采用稀疏注意力机制,DALLE 2 引入 CLIP 模型提高文本理解能力,DALLE 3 优化细节处理和创意表现。 落地场景:2C 方面可控性强于 Midjourney,但复杂场景和细节处理能力不如 Midjourney;2B 方面与 Midjourney 场景类似。 商业化现状:通过提供 API 服务,使企业和开发者能集成到应用和服务中,采取分层访问和定价策略。 伦理和合规性:加强对生成内容的审查,确保符合伦理和法律标准。 大模型: 文本生成和内容创作:撰写文章、生成新闻报道、创作诗歌和故事等。 聊天机器人和虚拟助手:提供客户服务、日常任务提醒和信息咨询等服务。 编程和代码辅助:用于代码自动补全、bug 修复和代码解释。 翻译和跨语言通信:促进不同语言背景用户之间的沟通和信息共享。 情感分析和意见挖掘:为市场研究和产品改进提供数据支持。 教育和学习辅助:创建个性化学习材料、自动回答学生问题和提供语言学习支持。 图像和视频生成:如 DALLE 等模型可根据文本描述生成相应图像,未来可能扩展到视频内容生成。 游戏开发和互动体验:创建游戏中的角色对话、故事情节生成和增强玩家沉浸式体验。 医疗和健康咨询:理解和回答医疗相关问题,提供初步健康建议和医疗信息查询服务。 法律和合规咨询:帮助解读法律文件,提供合规建议,降低法律服务门槛。 这些只是部分应用场景,随着技术进步和模型优化,AI 模型在未来可能会拓展到更多领域和场景。同时,也需注意其在隐私、安全和伦理方面的挑战。
2025-02-21
爆款AI视频
以下是关于爆款 AI 视频的相关内容: 2025AI 春晚: 行业身份:首届 AI 春晚发起人&总导演,包括央视总台论坛&直播、TEDxAI 演讲、得到分享等。 爆款视频案例:快手&国家反诈中心合作,微博 650w+热搜,快手 520w+热搜(6 月 28 日);央视&海尔冰箱首支 AI 概念短片(6 月 29 日);个人制作视频,无推流,快手平台 636w 播放(6 月 29 日)。 社区与企业关系:涉及 WaytoAGI、AIGCxChina 等聚会,以及德必集团、万兴集团、福布斯 AItop50 等的论坛分享,还有嘉定区政府颁奖、温州 AI 音乐大会、腾讯研究院论坛、江西财经大学分享、宣亚集团分享等。 WTF:1w 粉 10w 粉仅仅用时 13 天,像素级拆解《动物时装秀》: 作者模仿动物时装秀账号效果不错并分享教程。一个爆款视频至少要满足以下几点: 切片:短视频通过不断切片,增加信息密度,从长视频和其他短视频中脱颖而出。 通感:利用人的直觉脑,不让观众动脑子,如头疗、水疗直播间靠声音让人舒服,美食直播间靠展示美食吸引人。 反差:可参考抖音航线里行舟大佬的相关文档。 视频模型:Sora: OpenAI 突然发布首款文生视频模型 Sora,能够根据文字指令创造逼真且充满想象力的场景,生成 1 分钟的超长一镜到底视频,女主角、背景人物等都有惊人的一致性和稳定性,远超其他 AI 视频工具。
2025-02-21
AI音频与数字人
以下是关于 AI 音频与数字人的相关信息: 数字人口播配音: 操作指引:输入口播文案,选择期望生成的数字人形象及目标语言,选择输出类型,点击开始生成。 支持的数字人形象和语言多样,能让视频制作更高效。 图片换脸: 操作指引:上传原始图片和换脸图片,点击开始生成。 图片大小上限 5M,支持 JPG、PNG 格式。 视频换脸: 操作指引:上传原始视频和换脸图片,点击生成。 音频合成数字人: 操作指引:上传音频文件,选择数字人角色和输出类型,点击开始生成。 支持 MP3 和 WAV 格式的音频文件,文件大小上限 5M,工具支持使用 100+数字人模板,可解决无素材冷启问题。 AI 配音: 多语种(包含菲律宾语、印地语、马来语等小语种)智能配音,同时支持区分男声和女声。 操作指引:输入需配音文案,选择音色,点击立即生成。 注意输入的配音文案需和选择音色语种保持一致。 AI 字幕: 操作指引:点击上传视频,开始生成,字幕解析完成后下载 SRT 字幕。 支持 MP4 文件类型,大小上限为 50M。 在数字人语音合成方面,提到了声音克隆,有新的声音克隆且音质很不错。算法驱动的数字人相关开源代码仓库有: ASR 语音识别:openai 的 whisper(https://github.com/openai/whisper)、wenet(https://github.com/wenete2e/wenet)、speech_recognition(https://github.com/Uberi/speech_recognition)。 大模型:ChatGPT、Claude、ChatGLM、文星一言、千帆大模型、通义千问等。 Agent 部分:可以使用 LangChain 的模块去做自定义(https://www.langchain.com/)。 TTS:微软的 edgetts(https://github.com/rany2/edgetts)、VITS(https://github.com/jaywalnut310/vits)、sovitssvc(https://github.com/svcdevelopteam/sovitssvc)。 构建简单数字人的方式包括通过手动建模(音频驱动)或者 AIGC 的方式生成人物的动态效果(例如 wav2lip 模型),但仍存在一些问题,如如何生成指定人物的声音、TTS 生成的音频如何精确驱动数字人口型以及做出相应的动作、数字人如何使用知识库做出某个领域的专业性回答等。
2025-02-21
现阶段最智能的AI工具是哪一款?
现阶段很难确切地指出哪一款 AI 工具是最智能的,因为这取决于不同的应用场景和需求。以下为您介绍一些表现出色的 AI 工具: Unity 推出的两款 AI 工具: Copliot 工具:可通过与 Muse Chat 聊天快速启动创建游戏项目,如生成塔防类游戏基础框架、创建人物角色动作,还能协助编码和熟悉工程环境。 Unity Sentis:能在 Unity 运行时为游戏或应用程序嵌入 AI 模型,增强玩法和功能,是首个将 AI 模型嵌入实时 3D 引擎的跨平台解决方案。 基于 2022 年 9 月至 2023 年 8 月访问量的 10 个最佳人工智能工具: ChatGPT:访问量达 146 亿次,在美国使用率最高,男性用户占比较大,多用于写作和内容创作、教育和常识等方面。 Character AI QuillBot Midjourney Hugging Face Google Bard NovelAI CapCut JanitorAI Civitai 不同类型的 AI 工具在不同领域各有优势,例如聊天机器人在流量份额上占比较大,而图像生成器、视频生成器、语音和音乐工具等也在各自领域表现出色。您可以根据具体需求选择适合的工具。
2025-02-21
纯小白对于模型等等都没有任何概念能看懂吗
对于纯小白来说,理解模型等相关概念是有一定挑战的,但通过以下内容可以逐步入门: Tusiart 相关概念: 1. 首页包含模型、帖子、排行榜,其中发布了各种模型和生成的图片。不同模型有 checkpoint 和 lora 两种标签,有的还有 XL 标签属于 SDXL 新模型。点击可查看模型详细信息,下方是返图区。 2. 基础模型(checkpoint)是生图必需的,任何生图操作都要先选定。它与 lora 不同,lora 是低阶自适应模型,类似小插件,可有可无,但对细节控制有价值,旁边的数值是其权重。 3. ControlNet 可控制图片中特定图像,如人物姿态、生成特定文字等,属于高阶技能。 4. VAE 是编码器,类似滤镜,调整生图饱和度,一般选择 840000 这个。 5. Prompt 提示词是想要 AI 生成的内容,负向提示词是想要 AI 避免产生的内容。 6. 图生图是上传图片后,sd 根据图片、模型及输入信息重绘,重绘幅度越大,输出图与输入图差别越大。 AI 技术原理相关概念: 1. 生成式 AI 生成的内容称为 AIGC。 2. 相关技术名词: AI 即人工智能。 机器学习是电脑找规律学习,包括监督学习(有标签的训练数据,学习输入和输出映射关系,包括分类和回归)、无监督学习(学习数据无标签,算法自主发现规律,如聚类)、强化学习(从反馈学习,最大化奖励或最小化损失,类似训小狗)。 深度学习是一种参照人脑的方法,有神经网络和神经元,神经网络可用于多种学习。 生成式 AI 可生成文本、图片、音频、视频等。 LLM 是大语言模型,生成图像的扩散模型不是大语言模型,有的大语言模型如谷歌的 BERT 模型可用于语义理解。 3. 技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出 Transformer 模型,它基于自注意力机制处理序列数据,比 RNN 更适合处理文本长距离依赖性。
2025-02-13
AI领域,传统机器学习,nlp,深度学习,大语言模型,rag,agent,请生成一张让普通人能看懂的AI领域概念图
以下是为您生成的 AI 领域概念图的相关解释: 人工智能(AI):一种目标,让机器展现智慧。 生成式人工智能(GenAI):一种目标,让机器产生复杂有结构的内容。 机器学习:一种手段,让机器自动从资料中找到公式,包括监督学习、无监督学习、强化学习。 监督学习:有标签的训练数据,学习输入和输出之间的映射关系,包括分类和回归。 无监督学习:学习的数据没有标签,算法自主发现规律,如聚类。 强化学习:从反馈里学习,最大化奖励或最小化损失。 深度学习:一种更厉害的手段,参照人脑有神经网络和神经元(因为有很多层所以叫深度),神经网络可用于多种学习方式。 大语言模型(LLM):是一类具有大量参数的“深度学习”模型。对于生成式 AI,生成图像的扩散模型不是大语言模型;对于大语言模型,生成只是其中一个处理任务,如谷歌的 BERT 模型可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类。 AIGC(Artificial Intelligence Generated Content):利用人工智能技术生成内容的新型生产方式,包括文本、图像、音频和视频等内容。 ChatGPT:一个应用实例,通过投喂大量资料预训练后,会通过聊天玩“文字接龙游戏”。它是美国 OpenAI 公司开发的一款基于大型语言模型(LLM)的对话机器人,能够根据用户的输入生成连贯且相关的文本回复。 2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它完全基于自注意力机制(SelfAttention)来处理序列数据,比 RNN 更适合处理文本的长距离依赖性。
2025-02-11
以知识图谱的形式生成一张涉及大模型概念的知识图谱
以下是一张涉及大模型概念的知识图谱: 大模型 Embedding 技术 句子和文档嵌入 Doc2Vec:扩展了 Word2Vec,能够为整个文档生成统一的向量表示。 Average Word Embeddings:将一段文本中所有单词的嵌入取平均作为整体的文本表示。 Transformers Sentence Embeddings:如 BERT 的标记对应的向量,或者专门针对句子级别的模型如 SentenceBERT。 实体/概念嵌入 Knowledge Graph Embeddings:如 TransE、DistMult、ComplEx 等,用于将知识图谱中的实体和关系嵌入到低维向量空间中。 其他类型 图像 Embeddings:使用卷积神经网络(CNN)进行图像特征提取,得到的特征向量即为图像嵌入。 音频 Embeddings:在语音识别和声纹识别中,将声音信号转化为有意义的向量表示。 用户/物品 Embeddings:在推荐系统中,将用户行为或物品属性映射到低维空间以进行协同过滤或基于内容的推荐。 图 Embeddings:用于学习图结构的表示学习方法,将图中的节点和边映射到低维向量空间中。通过学习图嵌入,可以将复杂的图结构转化为向量表示,以捕捉节点之间的结构和关联关系。这些方法可以通过 DeepWalk、Node2Vec、GraphSAGE 等算法来实现。图嵌入在图分析、社交网络分析、推荐系统等领域中广泛应用,用于发现社区结构、节点相似性、信息传播等图属性。 关键技术标准 机器学习标准:规范机器学习的训练数据、数据预处理、模型表达和格式、模型效果评价等,包括自监督学习、无监督学习、半监督学习、深度学习和强化学习等标准。 知识图谱标准:规范知识图谱的描述、构建、运维、共享、管理和应用,包括知识表示与建模、知识获取与存储、知识融合与可视化、知识计算与管理、知识图谱质量评价与互联互通、知识图谱交付与应用、知识图谱系统架构与性能要求等标准。 大模型标准:规范大模型训练、推理、部署等环节的技术要求,包括大模型通用技术要求、评测指标与方法、服务能力成熟度评估、生成内容评价等标准。 自然语言处理标准:规范自然语言处理中语言信息提取、文本处理、语义处理等方面的技术要求和评测方法,包括语法分析、语义理解、语义表达、机器翻译、自动摘要、自动问答和语言大模型等标准。 智能语音标准:规范前端处理、语音处理、语音接口和数据资源等技术要求和评测方法,包括深度合成的鉴伪方法、全双工交互、通用语音大模型等标准。 计算机视觉标准:规范图像获取、图像/视频处理、图像内容分析、三维计算机视觉、计算摄影学和跨媒体融合等技术要求和评价方法,包括功能、性能和可维护性等标准。 生物特征识别标准:规范生物特征样本处理、生物特征数据协议、设备或系统等技术要求,包括生物特征数据交换格式、接口协议等标准。 国内大模型 通用模型:如文心一言、讯飞星火等,处理自然语言。 垂直模型:专注特定领域如小语种交流、临床医学、AI 蛋白质结构预测等。 大模型的体验 以‘为什么我爸妈结婚的时候没有邀请我参加婚礼’和‘今天我坐在凳子上’为例,体验了 Kimi、通义千问、豆包等大模型的回答和续写能力,发现回复有差异,且大模型基于统计模型预测生成内容。 大语言模型的工作原理 包括训练数据、算力、模型参数,在训练数据一致情况下,模型参数越大能力越强,参数用 b 链形容大小。 Transformer 架构:Transformer 是大语言模型训练架构,17 年出现用于翻译,具备自我注意力机制能理解上下文和文本关联,其工作原理是单词预测,通过嵌入、位置编码、自注意力机制生成内容,模型调教中有控制输出的 temperature。 大模型幻觉:大模型通过训练数据猜测下一个输出结果,可能因错误数据导致给出错误答案,优质数据集对其很重要。 Prompt 的分类和法则 分为 system prompt、user prompt 和 assistant prompt。 写好 prompt 的法则包括清晰说明、指定角色、使用分隔符、提供样本等,核心是与模型好好沟通。 Fine tuning 微调:基于通用大模型,针对特定领域任务提供数据进行学习和调整,以适应特定领域的需求。 RAG 概念:未对 RAG 的具体内容进行详细阐述,仅提出了这个概念。
2025-02-11
请给出10个 有关 AI 的概念的 知识点 并用150字 进行介绍
以下是 10 个有关 AI 的概念知识点及介绍: 1. 人工智能(AI):目标是让机器展现智慧,是一个广泛的领域。 2. 生成式人工智能(GenAI):旨在让机器产生复杂有结构的内容。 3. 机器学习:使机器能自动从资料中找到公式的手段。 4. 深度学习:基于类神经网络,具有大量参数的更强大手段。 5. 大语言模型(LLMs):具有大量参数的深度学习模型。 6. ChatGPT:基于大型语言模型的对话机器人,能根据输入生成文本回复。 7. AIGC:利用人工智能技术生成包括文本、图像等多种内容的新型生产方式。 8. 统计学基础:包含均值、中位数、方差等统计概念,是 AI 的重要基础。 9. 监督学习:如线性回归、决策树等常用算法。 10. 无监督学习:如聚类、降维等算法。
2025-02-08
提供几篇讲解AI 相关的基本概念、知识框架的文章
以下是为您提供的讲解 AI 相关的基本概念、知识框架的文章: 1. 新手学习 AI 方面: 建议阅读「」部分,熟悉 AI 的术语和基础概念,了解人工智能的主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 在「」中,您将找到一系列为初学者设计的课程,特别推荐李宏毅老师的课程。 您还可以通过在线教育平台(如 Coursera、edX、Udacity)上的课程按照自己的节奏学习,并获得证书。 2. 书籍推荐方面: 《认知神经学科:关于心智的生物学》(作者:Michael S.Gazzaniga;Richard B.Lvry;George R.Mangun):世界权威的认知神经科学教材,认知神经科学之父经典力作,系统了解认知神经科学的发展历史、细胞机制与认知、神经解剖与发展、研究方法、感觉知觉、物体识别、运动控制、学习与记忆、情绪、语言、大脑半球特异化、注意与意识、认知控制、社会认知和进化的观点等。 《神经科学原理》(作者:Eric R.Kandel;James H.Schwartz):让您系统神经元的细胞和分子生物学、突触传递、认知的神经基础、感觉、运动、神经信息的加工、发育及行为的出现、语言、思想、感动与学习。 《神经生物学:从神经元到脑》(作者:John G.Nicholls 等著):神经生物学领域内的一本世界级名著,涵盖了神经科学的方方面面,系统介绍了神经生物徐的基本概念、神经系统的功能及细胞和分子机制。 3. 相关文章方面: 《》:这是公众号琢磨事翻译的领英工程师的一篇文章,分享了在领英开发 AI 驱动产品的经验,重点探讨了生成式 AI 的相关内容。 《麻省理工科技评论》发布的《》:万字长文探讨了人工智能的定义和发展,详细阐述了人工智能的基本概念、技术背景及其在各个领域的应用,分析了当前的技术挑战和未来的发展方向,还讨论了人工智能对社会、经济和伦理的影响。
2025-02-06
100 万 tokens 什么概念
100 万 tokens 具有以下重要意义和影响: 算法视角:更宽的上下文窗口允许模型在推理时纳入训练数据中未找到的大量新的、特定于任务的信息,从而提高各种自然语言或多模式任务的性能。对越来越长的上下文进行数据建模的能力经历了从 Shannon 1948 提出的 2gram 语言模型、到 1990 年代和 2000 年代的现代 ngram 模型(5 个上下文 token),2010 年代的循环神经网络(RNN)达到数百个 token(Jozefowicz 等),到 2023 年 Anthropic 将上下文扩展到几十万 token 的发展历程。 产品视角:长上下文意味着 LLM 理解能力增强。从提示词到 RAG,都是为了增加给模型的上下文,进而让需求更明确,让模型理解得更好。从用数据训练模型、到指令微调,到提示词和 RAG,到大模型的超长下文,机器越来越像人了。提示词和 RAG 正在快速被弱化,但出于工程和商业考量,目前在很多领域还是主流,未来依然可能是一个混合状态。模型上下文长度覆盖了书籍、电影、长视频等产品的通用长度,应该会引发相关链路上产品交互层的变化。 具体应用:Gemini1.5 支持 100 万 token,可以一次性处理大量信息,比如 1 小时的视频,11 小时的音频,超过 30,000 行代码或超过 700,000 个单词的代码库。Claude2100 k 模型的上下文上限是 100k Tokens,即 100000 个 Token。ChatGPT16 k 模型的上下文上限是 16k Tokens,即 16000 个 Token;ChatGPT432 k 模型的上下文上限是 32k Tokens,即 32000 个 Token。Token 限制同时对一次性输入和一次对话的总体上下文长度生效,当达到上限时,会遗忘最前面的对话。若想直观查看 GPT 如何切分 token,可以打开。此外,英文的 Token 占用相对于中文较少,因此很多中文长 Prompt 会被建议翻译成英文设定,然后要求中文输出。
2025-01-28
如果你是一个AI学习者,你会提出哪些问题?让自己的学习更有策略?
以下是作为 AI 学习者可能会提出的一些问题,以使学习更有策略: 1. 如何评估不同 AI 模型的性能和适用场景? 2. 怎样选择适合自己需求的 AI 工具和技术? 3. 在 AI 领域,哪些基础知识是必须牢固掌握的? 4. 如何将 AI 应用于实际项目中,以获得更好的效果? 5. 对于 AI 产生的结果,如何进行有效的评估和验证? 6. 怎样跟上 AI 领域快速发展的步伐,及时更新知识? 7. 在学习 AI 时,如何避免常见的错误和陷阱? 8. 如何培养自己在 AI 方面的创新思维和解决问题的能力? 9. 对于不同学习水平(如高中生、大学生、专业人士),学习 AI 的重点和方法有何不同? 10. 在 AI 学习中,如何平衡理论学习和实践操作?
2025-02-17
一、学习内容 1. AI工具的操作:了解并掌握至少一种AI工具的基本操作,如智能代码、流程管理、智能报表、数据分析、图像识别、文字生成等。 2. AI工具在本职工作的应用:思考并提出AI工具如何帮助你更高效地完成本职工作,包括但不限于提高工作效率、优化工作流程、节约成本、提升交付质量等。 3. AI工具在非本职工作的潜力推演:探索AI工具如何在你的非本职工作领域发挥作用,比如在公司管理、团队领导、跨部门合作、团队发展以及市场研究等方面。提出这些工具如何被有效利用,以及它们可能带来的改
以下是关于学习 AI 的相关内容: 一、AI 工具的操作 要了解并掌握至少一种 AI 工具的基本操作,如智能代码、流程管理、智能报表、数据分析、图像识别、文字生成等。 二、AI 工具在本职工作的应用 思考并提出 AI 工具如何帮助更高效地完成本职工作,包括但不限于提高工作效率、优化工作流程、节约成本、提升交付质量等。 三、AI 工具在非本职工作的潜力推演 探索 AI 工具在非本职工作领域,如公司管理、团队领导、跨部门合作、团队发展以及市场研究等方面的作用,思考如何有效利用这些工具以及它们可能带来的改变。 四、学习路径 1. 对于不会代码的学习者: 20 分钟上手 Python+AI,在 AI 的帮助下可以完成很多基础的编程工作。若想深入,需体系化了解编程及 AI,至少熟悉 Python 基础,包括基本语法(如变量命名、缩进等)、数据类型(如字符串、整数、浮点数、列表、元组、字典等)、控制流(如条件语句、循环语句)、函数(定义和调用函数、参数和返回值、作用域和命名空间)、模块和包(导入模块、使用包)、面向对象编程(类和对象、属性和方法、继承和多态)、异常处理(理解异常、异常处理)、文件操作(文件读写、文件与路径操作)。 2. 新手学习 AI: 了解 AI 基本概念,建议阅读「」部分,熟悉术语和基础概念,浏览入门文章。 开始 AI 学习之旅,在「」中找到为初学者设计的课程,推荐李宏毅老师的课程,也可通过在线教育平台(如 Coursera、edX、Udacity)按自己节奏学习并获证书。 选择感兴趣的模块深入学习,掌握提示词技巧。 实践和尝试,理论学习后通过实践巩固知识,在知识库分享实践作品和文章。 体验 AI 产品,如 ChatGPT、Kimi Chat、智谱、文心一言等聊天机器人,了解其工作原理和交互方式。 五、工具推荐 1. Kimi 智能助手:ChatGPT 的国产平替,上手体验好,适合新手入门学习和体验 AI。不用科学网、不用付费、支持实时联网,是国内最早支持 20 万字无损上下文的 AI,对长文理解做得好,能一次搜索几十个数据来源,无广告,能定向指定搜索源(如小红书、学术搜索)。 PC 端: 移动端(Android/ios): 2. 飞书:汇集各类 AI 优质知识库、AI 工具使用实践的效率工具,助力人人成为效率高手。
2025-02-07
我想要搭建一个能够帮我阅读并总结提炼,同时能在我提出问题时,随时在我给他提供的知识库中检索的AI Agent,如何用Coze搭建?
搭建能够阅读、总结提炼并在给定知识库中检索的 AI Agent 可以使用 Coze 按照以下步骤进行: 1. 规划 制定任务的关键方法。 总结任务目标与执行形式。 将任务分解为可管理的子任务,确立逻辑顺序和依赖关系。 设计每个子任务的执行方法。 2. 实施 在 Coze 上搭建工作流框架,设定每个节点的逻辑关系。 详细配置子任务节点,并验证每个子任务的可用性。 3. 完善 整体试运行 Agent,识别功能和性能的卡点。 通过反复测试和迭代,优化至达到预期水平。 关于一些其他问题: 1. 如何判断自己的任务/Prompt 是否需要拆解为工作流? 构建稳定可用的 AI Agent 是一个需要不断调试和迭代的过程。通常先从当前性能最强的 LLM(如 ChatGPT4 和 Claude 3.5 sonnet)着手,先用单条 Prompt 或 Prompt Chain 来测试任务的执行质量和稳定性。然后,根据实际执行情况、最终投产使用的 LLM,逐步拆解子任务,降低 LLM 执行单任务的难度,直到达成工程目标。一般对于场景多样、结构复杂、对输出格式要求严格的内容,基本可以预见到需要将其拆解为工作流。此外,如果涉及生成多媒体内容或从网络自主获取额外信息等能力,必然需要通过工作流来调用相应的插件。 2. 只用了一段 Prompt 的 Agent,还算 AI Agent 吗? 算。详见
2025-02-06
假设你是经验丰富的AI工程师,现在需要搭建能够自行识别电商直播平台中客户提出的问题并给出不死板且AI痕迹弱的回答,同时直播的主播是我们虚拟的数字人,请问需要怎么做,请给出具体步骤
以下是搭建能够自行识别电商直播平台中客户提出的问题并给出自然回答,且直播主播为虚拟数字人的具体步骤: 1. 选择数字人工具软件: 考虑实时驱动和非实时驱动两类。实时驱动能在直播时更改音频话术,真人可接管,标准零售价一年 4 6 万往上;非实时驱动一个月 600 元,但效果差,类似放视频的伪直播,市场价格混乱。 2. 确定数字人运营服务模式: 按直播间成交额抽佣。 3. 明确适用品类和场景: 适用于不需要强展示的商品,如品牌食品饮料;适用于虚拟商品,如门票、优惠券等;店播效果较好,数据能保持跟真人一样;不适用于促销场景和服装品类。 4. 了解 AI 直播的壁垒和未来市场格局: 目前有技术门槛,如更真实的对口型、更低的响应延迟等,但长期看技术上无壁垒。 市场不会一家独大,可能 4 5 家一线效果公司,大多为二三线效果公司。 能把客户服务好、规模化扩张的公司更有价值,疯狂扩代理割韭菜的公司售后问题多。 有资源、有业务的大平台下场可能带来降维打击,如剪映若不仅提供数字人,还提供货品供应链、数据复盘分析等全环节服务,会对其他公司形成竞争压力。
2025-02-06
few shot 和 one shot等最初是由什么论文提出的?
Few shot 和 One shot 等概念的相关研究在自然语言处理领域有较多的文献提及。 Zero Shot Prompting(零样本提示):是一种让模型在没有额外训练数据的情况下对之前未见过的数据进行预测的技术。传统机器学习通常需大量标记训练数据来准确预测,而在提示工程中,零样本学习可用于生成自然语言文本,无需显式编程或预定义模板,创造更多样化和动态的文本生成模型,使机器能在训练中没见过某些对象时仍能识别和分类。 One Shot Prompting(一样本提示):通过有限的输入数据(如单个示例或模板)来生成自然语言文本,可与对话管理和上下文建模等自然语言处理技术结合,创造更复杂、有效的文本生成系统。在提示工程中,只需提供有限输入数据,如单个示例或模板,有助于从大型语言模型中创建可预测的输出。 Few Shot Prompting(少样本提示):将少量示例(通常为两到五个)提供给模型,以便快速适应新对象的例子。在提示工程中,少样本学习可用于创建自然语言文本,只需提供有限的输入数据,能创造更灵活和适应性强的文本生成模型。 零样本、一样本和少样本提示的区别在于:零样本提示是模型在没有额外训练的情况下进行预测;一样本提示需要提供一个示例或模板;而少样本提示则需要提供更少的数据,通常是两到五个示例。 这些提示工程技术能提供更灵活和可控的方式从自然语言生成模型中输出文本,充分利用模型强大能力,创造更准确、多样和吸引人的输出,满足应用程序需求。
2025-02-04
李飞飞提出的Agent AI的核心观点是什么
李飞飞提出的核心观点包括: 人工智能的下一步应从大型语言模型转向大型模型,强调视觉智能在理解和与世界互动中的重要性,计算机需要具备空间智能,能够建模、推理并在三维空间中互动。 通过空间智能,AI 将理解真实世界,能够处理视觉数据,做出预测并根据这些预测采取行动。空间智能使机器不仅能够相互交互,还能与人类以及真实或虚拟的三维世界进行交互。
2025-01-13