Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

帮我生成一个 AI 写作领域的产业图谱,只关注应用层,按照产品的类别来分类和举例

Answer

以下是 AI 写作领域应用层的产业图谱分类及举例: |序号|产品|主题|使用技术|市场规模|一句话介绍| |----|----|----|----|----|----| |1|Grammarly、秘塔写作猫|AI 智能写作助手|自然语言处理|数十亿美元|利用 AI 技术辅助用户进行高质量写作。| |2|阿里小蜜等电商客服|AI 智能客服外包服务|自然语言处理、机器学习|数十亿美元|为企业提供智能客服解决方案。|

Content generated by AI large model, please carefully verify (powered by aily)

References

走入AI的世界

[title]走入AI的世界[heading2]2产业全局:AI产业上下游图谱拆解及机会分析关于AI产业的产业链结构,大致可分为:上游的基础设施层(数据与算力)、中游的技术层(模型与算法)、下游的应用层(应用与分发),详细内容参见图5。图5 AI产业链图谱-1对于这上中下游分别有哪些值得我们重点关注的企业(或产品),我在公开互联网上苦寻良久,始终找不到一张满意的图(要么维度不全,要么举例不准,有失公允),于是我做了大量的信息收集和汇总工作,并结合几家知名咨询机构的文档,绘制了这样一张图。图6 AI产业链图谱-2图6中有大量细节,其中各家公司的logo排列顺序综合考虑了其市占率,行业影响力,代表性等因素,积淀深厚的老牌大厂和值得关注的亮眼新星均有体现,未避免广告嫌疑,在这里不展开对其进行详细说明了,如果有大家不了解不认识的公司/平台(或产品),非常推荐你搜索了解一下(注:此图绘制于2024年5月)。

走入AI的世界

我们来简要概括说说这张图中每一层的商机洞察(以下内容仅代表个人观点,供参考):1.目前来看,基础设施层布局投入的确定性最强,以发展的眼光看,当前算力缺口巨大,但这部分涉及到海量的资金投入,入行资源门槛较高,作为关键的基础设施,国内未来更多的将会由“国家队”扛起重任。普通人如果没有强资源需谨慎入局,因为很可能你无法快速对接到客户资源,等不到赚钱就现金流断裂,可以更多的考虑“合作生态”的切入机会。2.技术层当前仍然处于技术爆炸时刻,相关技术的迭代速度可以夸张点用“日新时异”来形容,迭代进步飞速,如果你或你的团队规模不大,但又有志于做这一层相关的事情,须慎重考虑“技术迭代风险”的问题(例如基于某种开源模型更进一步训练垂直领域模型,很可能等你训练出来的时候,更强更新的开源模型已经发布,让你的工作意义大打折扣),至于基础的通用大模型,非巨无霸公司就不是很建议考虑了,搞基础大模型的研发是一件十分烧钱的事情,且众多互联网大厂,AI独角兽,知名高校都已悉数下场神仙打架,完成了布局,开启了“百模大战”,但竞争的终局,只会有少数赢家。应用界不需要那么多同质化的大模型,最后多半是赢家通吃的局面。3.应用层是一片时代赋予我们的广阔蓝海,尽管2024年这个方向的从业者在飞速增加,也涌现出一批做垂直产业/行业/细分领域垂直模型或大模型应用的产品,但坦诚的讲,以我们自身的深度实践和用户的切实需求来看,当前针对行业/细分领域的成熟应用产品并不多,让人哇塞的“杀手级”应用更是凤毛麟角。对于普通个体和小团队,强烈推荐重点思考和布局应用层,这一层拥有超级机会和巨大发展空间。

100个AI应用

[title]100个AI应用[heading1]1-20|序号|已有产品|主题|使用技术|市场规模|一句话介绍|项目功能|<br>|-|-|-|-|-|-|-|<br>|1|Grammarly、秘塔写作猫|AI智能写作助手|自然语言处理|数十亿美元|利用AI技术辅助用户进行高质量写作。|Grammarly可检查语法、拼写错误并提供改进建议,秘塔写作猫能进行智能润色和内容创作辅助。|<br>|2|淘宝拍照搜商品|AI图像识别商品推荐|图像识别、机器学习|数百亿美元|通过图像识别为用户推荐相似商品。|用户在淘宝使用拍照搜商品功能,上传图片后系统快速推荐类似商品。|<br>|3|小爱同学、Siri|AI语音助手定制开发|语音识别、自然语言理解|百亿美元以上|为不同需求定制专属语音助手。|小爱同学可控制智能家居、回答问题等,Siri能进行语音交互和任务处理。|<br>|4|Keep智能训练计划|AI个性化健身计划制定|数据分析、机器学习|数十亿美元|根据用户数据制定个性化健身方案。|Keep的智能训练计划结合用户身体状况和目标生成专属健身方案。|<br>|5|大众点评智能推荐|AI美食推荐平台|数据挖掘、自然语言处理|百亿美元规模|基于用户口味偏好推荐美食。|大众点评通过用户评价和偏好数据为用户推荐餐厅和美食。|<br>|6|阿里小蜜等电商客服|AI智能客服外包服务|自然语言处理、机器学习|数十亿美元|为企业提供智能客服解决方案。|阿里小蜜可自动回答客户问题,处理订单查询等任务。|

Others are asking
想学习Ai制作用哪些免费软件好
以下是一些适合学习 AI 制作的免费软件: 1. 图像制作: 最透明的选项:Adobe Firefly(https://www.adobe.com/sensei/generativeai/firefly.html) 开源选项:Stable Diffusion(https://stablediffusionui.github.io/) 最佳免费选项:Bing 或 Bing Image Creator(https://www.bing.com/images/create)(使用 DALLE),Playground(https://playgroundai.com/)(允许您使用多个模型) 最佳质量图像:Midjourney(https://midjourney.com/) 2. 数字人制作: HEYGEN:人物灵活,五官自然,视频生成很快,但中文人声选择较少。 DID:制作简单,人物灵活,免费版下载后有水印。 KreadoAI:免费,功能齐全,但音色较 AI。 对于想出点子,最佳免费选项是必应(https://www.bing.com/search?q=Bing+AI&showconv=1&FORM=hpcodx),付费选项是 ChatGPT 4.0。 在制作视频方面: 用于在视频中为人脸制作动画的最佳工具是 DiD(https://www.did.com/)。 用于从文本创建视频的最佳工具是 Runway v2(https://app.runwayml.com/)。 最佳语音克隆:ElevenLabs(https://beta.elevenlabs.io/speechsynthesis)
2025-02-23
如何用AI撰写汉语言文学论文
在撰写汉语言文学论文时,可以利用以下 AI 工具和平台来提供辅助: 1. 文献管理和搜索: Zotero:结合 AI 技术,能自动提取文献信息,便于管理和整理参考文献。 Semantic Scholar:由 AI 驱动的学术搜索引擎,可提供相关文献推荐和引用分析。 2. 内容生成和辅助写作: Grammarly:通过 AI 技术进行文本校对、语法修正和写作风格建议,提升语言质量。 Quillbot:基于 AI 的重写和摘要工具,有助于精简和优化论文内容。 3. 研究和数据分析: Google Colab:提供基于云的 Jupyter 笔记本环境,支持 AI 和机器学习研究,方便进行数据分析和可视化。 Knitro:用于数学建模和优化的软件,可进行复杂的数据分析和模型构建。 4. 论文结构和格式: LaTeX:结合自动化和模板,高效处理论文格式和数学公式。 Overleaf:在线 LaTeX 编辑器,有丰富模板库和协作功能,简化论文编写。 5. 研究伦理和抄袭检测: Turnitin:广泛使用的抄袭检测工具,确保论文原创性。 Crossref Similarity Check:通过与已发表作品比较,检测潜在抄袭问题。 使用这些工具时,要结合自身写作风格和需求,选择最合适的辅助工具。同时需注意,AI 生成的内容仅供参考,仍需自己进行深入思考和创作。
2025-02-23
什么是AI?目前市场上主要的AI工具有哪些?
AI 即人工智能,是指让计算机模拟人类智能的技术。它旨在使计算机能够像人类一样学习、推理、解决问题和执行任务。 目前市场上主要的 AI 工具包括: 开发者工具:可让用户对 AI 伴侣的外形和个性有最大控制权,组合多种工具创造理想伴侣,通过短信、电话、实时视频聊天等互动。 个性(LLM 的文本):一些开源模型如 Vicuna 和 Pygmalion 经过微调,在特定应用场景表现出色。 记忆(向量存储):像 Pinecone 这样的向量存储系统可建立持续关系,存储长期记忆等信息。 语音(语音合成):如 ElevenLabs 可赋予声音,控制年龄、性别和口音。 外表(SD 模型作图):LoRAs 可对图像风格等有精细控制。 动画(视频动画):像 DID 和 HeyGen 等工具可使图像“说话”。 平台:如 GCP、AWS 以及 Steamship 等。 UI 层:如 SillyTavern、Agnaistic 和 KoboldAI 等。 在健身领域的 AI 工具: Keep:中国最大的健身平台,提供全面健身解决方案。 Fiture:集硬件、课程内容、明星教练和社区于一体。 Fitness AI:利用人工智能进行锻炼,增强力量和速度。 Planfit:提供家庭训练与 AI 健身计划,AI 教练使用大量文本数据和 ChatGPT 实时指导。 在 AIGC 方面: AIGC 指利用生成式 AI 创建的内容,如图像、视频、音频、文本和三维模型。生成式 AI 基于深度学习技术和机器学习算法,从已有数据中学习并生成新数据或内容。典型的生成式 AI 包括 OpenAI 推出的 ChatGPT、GPT4、图像模型 DALLE 以及百度的文心一言、阿里云的通义千问等。国内主要在相关法律法规框架下,由多部规定共同监管 AIGC 行业。
2025-02-23
生成图片的AI
以下是关于生成图片的 AI 的相关信息: 全国首例 AI 生成图片著作权案例解读:Stable Diffusion 模型可根据文本指令生成与文本信息匹配的图片,其生成结果取决于使用者输入的提示词,非排列组合工作模式下难有完全相同的输出图片,类似于画笔,使用者的设计决定最终成果。案例中法官承认依靠使用者输出设计生成的图片属美术作品,受著作权保护,鼓励创作,为艺术创作提供支持与新思路,节省创作成本。法律适用包括《中华人民共和国著作权法》第三条及《中华人民共和国著作权法实施条例》第四条。 文生图工具:是利用人工智能技术通过分析输入文本描述生成图片的工具。受欢迎的工具包括 DALL·E(OpenAI 推出,可生成逼真图片)、StableDiffusion(开源,能生成高质量图片,支持多种模型和算法)、MidJourney(因高质量生成效果和友好界面在创意设计人群中流行)。在 WaytoAGI 网站可查看更多文生图工具。 AIGC 法律风险研究报告中的图像生成类:图像生成离不开深度学习算法,如生成对抗网络(GANs)、变分自编码器(VAEs)、Stable Diffusion 等,可用于数据增强、创造艺术、生成产品图像等。具有代表性的海外项目包括 Stable Diffusion(Stability AI)、DALLE 3(Open AI)、StyleGAN 2(NVIDIA)、DCGAN(Deep Convolutional GAN)。
2025-02-23
AI大模型的类别
AI 大模型主要包括以下类别: 1. 生成式 AI:能够生成文本、图片、音频、视频等内容形式,生成的内容称为 AIGC。 2. LLM(大语言模型):例如谷歌的 BERT 模型,可用于语义理解,如上下文理解、情感分析、文本分类等,生成只是其处理任务之一。对于生成式 AI,生成图像的扩散模型不属于大语言模型。 相关技术名词及概念关系: 1. AI:即人工智能。 2. 机器学习:电脑找规律学习,包括监督学习、无监督学习、强化学习。 监督学习:使用有标签的训练数据,算法目标是学习输入和输出之间的映射关系,包括分类和回归。 无监督学习:学习的数据没有标签,算法自主发现规律,经典任务如聚类。 强化学习:从反馈中学习,以最大化奖励或最小化损失,类似训练小狗。 3. 深度学习:一种参照人脑神经网络和神经元的方法(因有很多层所以叫深度),神经网络可用于监督学习、无监督学习、强化学习。 技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,其完全基于自注意力机制处理序列数据,不依赖于循环神经网络或卷积神经网络。
2025-02-23
AI学习路径
以下是为新手提供的 AI 学习路径: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,如图像、音乐、视频等,可根据兴趣选择特定模块深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习后,实践是巩固知识的关键,尝试使用各种产品做出作品。 可在知识库分享实践后的作品和文章。 5. 体验 AI 产品: 与现有的 AI 产品如 ChatGPT、Kimi Chat、智谱、文心一言等聊天机器人互动,了解其工作原理和交互方式,获得对 AI 在实际应用中表现的第一手体验。 如果您的学习路径偏向技术研究方向,您需要: 1. 掌握数学基础,如线性代数、概率论、优化理论等。 2. 学习机器学习基础,包括监督学习、无监督学习、强化学习等。 3. 深入研究深度学习,如神经网络、卷积网络、递归网络、注意力机制等。 4. 钻研自然语言处理,如语言模型、文本分类、机器翻译等。 5. 探索计算机视觉,如图像分类、目标检测、语义分割等。 6. 关注前沿领域,如大模型、多模态 AI、自监督学习、小样本学习等。 7. 进行科研实践,包括论文阅读、模型实现、实验设计等。 如果您的学习路径偏向应用方向,您需要: 1. 具备编程基础,如 Python、C++等。 2. 学习机器学习基础,如监督学习、无监督学习等。 3. 掌握深度学习框架,如 TensorFlow、PyTorch 等。 4. 深入应用领域,如自然语言处理、计算机视觉、推荐系统等。 5. 学会数据处理,包括数据采集、清洗、特征工程等。 6. 掌握模型部署,如模型优化、模型服务等。 7. 进行行业实践,包括项目实战、案例分析等。 记住,学习 AI 是一个长期的过程,需要耐心和持续的努力。不要害怕犯错,每个挑战都是成长的机会。随着时间的推移,您将逐渐建立起自己的 AI 知识体系,并能够在这一领域取得自己的成就。完整的学习路径建议参考「通往 AGI 之路」的布鲁姆分类法,设计自己的学习路径。同时,请注意内容由 AI 大模型生成,请仔细甄别。
2025-02-23
普通人怎么开展ai应用层的创业
对于普通人开展 AI 应用层的创业,以下是一些建议和分析: 1. 基础设施层:布局投入确定性强,但资金需求巨大,入行资源门槛高,未来更多由“国家队”负责。普通人若无强资源,应谨慎入局,可考虑“合作生态”的切入机会。 2. 技术层:处于技术爆炸期,迭代速度极快。若团队规模不大,需慎重考虑技术迭代风险。基础通用大模型研发烧钱且竞争激烈,非巨无霸公司不建议考虑。 3. 应用层:是一片广阔蓝海,当前从业者增加,虽有相关产品涌现,但成熟应用和“杀手级”应用较少,对于普通个体和小团队,强烈推荐重点思考和布局,拥有超级机会和巨大发展空间。 在应用层创业的具体方向上,比如智能体领域: 智能体可以简单理解为 AI 机器人小助手,类似移动互联网中的 APP 应用。 有很多公司已关注 AI 应用层的产品机会,如在 C 端,有社交方向的用户注册后先捏自己的 Agent 再聊天等有趣场景;在 B 端,有帮助商家搭建 Agent 的机会。 国内有众多智能体开发平台,如字节的扣子、腾讯的元器、Dify.AI 等。
2025-02-19
国内的应用层的ai公司如何盈利
国内的 AI 应用层公司盈利方式主要有以下几种: 1. 创造新的价值和场景:例如在移动互联网领域,出现了移动端的 IM 工具(微信、WhatsAPP)、打车(Uber、滴滴、Grab)、外卖(美团、Doordash)、短视频(抖音、Tiktok)等新的应用,这些应用并非颠覆上一代公司的业务,而是创造了新的价值和场景。 2. 融入现有工作流程:许多公司将 AI 融入工作流程,如工作流程自动化平台 ServiceNow 通过 AI 驱动的 Now Assist 实现了近 20%的事件避免率,Palo Alto Networks 利用 AI 降低了处理费用的成本,Hubspot 利用 AI 扩大了能够支持的用户规模,瑞典金融科技公司 Klarna 通过将 AI 融入用户支持节省了运行成本。 3. 抓住技术进步机会改造和提升现有业务:现有的大公司大部分会因技术进步而获利,关键在于能否抓住机会改造或提升现有业务。 同时,关于大模型能力与利润分配的问题,需要垄断才能获得超额收益。因为在有竞争的情况下,哪怕是寡头垄断,行业内的公司也无法获得定价权。只有在垄断市场中,售货方才拥有定价权,类似于今天英伟达的状态。定价权是超额收益,即超额毛利、超额净利的来源。
2024-09-13
ai的研究是否可以分为神经网络与知识图谱两个大的分类?
AI 的研究可以分为多个不同的分类,并非仅仅局限于神经网络与知识图谱这两个大的分类。 在常见的分类中: 非监督学习:最著名的是聚类,只需提供大量数据,让 AI 自行找出有趣信息。 迁移学习:在任务 A 中学习的内容可用于帮助完成任务 B,在计算机视觉领域有较多应用。 强化学习:根据输出好坏给予奖励或惩罚,利用“奖励信号”让 AI 自动学习最大化奖励,但需要大量数据。 生成对抗网络:由生成器和判别器构成,两者不断训练和竞争,提高生成真实数据的能力,广泛应用于多种领域。 此外,从技术和应用的角度来看: 知识图谱:在搜索等场景中展示关键信息,如人物相关信息、酒店信息等。 在企业中建构人工智能方面,NLG 可作为全新场景讨论,生成内容分为根据任务要求生成标准结果和根据信息进行内容创作两类,分别偏向 B 端和 C 端。NLP 能做的事情较标准化,LLM 的出现对其有提升和冲击。知识图谱领域本身有多种技术路径,与 LLM 可能是互补关系。 对于希望精进的学习者,还需要了解 AI 的背景知识,包括基础理论、历史发展、数学基础(统计学、线性代数、概率论),掌握算法和模型(监督学习、无监督学习、强化学习),学会评估和调优(性能评估、模型调优),以及神经网络基础(网络结构、激活函数)等。
2025-02-12
以知识图谱的形式生成一张涉及大模型概念的知识图谱
以下是一张涉及大模型概念的知识图谱: 大模型 Embedding 技术 句子和文档嵌入 Doc2Vec:扩展了 Word2Vec,能够为整个文档生成统一的向量表示。 Average Word Embeddings:将一段文本中所有单词的嵌入取平均作为整体的文本表示。 Transformers Sentence Embeddings:如 BERT 的标记对应的向量,或者专门针对句子级别的模型如 SentenceBERT。 实体/概念嵌入 Knowledge Graph Embeddings:如 TransE、DistMult、ComplEx 等,用于将知识图谱中的实体和关系嵌入到低维向量空间中。 其他类型 图像 Embeddings:使用卷积神经网络(CNN)进行图像特征提取,得到的特征向量即为图像嵌入。 音频 Embeddings:在语音识别和声纹识别中,将声音信号转化为有意义的向量表示。 用户/物品 Embeddings:在推荐系统中,将用户行为或物品属性映射到低维空间以进行协同过滤或基于内容的推荐。 图 Embeddings:用于学习图结构的表示学习方法,将图中的节点和边映射到低维向量空间中。通过学习图嵌入,可以将复杂的图结构转化为向量表示,以捕捉节点之间的结构和关联关系。这些方法可以通过 DeepWalk、Node2Vec、GraphSAGE 等算法来实现。图嵌入在图分析、社交网络分析、推荐系统等领域中广泛应用,用于发现社区结构、节点相似性、信息传播等图属性。 关键技术标准 机器学习标准:规范机器学习的训练数据、数据预处理、模型表达和格式、模型效果评价等,包括自监督学习、无监督学习、半监督学习、深度学习和强化学习等标准。 知识图谱标准:规范知识图谱的描述、构建、运维、共享、管理和应用,包括知识表示与建模、知识获取与存储、知识融合与可视化、知识计算与管理、知识图谱质量评价与互联互通、知识图谱交付与应用、知识图谱系统架构与性能要求等标准。 大模型标准:规范大模型训练、推理、部署等环节的技术要求,包括大模型通用技术要求、评测指标与方法、服务能力成熟度评估、生成内容评价等标准。 自然语言处理标准:规范自然语言处理中语言信息提取、文本处理、语义处理等方面的技术要求和评测方法,包括语法分析、语义理解、语义表达、机器翻译、自动摘要、自动问答和语言大模型等标准。 智能语音标准:规范前端处理、语音处理、语音接口和数据资源等技术要求和评测方法,包括深度合成的鉴伪方法、全双工交互、通用语音大模型等标准。 计算机视觉标准:规范图像获取、图像/视频处理、图像内容分析、三维计算机视觉、计算摄影学和跨媒体融合等技术要求和评价方法,包括功能、性能和可维护性等标准。 生物特征识别标准:规范生物特征样本处理、生物特征数据协议、设备或系统等技术要求,包括生物特征数据交换格式、接口协议等标准。 国内大模型 通用模型:如文心一言、讯飞星火等,处理自然语言。 垂直模型:专注特定领域如小语种交流、临床医学、AI 蛋白质结构预测等。 大模型的体验 以‘为什么我爸妈结婚的时候没有邀请我参加婚礼’和‘今天我坐在凳子上’为例,体验了 Kimi、通义千问、豆包等大模型的回答和续写能力,发现回复有差异,且大模型基于统计模型预测生成内容。 大语言模型的工作原理 包括训练数据、算力、模型参数,在训练数据一致情况下,模型参数越大能力越强,参数用 b 链形容大小。 Transformer 架构:Transformer 是大语言模型训练架构,17 年出现用于翻译,具备自我注意力机制能理解上下文和文本关联,其工作原理是单词预测,通过嵌入、位置编码、自注意力机制生成内容,模型调教中有控制输出的 temperature。 大模型幻觉:大模型通过训练数据猜测下一个输出结果,可能因错误数据导致给出错误答案,优质数据集对其很重要。 Prompt 的分类和法则 分为 system prompt、user prompt 和 assistant prompt。 写好 prompt 的法则包括清晰说明、指定角色、使用分隔符、提供样本等,核心是与模型好好沟通。 Fine tuning 微调:基于通用大模型,针对特定领域任务提供数据进行学习和调整,以适应特定领域的需求。 RAG 概念:未对 RAG 的具体内容进行详细阐述,仅提出了这个概念。
2025-02-11
我是一名初中老师,我想了解符合我应用的知识图谱的相关知识
很抱歉,目前没有关于初中老师适用的知识图谱的相关具体内容。但一般来说,知识图谱是一种以图形化方式展示知识之间关系的技术。对于初中老师而言,知识图谱可以用于组织和呈现学科知识,帮助学生更好地理解知识点之间的关联。例如在数学学科中,可以将代数、几何等不同领域的知识点通过知识图谱进行关联,让学生清晰看到知识的体系结构。您可以根据教学的具体学科和需求,有针对性地构建和运用知识图谱。
2025-02-09
人工智能历史图谱
人工智能的历史可以追溯到二十世纪中叶。 起初,符号推理流行,带来了专家系统等重要进展,但因提取知识复杂、成本高等问题,20 世纪 70 年代出现“人工智能寒冬”。 随着计算资源便宜和数据增多,神经网络方法在计算机视觉、语音理解等领域展现出色性能,过去十年“人工智能”常被视为“神经网络”的同义词。 在国际象棋对弈程序方面,早期以搜索为基础,发展出阿尔法贝塔剪枝搜索算法,后来采用基于案例的推理,如今基于神经网络和强化学习,能从自身错误中学习,学习速度快于人类。 在创建“会说话的程序”方面,早期如 Eliza 基于简单语法规则,现代助手如 Cortana、Siri 等是混合系统,使用神经网络转换语音、识别意图,未来有望出现完整基于神经网络的模型处理对话,如 GPT 和 TuringNLG 系列神经网络取得成功。 近期神经网络研究在 2010 年左右有巨大发展,大型公共数据集出现,如 ImageNet 催生了相关挑战赛。2012 年卷积神经网络用于图像分类使错误率大幅下降,2015 年微软研究院的 ResNet 架构达到人类水平准确率,此后神经网络在图像分类、对话语音识别、自动化机器翻译、图像描述等任务中表现成功。 在过去几年,大型语言模型如 BERT 和 GPT3 取得巨大成功,得益于大量通用文本数据,可先预训练再针对具体任务专门化。
2024-12-25
知识图谱
知识图谱: 知识图谱是一种揭示实体之间关系的语义网络,能够对现实世界的事物及其相互关系进行形式化描述。它于 2012 年 5 月 17 日由 Google 正式提出,初衷是提高搜索引擎能力,增强用户搜索质量和体验,实现从网页链接到概念链接的转变,支持按主题检索和语义检索。 关键技术包括: 1. 知识抽取:通过自动化技术抽取可用的知识单元,包含实体抽取(命名实体识别)、关系抽取、属性抽取。 2. 知识表示:如属性图、三元组。 3. 知识融合:在同一框架规范下进行异构数据整合、消歧、加工、推理验证、更新等,包括实体对齐、知识加工、本体构建、质量评估、知识更新,以形成高质量知识库。 4. 知识推理:在已有知识库基础上挖掘隐含知识。 在 AI Agent 系列中,外置知识包括向量数据库、关系型数据库和知识图谱。知识图谱以图的形式组织数据,强调实体之间的关系,适合复杂的语义分析和知识推理。在实际应用中,外置知识的集成和管理常采用 RAG 架构,允许智能体实时检索和整合最新外部信息。 知识表示方面,知识是存在于我们脑海中、代表对世界理解的东西,通过活跃学习过程获得,将接收到的信息碎片整合进世界模型。知识与信息、数据等概念不同,在 DIKW 金字塔中,数据独立存在可传递,信息是头脑中解释数据的方式,知识是融入世界模型的信息,智慧是更高层次的理解。知识表示的问题是找到以数据形式在计算机中表示知识并能自动化使用的有效方法。
2024-12-19
如何用ai工具构建某一课程的知识图谱
以下是用 AI 工具构建某一课程知识图谱的方法: 一键知识图谱方法: 用 kimichat 让 AI 拆解这本书的三级章节并按照 Markdown 产出内容: Prompt:帮我拆解《爱的五种语言》,生成全书内容的思维导图,要求每个章节后面有三级展开,下一级是主要知识点,下下一级是知识点的论述。先输出对应的 Markdown。 访问地址: 复制 AI 内容粘贴到在线思维导图 Markmap 中,一键生成思维导图,还可以自定义微调内容,并免费导出图片: 访问地址: 推导知识图谱方法(可以参考下面 prompt 自己构建): 问题生成:使用大模型帮助生成一系列相关的、深入的问题。 探索性学习:将每个问题作为一个学习起点,利用 AI 搜索引擎和大模型进行深入探索。 知识图谱构建:随着学习的深入,使用大模型帮助构建和扩展知识图谱。 创造性应用:基于新获得的知识,尝试解决原问题或创造新的作品。 反思与迭代:定期反思学习过程,调整方向,并生成新的问题,形成持续学习和创作的循环。 此外,利用 AI 写课题的步骤和建议如下: 1. 确定课题主题:明确研究兴趣和目标,选择具有研究价值和创新性的主题。 2. 收集背景资料:使用 AI 工具如学术搜索引擎和文献管理软件搜集相关研究文献和资料。 3. 分析和总结信息:利用 AI 文本分析工具分析收集到的资料,提取关键信息和主要观点。 4. 生成大纲:使用 AI 写作助手生成课题大纲,包括引言、文献综述、方法论、结果和讨论等部分。 5. 撰写文献综述:利用 AI 工具帮助撰写文献综述部分,确保内容准确完整。 6. 构建方法论:根据研究需求,利用 AI 建议的方法和技术设计研究方法。 7. 数据分析:若课题涉及数据收集和分析,使用 AI 数据分析工具处理和解释数据。 8. 撰写和编辑:利用 AI 写作工具撰写课题各部分,并进行语法和风格检查。 9. 生成参考文献:使用 AI 文献管理工具生成正确的参考文献格式。 10. 审阅和修改:利用 AI 审阅工具检查课题逻辑性和一致性,并根据反馈修改。 11. 提交前的检查:最后,使用 AI 抄袭检测工具确保课题原创性,并进行最后的格式调整。 需要注意的是,AI 工具可作为辅助,但不能完全替代研究者的专业判断和创造性思维。在使用 AI 进行课题写作时,应保持批判性思维,并确保研究的质量和学术诚信。
2024-11-03
请简单解释或者举例DeepSeek与ChatGPT的区别,原理
DeepSeek 与 ChatGPT 的区别主要体现在以下方面: 1. 在 App Store 排名上,DeepSeek R1 冲到了美国区 App Store 第一名,超越了 ChatGPT。 2. 口碑与技术实力方面,DeepSeek 没有市场部和市场投放,完全依靠技术实力和口碑获得用户认可。 3. 性能与成本方面,DeepSeek R1 的效果比肩顶尖闭源模型 o1,但价格仅为 o1 的 27 分之一。 4. 开源与创新方面,DeepSeek R1 开源让行业认知整体拉齐,得到全世界尊重和喜爱。 5. 训练方式上,DeepSeek R1 的创新模型 R1 Zero 跳过了监督微调(SFT)阶段,直接采用强化学习(RL)进行训练。 6. 在回答用户问题时,DeepSeek R1 会先进行“自问自答”式的推理思考,模拟人类的深度思考,以提升最终回答的质量,而 ChatGPT 可能没有这种特定的机制。 原理方面:DeepSeek R1 与 ChatGPT 同属于基于强化学习 RL 的推理模型,但在具体的训练和推理过程中可能存在差异。例如,DeepSeek R1 在训练时可能有独特的方法和策略,使其在性能和表现上与 ChatGPT 有所不同。
2025-02-11
可以举例具体的公司吗
以下是一些与 AI 相关的公司举例: 百度:在人工智能领域有一定的投入和发展。 大型科技消费公司:擅长通过策略性数据采集,并利用免费产品采集数据在别处盈利。 Steamship 等初创公司:为 LLM 应用程序提供端到端托管,包括编排、多租户数据上下文、异步任务、向量存储和密钥管理。 Anyscale 和 Modal 等公司:允许开发人员在一个地方托管模型和 Python 代码。
2025-02-06
举例说明,意图和FAQ训练的区别
意图和 FAQ 训练是两种不同的概念。 意图训练主要侧重于理解用户的核心意图或目的。例如,在一个客服场景中,用户的意图可能是查询产品信息、寻求技术支持或进行投诉等。通过对大量的用户交互数据进行分析和学习,模型能够识别出这些不同的意图类别。 FAQ 训练则侧重于常见问题及其对应的标准答案。比如常见的“产品如何退换货”“售后服务的联系方式是什么”等问题,以及相应的准确回答。 总的来说,意图训练更注重对用户目的的分类和理解,而 FAQ 训练更侧重于对特定常见问题的准确回答。
2025-01-13
举例说明,医疗人工智能应用的风险及其法理防范
医疗人工智能应用存在以下风险: 1. 可能对受欧盟法律保护的公共利益和基本权利造成损害,包括身体、心理、社会或经济方面的损害。 2. 在决定是否给予、拒绝、减少、取消或收回医疗保健服务等福利时,可能对人们的生计产生重大影响,并侵犯基本权利,如社会保护权、不受歧视权、人的尊严权或有效补救权。 3. 用于评估自然人信用分数或信用度的人工智能系统可能导致对个人或群体的歧视,并延续历史上的歧视模式或造成新形式的歧视性影响。 法理防范措施包括: 1. 为所有高风险人工智能系统制定统一的规则,这些规则应与《宪章》保持一致,是非歧视性的,并符合欧盟的国际贸易承诺,同时考虑相关的伦理准则。 2. 明确价值链上相关经营者的作用和具体义务,促进对法规的遵从,确保法律的确定性。 3. 在特定条件下,明确高风险人工智能系统提供者的责任和义务。 需要注意的是,欧盟法律规定的用于检测提供金融服务过程中的欺诈行为以及用于计算信贷机构和保险企业资本要求的尽职审慎目的的人工智能系统,以及用于自然人健康和人寿保险风险评估和定价的人工智能系统,在符合一定条件时不视为高风险系统。
2025-01-02
结合欧盟《人工智能法案》和我国《生成式人工智能服务管理暂行办法》的对照,论述欧盟人工智能法案对我国相关立法的启示。可以举例
欧盟《人工智能法案》对我国相关立法的启示主要体现在以下方面: 1. 监管框架出发点:中国针对不同的涉及算法的互联网信息服务,以落实主体责任为基本落脚点,将“服务提供者”作为相关义务的履行主体,如《互联网信息服务算法推荐管理规定》《生成式人工智能服务管理办法》等。而欧盟《人工智能法案》首先确立以风险为基准的人工智能治理框架,通过对人工智能系统进行评估,划分为不同风险层级,并匹配不同责任措施和差异化监管。 2. 风险分级管理:我国与欧盟在立法理念上有共通之处,如风险分级管理、高风险项目的“备案”“评估”“透明”等原则,在我国相关法律法规中已有所体现。 3. 对拓展市场的影响:如果我国的AI项目有意拓展欧洲市场,由于针对不同市场重新训练特有模型的效率不高,将因“木桶原理”而不得不根据欧盟《人工智能法案》对产品进行调整。 总之,欧盟的《人工智能法案》对我国人工智能立法工作具有重要参考意义。
2024-12-31
欧盟《人工智能法案》在中国适用过程中的积极影响与不利影响,请举例说明
欧盟《人工智能法案》在中国适用过程中的积极影响与不利影响举例如下: 积极影响: 1. 对中小企业的兼顾激励与监管:欧盟的法案顾及到了中小企业在人工智能领域的弱势地位,适当地将对中小企业的合规义务豁免规定以及合规支持规定纳入未来的人工智能立法中,有利于形成健康有序的公平竞争秩序,激发中小企业的科技创新活力,同时防止过度监管。例如,2023 年《AI 法案》折衷草案通过制约单方面强加给中小企业和初创企业的不公平合同条款、促进监管沙盒广泛而平等的参与、降低评估费用等措施降低中小企业的合规成本。 2. 纳入道德伦理和人权考量:《人工智能法案》将人工智能系统对伦理道德和基本人权的影响有机纳入规制框架和评估框架中,我国《科技伦理审查办法》也是将伦理纳入包括人工智能开发在内的科技活动的积极探索。 不利影响: 1. 以风险为基准的管理框架存在不确定性:伦理道德和人权具有高度概括性、抽象性和不确定性,如何将其融入人工智能治理考验立法技术。《人工智能法案》对“不可接受的风险”和“高风险”的人工智能系统的界定和解释存在相当大的不确定性和模糊性,可能难以统一进行风险分类,成效有待进一步观望和研讨。 2. 可能无法完全适应中国国情:中国和欧盟在人工智能发展的阶段、市场环境、企业结构等方面存在差异,欧盟的法案在具体适用时可能需要进行较大的调整和适配,否则可能无法有效发挥作用。
2024-12-29