Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

siri是不是使用大模型技术

Answer

Siri 目前并非使用大模型技术。苹果公司的 Siri 概念虽好,但由于技术限制,其表现未达到人工智能的水平,常被称为“人工智障”。不过,随着技术发展,未来可能会用大模型重新改造 Siri,将手机上的所有功能控制起来,使其成为真正的智能助理。例如,苹果公司在手机算力的芯片发展到能够支撑大模型上手机的情况下,可能会推出大模型的小数据量、专业的版本来替代 Siri。同时,苹果公司若 All in 手机,其大模型可能会是本地化的,以重视个人数据保护和隐私。

Content generated by AI large model, please carefully verify (powered by aily)

References

质朴发言:大模型未来发展:RAG vs 长文本,谁更胜一筹?|Z 沙龙第 8 期

随着大模型上下文窗口长度不断增加,各个厂商对于文本生成模型呈现出“军备竞赛”的态势。目前,主流的文本生成模型是聊天模型,比如GPT、Claude 3等,也有少部分Base模型,例如Yi-34开源模型。两位技术研究人员分享了他们对于大模型的看法:用户使用最多的是GPT,但对外开放的版本性能较差,用户交互端无法传输大文件,只能通过API接口上传。月之暗面的Kimi模型大海捞针测试分数很高,但实际使用效果没有达到理想状态。百川192K的闭源模型,对于6万字的长文本,其表现的推理能力和回答效果很优秀。各种长文本的跑分数据,最高的是Claude 3模型。

周鸿祎免费课AI系列第一讲

今天的智能手机已经从苹果iPhone第一代发布到现在多少年了,到现在十五年了。实际上十五年来,虽然叫智能手机,其实手机并不智能,它是软件定义了手机,手机变成了一个电脑。但是,三星最近在展柜展出了AI手机。手机算力的芯片发展到现在已经能够支撑大模型上手机了。这两天有一个新闻,有个叫Mobile LLaMa的开源软件只有几亿参数进行了优化,已经能在手机上跑起来。对苹果来说,苹果发布了M3 CPU之后,它的M3 CPU有个特别的架构,显存跟内存是打通的,苹果的CPU架构特别适合做大模型的推理。所以,苹果All in AI的思路一定不是再跟OpenAI对标做一个类似的大模型,这可能是他的长线战略,短期内他一定会做出一个大模型的小数据量的版本,一个专业的版本,替代Siri的版本。因为Siri对苹果来说,起了大早,赶了个晚集。Siri概念很好,但技术不支持,所以Siri成为了不是人工智能的代表,在很多场合被我嘲笑成叫“人工智障”。所以,苹果公司无论怎么推实际也没推起来。当然,如果用大模型重新改造Siri,再把手机上的所有东西都控制起来,手机就真正变成了你的智能助理,你用什么东西来指挥手机,可能APP变成底层插件了。如果各位有钱,雇一个小秘书,给你订餐,帮你叫车,给你处理日程,你还需要自己操作手机吗?小秘书非常可信,尤其本地大模型,不上传到云端,苹果又号称特别重视个人数据保护和隐私,它的大模型一定是本地化的。所以,我觉得苹果及把在汽车战场上的人力抽回来All in手机我认为是非常正确的,不All in手机会进入新的智能手机2.0时代,就不再是软件定义手机,或者手机不再是电脑,而是大模型重新定义手机,或者AGI重新定义手机。

视频模型:Sora

所以这次Sora只是小试牛刀,它展现的不仅仅是一个视频制作的能力,它展现的是大模型对真实世界有了理解和模拟之后,会带来新的成果和突破。第五,Open Al训练这个模型应该会阅读大量视频。大模型加上Diffusion技术需要对这个世界进行进一步了解,学习样本就会以视频和摄像头捕捉到的画面为主。一旦人工智能接上摄像头,把所有的电影都看一遍,把YouTube上和TikTok的视频都看一遍,对世界的理解将远远超过文字学习,一幅图胜过千言万语,而视频传递的信息量又远远超过一幅图,这就离AGI真的就不远了,不是10年20年的问题,可能一两年很快就可以实现。由锤子便签发送via Smartisan Notes

Others are asking
flux1-depth-dev模型存放路径
flux1depthdev 模型的存放路径如下: 1. 下载 flux1depthdev 模型放到 ComfyUI/models/diffusion_models/文件夹中。 夸克网盘:链接:https://pan.quark.cn/s/571d174ec17f 百度网盘:见前文 2. 也可以将 depth lora 模型存放到 ComfyUI/models/loras 文件夹中。 depth lora 模型:https://huggingface.co/blackforestlabs/FLUX.1Depthdevlora 3. 百度网盘中也有相关模型: 链接:https://pan.baidu.com/s/10BmYtY3sU1VQzwUy2gpNlw?pwd=qflr 提取码:qflr
2025-02-05
你目前使用的是哪个模型
以下是一些关于模型的信息: 在 Cursor Chat、Ctrl/⌘K 和终端 Ctrl/⌘K 中,您可以在 AI 输入框下方的下拉列表中选择要使用的模型。默认情况下,Cursor 已准备好使用的模型包括:、cursorsmall。您还可以在 Cursor Settings>Models>Model Names 下添加其他模型。cursorsmall 是 Cursor 的自定义模型,不如 GPT4 智能,但速度更快,用户可无限制访问。 在 Morph Studio 中,支持以下模型生成视频: TexttoVideoMorph0.1:内部文本到视频生成模型,默认具有逼真色调,可通过描述性形容词修改拍摄风格和外观。 ImagetoVideoMorph0.1:内部图像到视频生成模型,用文本提示引导效果更好,使用时可不输入文本,在角色特写和对象动画方面表现较好。 VideotoVideoMorph0.1:内部风格转换模型,支持在文本提示下进行视频到视频的渲染,可将视频风格更改为预设,同时保留原始视频的字符和布局。 ImagetoVideoSVD1.1:由 Stability.ai 提供支持的图像到视频模型,适用于构图中有清晰层次的镜头(风景镜头、B 卷等)。 文本到视频形态0.1 被设置为新创建射击卡的默认模型,型号选择会根据是否上传图像或视频而更改,每个模型有自己的一组参数可供调整,如相机运动(支持静态、放大、缩小、向左平移、向右平移、向上平移、向下平移、顺时针旋转和逆时针旋转,未来将支持一次选择多个相机移动选项)、时间(支持最多 10 秒的视频生成,默认持续时间为 3 秒)。 ComfyUI instantID 目前只支持 sdxl。主要的模型需下载后放在 ComfyUI/models/instantid 文件夹(若没有则新建),地址为:https://huggingface.co/InstantX/InstantID/resolve/main/ipadapter.bin?download=true 。InsightFace 模型是 antelopev2(不是经典的 buffalo_l),下载解压后放在 ComfyUI/models/insightface/models/antelopev2 目录中,地址为:https://huggingface.co/MonsterMMORPG/tools/tree/main 。还需要一个 ControlNet 模型,放在 ComfyUI/models/controlnet 目录下,地址为:https://huggingface.co/InstantX/InstantID/resolve/main/ControlNetModel/diffusion_pytorch_model.safetensors?download=true 。上述模型网络环境不好的,可在网盘 https://pan.baidu.com/s/1FkGTXLmM0Ofynz04NfCaQ?pwd=cycy 下载。
2025-02-05
图生图美食模型
以下是关于图生图美食模型的相关知识: 概念与功能说明: 首页模型、帖子、排行榜:展示其他用户生成的模型、图片。不同模型有 checkpoint 和 lora 两种标签,部分还有 SDXL 标签。点击可查看模型详情,下方有返图区。 基础模型(checkpoint):生图必需,任何生图操作都要先选定。 lora:低阶自适应模型,类似 checkpoint 的小插件,可控制细节,权重可调整。 ControlNet:控制图片中特定图像,如人物姿态、特定文字等,高阶技能。 VAE:编码器,类似滤镜,调整生图饱和度,可无脑选 840000。 Prompt 提示词:描述想要 AI 生成的内容。 负向提示词(Negative Prompt):描述想要 AI 避免产生的内容。 图生图:上传图片后,SD 会根据图片、所选模型、输入的 prompt 等信息重绘,重绘幅度越大,输出图与输入图差别越大。 简明操作流程(文生图): 定主题:确定生成图片的主题、风格和表达信息。 选择基础模型(checkpoint):按主题找贴近的模型,如麦橘、墨幽的系列模型。 选择 lora:寻找与生成内容重叠的 lora 控制图片效果和质量。 ControlNet:高阶技能,可控制特定图像。 局部重绘:下篇再教。 设置 VAE:选 840000。 Prompt 提示词:用英文写需求,单词、短语组合,用英文半角逗号隔开。 负向提示词(Negative Prompt):用英文写避免的内容,单词、短语组合,用英文半角逗号隔开。 采样算法:如选 DPM++2M Karras,留意 checkpoint 详情页作者推荐的采样器。 采样次数:根据采样器特征,选 DPM++2M Karras 时,采样次数在 30 40 之间。 尺寸:根据个人喜好和需求选择。
2025-02-04
请问你的大模型底座用的是什么
大模型的底座相关知识如下: 大模型像一个多功能的基础平台(有时也被称为“基座模型”),可以处理多种不同的任务,应用范围广泛,拥有更多通识知识。 大模型的知识来源于训练过程中接触到的数据,这些数据是有限的,其知识库不会自动更新,只能回答在训练过程中见过或类似的问题,在某些特定或专业领域的知识可能不够全面。 从整体分层的角度来看,大模型整体架构的基础层为大模型提供硬件支撑和数据支持,例如 A100、数据服务器等。数据层包括企业根据自身特性维护的垂域数据,分为静态的知识库和动态的三方数据集。模型层有 LLm(大语言模型)或多模态模型,如 GPT 一般使用 transformer 算法实现,多模态模型训练所用数据与 llm 不同,用的是图文或声音等多模态的数据集。平台层是模型与应用间的部分,如大模型的评测体系或 langchain 平台等。表现层即应用层,是用户实际看到的地方。 零跑汽车基于百炼实现大模型落地零跑座舱,阿里云通过百炼平台实现大模型落地零跑座舱,为用户的多种互动提供支持,零跑汽车构建了开放、可扩展的大模型应用架构,基于统一的大模型底座,实现了零跑座舱大模型应用场景的快速扩展与迭代。
2025-02-04
各个ai大模型的优势
以下是一些常见的 AI 大模型的优势: OpenAI 的 GPT4: 是大型多模态模型,接受图像和文本输入,输出文本。 在各种专业和学术基准测试中表现出与人类相当的水平。 Midjourney v5: 具有极高的一致性。 擅长以更高分辨率解释自然语言 prompt。 支持像使用 tile 这样的重复图案等高级功能。 DALL·E 3: 能轻松将想法转化为极其精准的图像。 代表了生成完全符合文本的图像能力的一大飞跃。 Mistral 7B: 在所有基准测试上超越了 Llama 2 13B。 在许多基准测试上超越了 Llama 1 34B。 在代码任务上接近 CodeLlama 7B 的性能,同时在英语任务上表现良好。 OpenAI 的 o3 及 o3mini: o3 在编码、数学和科学等领域表现出色,在多个衡量基准上远超 o1。 在 ARCAGI 公共基准得分高。 在 EpochAI 的 Frontier Math 创下新纪录。 在 SWEBench Verified 上表现突出。 在 Codeforces 上得分高。 在 AIME 2024 上得分高。 在 GPQA Diamond 上表现远高于人类专家。 o3mini 具有 3 个推理级别,最低级别将比肩 o1,在许多编码任务上性能优于 o1,且成本大幅降低。 大模型的优势还包括: 像一个多功能的基础平台,能处理多种不同的任务,应用范围广泛,拥有更多的通识知识。 但大模型并非拥有无限知识,其知识来源于有限的训练数据,且知识库不会自动更新,在某些特定或专业领域的知识可能不够全面。
2025-02-04
大模型搭建知识库的逻辑是什么
大模型搭建知识库的逻辑主要包括以下几个方面: 1. 理解 RAG 技术:利用大模型搭建知识库本质上是 RAG 技术的应用。在大模型训练数据有截止日期或不包含所需数据时,通过检索增强生成(RAG)来解决。RAG 可抽象为 5 个过程: 文档加载:从多种来源加载包括非结构化、结构化和代码等不同类型的文档。 文本分割:把文档切分为指定大小的块。 存储:包括将切分好的文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。 检索:通过检索算法找到与输入问题相似的嵌入片。 输出:把问题及检索出来的嵌入片一起提交给大模型,生成更合理的答案。 2. 构建知识库各个流程: 从用户提出问题开始,经历用户问题的理解、路由、初步检索、重排序等环节,最终将重排序后的结果和用户的查询意图组合成上下文输入给大模型生成输出结果。需要注意重排序结果的使用限制,如设置阈值进行截断或筛选相关性分数等。 后置处理包括敏感内容检测和移除、格式化输出等。 3. 知识库的需求:大模型并非 100%准确,存在数据日期限制和无法感知公司内部私有数据等问题,知识库的出现就是为解决大模型的数据准确性问题。例如在客服系统中,公司将用户问题及答案记录在文档中以知识库形式投喂给大模型,使其能更准确回答用户自然语言询问的问题。
2025-02-03
coze中使用搜索插件,是不是无法搜索最新的新闻
Coze 集成了新闻搜索插件,其中的头条新闻插件能够持续更新,让您了解最新的头条新闻和新闻文章。所以在 Coze 中使用搜索插件是可以搜索到最新新闻的。Coze 还提供了多样化的插件库,涵盖了从基础的文本处理到高级的机器学习功能,以及众多符合平民生活化的插件,如天气预报、出行必备、生活便利等方面的插件。
2025-02-04
不是,我说的是免费的好用的ai视频生成网址,不是不是对免费有什么误解?
以下为一些免费且好用的 AI 视频生成网址: 1. Pika:这是一款出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。网址:https://pika.art/ 可控性强,可以对嘴型,可配音。 2. SVD:如果您熟悉 Stable Diffusion,可以直接安装这款最新的插件,在图片基础上直接生成视频。这是由 Stability AI 开源的 video model。网址:https://stablevideo.com/ 对于景观生成效果更好。 3. 即梦:剪映旗下的产品。网址:https://dreamina.jianying.com/ 生成 3 秒,动作幅度有很大升级,最新 S 模型,P 模型。 4. Minimax 海螺 AI:非常听话,语义理解能力非常强。网址:https://hailuoai.video/ 5. 智谱清影:开源了,可以自己部署 cogvideo。网址:https://chatglm.cn/video 6. PixVerse:人少不怎么排队,还有换脸功能。网址:https://pixverse.ai/ 更多的文生视频的网站可以查看这里: 内容由 AI 大模型生成,请仔细甄别。
2025-01-16
是不是可以跟任何大模型进行对话
一般来说,可以跟很多大模型进行对话。以下是一些常见的方式: 1. 对于 Llama3 大模型: 下载大模型主要是为了与之对话,或者称为使用其进行推理。 有两种对话方式,可使用 API 或部署简单界面。面向小白,这里主要介绍部署界面的方式。 例如,在 /root/autodltmp 路径下新建 chatBot.py 文件并输入相关内容,然后启动 Webdemo 服务,按照指示映射端口,在浏览器中打开相应链接即可看到聊天界面。 2. 对于 Llama 大模型: 首先编译,为利用 Metal 的 GPU 可用特定命令编译。 去指定网址下载模型。 llama.cpp 还提供了 WebUI 供用户使用,启动 server 后默认监听 8080 端口,打开浏览器就可以对话。 3. 对于通过 Open WebUI 使用大模型: 访问指定网址,使用邮箱注册账号。 登陆成功后,Open WebUI 一般有聊天对话和 RAG 能力(让模型根据文档内容回答问题)两种使用方式。如果要求不高,已实现通过 Web UI 与本地大模型对话的功能。 需要注意的是,不同大模型的访问速度和回答效果可能存在差异,例如 ChatGPT 访问速度快是因为其服务器配置高,回答效果好是因为训练参数多、数据更优以及训练算法更好。
2025-01-07
人工智能未来是不是一个赚钱的风口?
人工智能未来很可能是一个赚钱的风口。以下是一些原因: 深度学习被证明有效,随着规模扩大预期会改善,人们持续增加相关资源投入。未来,人工智能模型将作为自主的个人助理执行特定任务,帮助人们协调医疗护理等,在各个领域取得科学进展。 数字化正在重塑生活,从依赖物理资源的稀缺经济转向以数字资源为基础的富足经济。AI 的发展使这种趋势进一步加强,进入更加富足的时代。 科技公司将有机会以前所未有的规模和盈利模式向全球提供即插即用的劳动力和智能解决方案,降低生产和运营成本。 预计 2024 年会有团队花费超过 10 亿美元来训练单个大型模型,生成式 AI 的热潮不会消退。 然而,也存在一些挑战: 如果不能建立足够的基础设施,人工智能可能成为有限资源,导致战争,并主要成为富人的工具。 政府和大型科技公司将继续承受计算需求的压力,逼近电网极限。 AI 介入选举等方面存在伦理挑战。 总之,人工智能领域充满机遇和挑战,是一个充满惊喜、伦理挑战和很多真金白银的奇妙世界。
2024-12-31
ChatGPT与Sora 是不是只有苹果手机或苹果电脑才能注册与登入?
ChatGPT 注册与登录: 苹果系统: 中国区正常无法在 AppleStore 下载 ChatGPT,需切换到美区。美区 AppleID 注册教程可参考知乎链接:https://zhuanlan.zhihu.com/p/696727277 。 最终在 AppleStore 搜到 ChatGPT 下载安装,注意别下错。 打开支付宝,地区切换到美区任意区,购买【App Store&iTunes US】礼品卡,按需要金额购买(建议先买 20 刀),然后在 apple store 中兑换礼品卡,在 chatgpt 中购买订阅 gpt plus,中途不想继续订阅可到订阅列表中取消。 会员不管在苹果还是安卓手机上购买的,电脑上都能登录。 注册美区 ID 详细步骤: 1. 电脑上打开 Apple ID 的注册页面:https://appleid.apple.com/ac 。 2. 填写验证码后点继续。 3. 到谷歌邮箱接收邮箱验证码。 4. 接着验证手机号码。 5. 验证完后会出现页面,此时美区 ID 已注册但未激活,切换到手机操作。 6. 打开 App Store,点击右上角人形头像。 7. 拉到最底下,点击退出登录,先退出国内的 ID。 8. 之后再点击右上角人形头像。 9. 手动输入美区 ID,会收到短信进行双重验证。 10. 之后完成美区的 ID 登录。 11. 随便找个软件下载,会弹出提示,点击“检查”进行激活。 12. 点击同意,进入下一页填写美国地址。 13. 若付款方式中没有“无”或“none”选项,输入街道地址和电话。 14. 至此,通过中国 IP、中国手机号、免信用卡成功注册一个美区 ID,可用于下载例如小火箭、ChatGPT、Discord、X、TikTok 等软件。 关于 Sora 的注册与登录相关信息未提及。
2024-12-16
sairi是不是使用大模型技术
Sora 是使用大模型技术的。周鸿祎认为 Open AI 训练这个模型会阅读大量视频,大模型加上 Diffusion 技术需要对世界进一步了解,学习样本以视频和摄像头捕捉到的画面为主。Sora 在训练数据上采用在原始尺寸上进行训练的策略,避免了传统 AI 对人为抽象的依赖。此外,Sora 还采用了一些数据预处理技术,如将视觉图块压缩成低维潜在表示,并将其排列成序列,注入噪声后输入扩散变换器的输入层,同时采用时空分块化来降低后续对时间信息建模的复杂性。这种对原始视频和图像特征的细腻处理标志着生成模型领域的重大进步。
2024-11-21
查看deepseek v3 技术报告
以下是关于 DeepSeek V3 的相关信息: Andrej Kaparthy 赞扬 Deepseek 的技术报告值得一读。 很多中国人将 DeepSeekV3 视作“国货之光”,它对高性能算力的依赖小,将训练和推理当作一个系统,给出诸多新的技术思路,注重用工程思维高效解决算法和技术问题。 DeepSeek 的创始人梁文锋出生于 1980 年代,来自广东省的一个五线城市,毕业于浙江大学,主修软件工程,本硕,人工智能方向,非常低调。 阅读 DeepSeek V3 的技术报告列出的研发人员名单近 200 人,均为本土 CS,很多核心是清北及大学应届的 CS 硕博,即便核心人员也是毕业 3 5 年 CS 博士,研发人员充分信任不断自我选择,这是中国最像 OpenAI 研发组织分工和氛围的 AI 研究机构。 您可以通过以下链接获取相关技术报告:
2025-01-31
学习AI技术从哪里开始
对于新手学习 AI ,可以从以下几个方面开始: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛(比如图像、音乐、视频等),根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,通过实践巩固知识,尝试使用各种产品做出作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式,获得对 AI 在实际应用中表现的第一手体验,并激发对 AI 潜力的认识。 记住,学习 AI 是一个长期的过程,需要耐心和持续的努力。不要害怕犯错,每个挑战都是成长的机会。随着时间的推移,您将逐渐建立起自己的 AI 知识体系,并能够在这一领域取得成就。完整的学习路径建议参考「通往 AGI 之路」的布鲁姆分类法,设计自己的学习路径。 如果您的学习方向偏向技术研究,需要掌握的知识包括: 1. 数学基础:线性代数、概率论、优化理论等。 2. 机器学习基础:监督学习、无监督学习、强化学习等。 3. 深度学习:神经网络、卷积网络、递归网络、注意力机制等。 4. 自然语言处理:语言模型、文本分类、机器翻译等。 5. 计算机视觉:图像分类、目标检测、语义分割等。 6. 前沿领域:大模型、多模态 AI、自监督学习、小样本学习等。 7. 科研实践:论文阅读、模型实现、实验设计等。 如果您的学习方向偏向应用,需要掌握的知识包括: 1. 编程基础:Python、C++等。 2. 机器学习基础:监督学习、无监督学习等。 3. 深度学习框架:TensorFlow、PyTorch 等。 4. 应用领域:自然语言处理、计算机视觉、推荐系统等。 5. 数据处理:数据采集、清洗、特征工程等。 6. 模型部署:模型优化、模型服务等。 7. 行业实践:项目实战、案例分析等。 无论是技术研究还是应用实践,数学和编程基础都是必不可少的。同时需要紧跟前沿技术发展动态,并结合实际问题进行实践锻炼。
2025-01-30
deepseek的技术路线是什么样的
DeepSeek 从一开始就选择了与国内诸多大模型新秀不同的技术路线。它走的是全球开源社区路线,分享最直接的模型、研究方法和成果,吸引反馈,再迭代优化,自我进益。开源十分彻底,从模型权重、数据集到预训练方法都悉数公开,高质量的论文也是开源的一部分。 DeepSeek 先后发布了多款开源模型: 1. 2023 年 11 月,发布 DeepSeek Coder 和 DeepSeek LLM,但在计算的效率和可扩展性上遇到挑战。 2. 2024 年 5 月,发布 V2,以混合专家模型(MoE)和多头潜在注意力机制(MLA)技术的结合,大幅降低了模型训练特别是推理的成本,开始引发广泛讨论和推荐。 3. 2024 年 12 月,发布 V3,以 OpenAI、Anthropic 和 Google 百分之一的成本,实现了模型性能超越同类开源模型 Llama 3.1 和 Qwen 2.5,媲美闭源模型 GPT4o 和 Claude 3.5 Sonnet 的成绩,引发轰动,成为世界大语言模型发展的里程碑。 DeepSeek 与 OpenAI 在实现里程碑式跃迁的进程中有以下区别: 1. OpenAI 致力于实现计算资源规模与成本的无限扩张,而 DeepSeek 一直致力用尽可能低成本的计算资源实现更高的效率。 2. OpenAI 花了两年时间达到 GPT3 时刻,而 DeepSeek 用了一年摘得了 V3 的圣杯。 3. OpenAI 在 GPT 路线上一直聚焦在预训练的进步,而 DeepSeek 则是训练与推理并重。 DeepSeek 从隐秘低调到备受关注,以及它从 Coder 到 V3 模型的三次迭代,与 OpenAI 从 GPT1 到 GPT3 的升级节奏和引发的反响非常接近。
2025-01-29
RAG技术是什么
RAG 即检索增强生成(RetrievalAugmented Generation),是一种结合了检索模型和生成模型的技术。 其核心目的是通过某种途径把知识告诉给 AI 大模型,让大模型“知道”我们的私有知识,变得越来越“懂”我们。 在这个过程中,首先检索外部数据,然后在生成步骤中将这些数据传递给 LLM。 一个 RAG 的应用通常包含以下 5 个过程: 1. 文档加载:从多种不同来源加载文档,如 PDF 在内的非结构化数据、SQL 在内的结构化数据,以及 Python、Java 之类的代码等。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储:涉及将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。 RAG 的最常见应用场景是知识问答系统,用户提出问题,RAG 模型从大规模的文档集合中检索相关的文档,然后生成回答。 LangChain 是一个用于构建高级语言模型应用程序的框架,它与 RAG 的关系为: 1. LangChain 作为框架,提供了实现 RAG 所必需的工具和组件。 2. RAG 作为技术,可以在 LangChain 框架内得以实施和利用。 3. LangChain 允许开发者通过其模块化组件来构建 RAG 应用程序。 4. LangChain 通过提供现成的链和提示模板,简化了 RAG 应用程序的开发过程。 5. 利用 LangChain 实现 RAG 可以帮助开发者创建更高效、更准确的应用程序,特别是在需要大量外部信息来辅助决策的场景中。 6. LangChain 通过其丰富的 API 和组件库,支持开发者构建复杂的 RAG 应用,如智能问答系统、内容推荐引擎等。
2025-01-28
我是一家企业服务公司的负责人,我们业务的主要工作是给客户提供品牌策划,搭建新媒体矩阵账号,请问我应该如何学习ai才能运用ai技术提升工作效率
对于您这样的企业服务公司负责人,想要通过学习 AI 技术提升工作效率,可以从以下几个方面入手: 1. 了解 AI 基础知识:包括 AI 的基本概念、原理和应用领域,建立对 AI 的整体认知。 2. 学习自然语言处理(NLP):这对于品牌策划和新媒体矩阵账号的内容创作很有帮助,例如利用 NLP 技术进行文本分析、情感分析等。 3. 掌握 AI 工具:如 ChatGPT 等,学会如何利用这些工具生成创意文案、优化内容。 4. 研究 AI 绘画工具:用于为品牌策划和新媒体账号提供独特的视觉素材。 5. 探索自动化营销工具:借助 AI 实现营销流程的自动化,提高工作效率。 6. 参加相关培训课程:线上或线下的专业 AI 培训,系统学习 AI 知识和应用技巧。 7. 关注行业动态:了解最新的 AI 技术在品牌策划和新媒体领域的应用案例,借鉴他人经验。 8. 实践与实验:在实际工作中尝试应用 AI 技术,不断总结经验,优化工作流程。
2025-01-25
2024年视频换脸技术
2024 年视频换脸技术面临一些挑战和发展趋势: 挑战方面: 可控性和一致性存在挑战,如人脸转动中保持观感不变形、多个生成片段保持人物一致性、遵循生成指令等,目前视频生成的体感仍需改进,需要底层模型的进步。 成本较高,生成一段 5 秒视频的成本最低约为 1 元人民币,限制了 C 端玩法和大规模应用。 发展趋势: 原生多模态成为 AI 架构的主流选择,从 OpenAI 的 GPT4V 到 Anthropic 的 Claude3V 和 xAI 的 Grok1.5V 等,行业正从简单的模态叠加向真正的多模态融合迈进。原生多模态模型采用统一的编码器解码器架构,在预训练阶段完成多模态信息的深度融合,提升了模型的理解能力,实现了模态间的无缝转换和互补增强,能够处理更复杂的任务。 自 2023 年末开始,Runway、Pika、Meta、Google 等不断推出视频生成/编辑工具,2024 年是 AI 视频技术逐渐成熟并开始商用的一年,下半年或 2025 年可能会看到 AI3D 技术的突破。抖音的成功证明音频、视频加入泛社交/娱乐产品会带来质的飞跃,AI 陪聊赛道中视频、音频技术的加入也将带来内容生产和社交方式的质变。
2025-01-24