Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

openai 12天都有哪些内容

Answer

以下是 OpenAI 12 天相关的内容:

  • 12 月 18 日:
    • API 正式版:速度更快,成本降低 60%,支持视觉识别、函数调用、结构化输出等功能。
    • 语音交互升级:引入 WebRTC 支持,12 行代码即可实现实时语音交互,音频处理费用降低 60%。
    • 偏好微调功能:让 AI 回答更具个性化,企业 AI 准确率提升显著。
    • 新增 Go 和 Java 工具包,简化 API 密钥申请流程。
  • 12 月 12 日:
    • 苹果设备深度集成 ChatGPT,可通过 Siri 实现文档总结、任务分配、节日创意等操作。
    • 多平台无缝衔接:支持 iPhone、iPad 和 Mac,涵盖 Siri 集成、写作工具增强、视觉智能分析等多种应用场景。
    • 实用场景:圣诞派对策划、PDF 总结、歌单生成、视觉智能评选毛衣创意等功能演示,体现全新交互体验。
  • 12 月 5 日:
    • OpenAI 近日宣布将举行为期 12 天的活动,期间每天直播展示新功能或工具。
    • DeepMind 发布了基础世界模型 Genie 2,可以通过一张图片生成可操作的 3D 环境,实现智能体的实时交互与行为预测。
    • 真格基金投资副总裁 Monica 在其播客「OnBoard!」发布的最新一期对谈中,与在一线大模型机构有实际训练大语言模型(LLM)经验的研究员针对 OpenAI o1 模型进行了三个多小时的拆解与解读。强化学习如何给大语言模型带来新的逻辑推理能力?这种能力的来源、实现方式和未来潜力又是怎样的?o1 带来的「新范式」会对行业有怎样的影响?
Content generated by AI large model, please carefully verify (powered by aily)

References

宝玉 日报

🫧宝玉日报「12月18日」✨✨✨✨✨✨✨✨1⃣️🧠AI架构与技术选型的4条原则选主流框架:优先选择语料多、生成质量好的语言和框架。测试覆盖率:用AI辅助生成测试代码,确保代码质量。避免私有框架:尽量使用流行框架生成独立模块代码。模块化设计:降低耦合度,方便AI快速开发和维护。🔗[https://x.com/dotey/status/1869209113726529989](https://x.com/dotey/status/1869209113726529989)2⃣️💻OpenAI 12天发布会第9天:开发者主题日o1 API正式版:速度更快,成本降低60%,支持视觉识别、函数调用、结构化输出等功能。语音交互升级:引入WebRTC支持,12行代码即可实现实时语音交互,音频处理费用降低60%。偏好微调功能:让AI回答更具个性化,企业AI准确率提升显著。新增Go和Java工具包,简化API密钥申请流程。🔗[https://x.com/dotey/status/1869166100367151452](https://x.com/dotey/status/1869166100367151452)3⃣️🎭Sora眼中的西施:穿越古代的浪漫邂逅Prompt描述了在繁华古代集市遇见西施的唯美场景。镜头化叙事,展现了主角与西施的心动瞬间及互动细节。🔗[https://x.com/dotey/status/1869087190447280303](https://x.com/dotey/status/1869087190447280303)

宝玉 日报

🫧宝玉日报「12月12日」✨✨✨✨✨✨✨✨🍎OpenAI连续12天AI发布会:第五天完整视频(中英文双语字幕)亮点功能:苹果设备深度集成ChatGPT,可通过Siri实现文档总结、任务分配、节日创意等操作。多平台无缝衔接:支持iPhone、iPad和Mac,涵盖Siri集成、写作工具增强、视觉智能分析等多种应用场景。实用场景:圣诞派对策划、PDF总结、歌单生成、视觉智能评选毛衣创意等功能演示,体现全新交互体验。🔗[https://x.com/dotey/status/1866974269051113543](https://x.com/dotey/status/1866974269051113543)

4.4 历史更新

《[OpenAI深夜官宣!连续12天发布AI大招!「截胡」DeepMind头条,Sora、满血o1或将发布](https://mp.weixin.qq.com/s/LwGWl2mm8UpIE4MeqIc3Dw)》OpenAI近日宣布将举行为期12天的活动,期间每天直播展示新功能或工具。与此同时,DeepMind发布了基础世界模型Genie 2,可以通过一张图片生成可操作的3D环境,实现智能体的实时交互与行为预测。《[三万字实录对话Google Deepmind研究员:拆解OpenAI o1及LLM+RL新范式](https://mp.weixin.qq.com/s/W6-ZdS5xBk3-odFEs-LAgA)》真格基金投资副总裁Monica在其播客「OnBoard!」发布的最新一期对谈中,与在一线大模型机构有实际训练大语言模型(LLM)经验的研究员针对OpenAI o1模型进行了三个多小时的拆解与解读。强化学习如何给大语言模型带来新的逻辑推理能力?这种能力的来源、实现方式和未来潜力又是怎样的?o1带来的「新范式」会对行业有怎样的影响?《[Anthropic创始人最看好的领域,AI for Science深度解读](https://mp.weixin.qq.com/s/Uxu7zsCeFVUcpWJg9aOyFA)》Anthropic的联合创始人兼CEO Dario Amodei预测,AI在生物学和神经科学领域将加速研究进程,可能在5-10年内实现原本需要50-100年才能达到的突破。Pear VC分析了过去15年北美和欧洲的Top 50 Biotech公司,发现药物研发公司占大多数,且行业内对智能软件的需求将推动Biotech SaaS的发展。

Others are asking
12个prompt 框架
以下是 12 种 Prompt 框架: 1. Instruction(指令):即希望 AI 执行的具体任务,如翻译或写一段文字。 2. Context(背景信息):给 AI 更多背景信息,引导模型做出更贴合需求的回复。 3. Input Data(输入数据):告知模型需要处理的数据。 4. Output Indicator(输出引导):告知模型输出的类型或风格。 5. Capacity and Role(能力和角色):ChatGPT 应扮演的角色。 6. Insight(见解):提供请求背后的见解、背景和上下文。 7. Statement(声明):说明要求 ChatGPT 做什么。 8. Personality(个性):希望 ChatGPT 以何种风格、个性或方式回应。 9. Experiment(实验):请求 ChatGPT 回复多个示例。 10. Background(背景):说明背景,为 ChatGPT 提供充足信息。 11. Role(角色):希望 ChatGPT 扮演的角色。 12. Objectives(目标):希望实现的目标。 此外,还有以下框架: 1. TASK(任务):定义特定任务。 2. ACTION(行动):描述需要做的事情。 3. GOAL(目标):解释最终目标。 4. INPUT(输入):描述信息或资源。 5. STEPS(步骤):询问详细的步骤。 6. EXPECTATION(期望):描述所需的结果。 7. REQUEST(请求):描述您的要求。 8. Key Result(关键结果):要什么具体效果,试验并调整。 9. Evolve(试验并改进):三种改进方法自由组合,包括改进输入、改进答案、重新生成。 10. CONTEXT(上下文背景):为对话设定舞台。 11. OBJECTIVE(目的):描述目标。 12. SCENARIO(方案):描述场景。 同时,还有一些特定的框架,如 ICIO 框架、CRISPE 框架、BROKE 框架等。
2025-01-23
12种prompt框架
以下是 12 种 Prompt 框架: 1. Instruction(指令):说明希望 AI 执行的具体任务,例如翻译或写一段文字。 2. Context(背景信息):提供更多背景信息,引导模型做出更贴合需求的回复。 3. Input Data(输入数据):告知模型需要处理的数据。 4. Output Indicator(输出引导):告知模型输出的类型或风格。 5. Capacity and Role(能力和角色):明确 ChatGPT 应扮演的角色。 6. Insight(见解):提供请求背后的见解、背景和上下文。 7. Statement(声明):明确要求 ChatGPT 做什么。 8. Personality(个性):指定希望 ChatGPT 以何种风格、个性或方式回应。 9. Experiment(实验):请求 ChatGPT 回复多个示例。 10. Background(背景):说明背景,为 ChatGPT 提供充足信息。 11. Role(角色):指定希望 ChatGPT 扮演的角色。 12. Objectives(目标):说明希望实现的目标。 此外,还有一些其他相关的框架概念,如: 1. Key Result(关键结果):明确想要的具体效果,并试验和调整。 2. Evolve(试验并改进):包括改进输入、改进答案和重新生成等方法。 3. CONTEXT 上下文背景:为对话设定舞台。 4. OBJECTIVE 目的:描述目标。 5. ACTION 行动:解释所需的动作。 6. SCENARIO 方案:描述场景。 7. TASK 任务:描述任务。 8. ICIO 框架:相关链接 9. CRISPE 框架:相关链接 10. BROKE 框架:作者陈财猫,相关链接 11. PATFU 泡芙提示词框架:作者口袋君,包括 Problem(问题)、Aera(领域)、Task(任务)等。
2025-01-06
OpenAI过去12天的发布会总结
以下是 OpenAI 过去 12 天发布会的总结: 自媒体记录方面: 夕小瑶科技说:o3 发布,可能影响码农工作。 孔某人的低维认知:OpenAI 圣诞 12 天总评,感谢大佬赏饭。 MAX 01Founder:一文详解 o3,虽接近 AGI 但使用成本高。 南瓜博士:使用 o3 钱包和脑子可能不够。 数字生命卡兹克:OpenAI 正式发布 o3,通往 AGI 路上已无障碍。 具体发布内容: Day12:o3 与 o3 mini 正式亮相。 Day11:ChatGPT 桌面应用,Option+空格快速唤起。 Day10:OpenAI 发布电话倾诉功能 18002428478。 Day9:o1 满血版 API 和 4o 实时语音 API 更新。 Day8:AI 搜索功能免费开放,并支持实时语音搜索。 Day7:ChatGPT 全新“项目”功能发布。 Day6:实时视频通话&圣诞老人模式正式上线。 Day5:ChatGPT 与 Apple 的深度合作。 Day4:直播“翻车”的 Canvas。 Day3:Sora 终于上线,有案例和功能详解。 Day2:微调 O1 模型,低成本高效率。 Day1:强化学习微调的实操案例。 宝玉日报 12 月 18 日: AI 架构与技术选型的 4 条原则:选主流框架、确保测试覆盖率、避免私有框架、采用模块化设计。 OpenAI 12 天发布会第 9 天:o1 API 正式版速度更快成本降低,支持多种新功能;语音交互升级,引入 WebRTC 支持,处理费用降低;新增偏好微调功能和工具包,简化 API 密钥申请流程。 易观分析报告预测了 AI 技术未来的关键发展方向,德邦证券报告对 OpenAI 十二日发布会进行深度总结,认为随着大模型能力提升和应用场景扩展,AI 应用商业价值有望实现,建议关注相关领域。
2024-12-31
输出12个精选prompt框架
以下是 12 种精选的 Prompt 框架: 1. Key Result(关键结果):明确想要的具体效果,通过试验并调整。包括改进输入、改进答案和重新生成等方法。 2. Evolve(试验并改进):三种改进方法自由组合,如从答案不足之处改进背景、目标与关键结果,在后续对话中指正 ChatGPT 答案缺点,或在 Prompt 不变情况下多次生成结果优中选优。 3. CONTEXT(上下文背景):为对话设定舞台。 4. OBJECTIVE(目的):描述目标。 5. ACTION(行动):解释所需的动作。 6. SCENARIO(方案):描述场景。 7. TASK(任务):描述任务。 8. ICIO 框架:相关链接 9. CRISPE 框架:相关链接 10. BROKE 框架:作者陈财猫,相关链接 11. PATFU 泡芙提示词框架:作者口袋君,包括清晰表述需要解决的问题、问题所在领域及需要扮演的角色、解决问题需要执行的具体任务。 12. Format(格式):详细定义输出的格式和限制条件,以及记录提示词版本并根据输出结果对提示词迭代。
2024-12-16
11月到12月AI领域的发展情况
在过去的 11 月到 12 月期间,AI 领域呈现出以下发展情况: 流量增长:在过去 12 个月里,人工智能行业是重要的技术发展之一。从 2022 年 9 月到 2023 年 8 月,研究的工具总流量增长了 10.7 倍,从起始的 2.418 亿次访问增长到 28 亿次访问。其中,流量的飞跃从去年 11 月开始,ChatGPT 成为最快达到 100 万用户的平台。2023 年 5 月达到峰值约 41 亿,之后有所回落,但人们的兴趣仍巨大。 创新机会: 整合组件使 AI 系统全面理解物理世界环境,做出更智能决策和行动,对开发先进机器人和自动化系统有益。 算力成为核心竞争力关键指标,科技巨头投入巨资建设超大规模 GPU 集群。如 xAI 公司建成超级计算机,Meta 训练新一代模型。 行业竞争格局转向“建设为王”的新时代,数据中心扩展成为重点,建设效率可能决定在 AI 下一阶段的表现。 高质量数据稀缺。 行业动态:2024 年 11 月,AI 行业呈现快速发展态势,大厂纷纷推出新功能,加速产品进化,AI 技术开始渗透到多个领域。如 Claude 上线桌面端和语音输入、Blendbox 推出图层式 AI 生成工具、阿里发布 EcomlD 支持生成真实人像、Suno 上线 Personas 功能等。
2024-12-06
NVIDIA Graphics Device with CUDA capability sm_120 is not compatible with the current PyTorch installation. The current PyTorch install supports CUDA capabilities sm_37 sm_50 sm_60 sm_61 sm_70 sm_75 sm_80 sm_86 sm_90 compute_37. If you want to use th
您好,出现“NVIDIA Graphics Device with CUDA capability sm_120 is not compatible with the current PyTorch installation. The current PyTorch install supports CUDA capabilities sm_37 sm_50 sm_60 sm_61 sm_70 sm_75 sm_80 sm_86 sm_90 compute_37.”这种情况,意味着您所使用的 NVIDIA 显卡的 CUDA 计算能力(sm_120)与当前安装的 PyTorch 版本不兼容。当前安装的 PyTorch 支持的 CUDA 计算能力为 sm_37 至 sm_90 以及 compute_37 。您可能需要重新安装与您显卡 CUDA 计算能力相匹配的 PyTorch 版本,或者升级您的显卡驱动程序来解决此兼容性问题。
2024-11-30
openai 的产品分析
OpenAI 的产品具有以下特点和发展情况: 去年 11 月发布了基于 GPT3.5 最新版本的消费级产品 ChatGPT,其具有强大的功能,能提供各种回答和完成多种任务,但也存在捏造事实的问题。ChatGPT 被视为 GPT4 的台标。 OpenAI 内部对于是否发布功能强大的工具存在争论,发布被视为让公众适应 AI 改变日常生活现实的战略一部分。 OpenAI 目前严重受限于 GPU,这影响了其多项计划,包括 API 的可靠性和速度、更长上下文窗口的推广、微调 API 以及专用容量的提供。 Sam Altman 分享了 OpenAI 近期路线,如 2023 年的首要任务是更便宜、更快的 GPT4,以及实现更长的上下文窗口、扩展微调 API 和推出有状态的 API。 2024 年 10 月有相关的视频和文章对 OpenAI 进行分析和介绍新产品,如剖析其从理想主义走向商业化的历程,以及介绍了四款创新 AI 产品。
2025-01-11
openai中学生写作的建议
以下是 OpenAI 针对中学生写作的一些建议: 1. 写作过程分为五个阶段:前期调研、框架构建、论证深化、反馈改进和调整格式。 2. 包含 12 条具体建议,如快速了解主题、创建反向大纲、寻求反馈和规范引用等技巧。 3. 强调将 AI 作为思维的催化剂,而非替代品。 4. 获得更好结果的六种策略: 写清楚说明:包括在问题中包含细节以获取更相关的答案、要求模型采用一个角色、使用分隔符清晰地表示输入的不同部分、指定完成任务所需的步骤、提供示例、指定期望的输出长度。 提供参考文本:指示模型使用参考文本回答、指示模型使用参考文本中的引用来回答。 将复杂任务拆分成更简单的子任务。 给 GPT 时间「思考」。 使用外部工具。 系统地测试更改。
2025-01-10
openai
以下是关于 OpenAI 的相关信息: AGI 的 5 个等级: 聊天机器人(Chatbots):具备基本对话能力,主要依赖预设脚本和关键词匹配,用于客户服务和简单查询响应。 推理者(Reasoners):具备人类推理水平,能解决复杂问题,如 ChatGPT,可根据上下文和文件提供详细分析和意见。 智能体(Agents):不仅具备推理能力,还能执行全自动化业务,但目前许多 AI Agent 产品执行任务后仍需人类参与,尚未达到完全智能体水平。 创新者(Innovators):能够协助人类完成新发明,如谷歌 DeepMind 的 AlphaFold 模型,可预测蛋白质结构,加速科学研究和新药发现。 组织(Organizations):最高级别的 AI,能够自动执行组织的全部业务流程,如规划、执行、反馈、迭代、资源分配和管理等。 模型: GPT4(Beta):一组改进 GPT3.5 的模型,可理解和生成自然语言或代码。 GPT3.5:一组改进 GPT3 的模型,可理解并生成自然语言或代码。 DALL·E(Beta):可以在给定自然语言提示的情况下生成和编辑图像的模型。 Whisper(Beta):可以将音频转换为文本的模型。 Embeddings:一组可以将文本转换为数字形式的模型。 Codex(Limited Beta):一组可以理解和生成代码的模型,包括将自然语言转换为代码。 Moderation:可以检测文本是否敏感或不安全的微调模型。 GPT3:一组可以理解和生成自然语言的模型。 GPT、DALL·E、Sora 相关:Sora 的出现证明了 OpenAI 试图让计算机模拟真实物理世界的野心及对自身技术路线的坚持。从 OpenAI 发布的 Sora 的技术报告中可看到对过往大语言模型训练成功经验的复用。加州大学伯克利分校计算机科学 PHD、知乎作者 SIY.Z 从技术实现上分析了 Sora 成功的部分原因,以及从商业和技术趋势上分析了 OpenAI 能跑通全部技术栈的原因,并尝试预测了 OpenAI 下一步的进展。
2024-12-27
openai 发布的sora最新模型中,生成视频的提示词与一般问答提示词有什么区别或者注意事项?
Sora 是 OpenAI 于 2024 年 2 月发布的文本到视频的生成式 AI 模型。 生成视频的提示词与一般问答提示词的区别和注意事项如下: 1. 对于视频生成,神经网络是单射函数,拟合的是文本到视频的映射。由于视频的动态性高,值域大,因此需要丰富且复杂的提示词来扩大定义域,以学好这个函数。 2. 详细的文本提示能迫使神经网络学习文本到视频内容的映射,加强对提示词的理解和服从。 3. 和 DALL·E 3 一样,OpenAI 用内部工具(很可能基于 GPT4v)给视频详尽的描述,提升了模型服从提示词的能力以及视频的质量(包括视频中正确显示文本的能力)。但这会导致在使用时的偏差,即用户的描述相对较短。OpenAI 用 GPT 来扩充用户的描述以改善这个问题,并提高使用体验和视频生成的多样性。 4. 除了文本,Sora 也支持图像或者视频作为提示词,支持 SDEdit,并且可以向前或者向后生成视频,因此可以进行多样的视频编辑和继续创作,比如生成首尾相连重复循环的视频,甚至连接两个截然不同的视频。 以下是一些 Sora 的案例提示词,如:“小土豆国王戴着雄伟的王冠,坐在王座上,监督着他们广阔的土豆王国,里面充满了土豆臣民和土豆城堡。”“咖啡馆的小地图立体模型,装饰着室内植物。木梁在上方纵横交错,冷萃咖啡站里摆满了小瓶子和玻璃杯。”“一张写有‘SORA’的写实云朵图像。”“一群萨摩耶小狗学习成为厨师的电影预告片‘cinematic trailer for a group of samoyed puppies learning to become chefs’”
2024-12-27
openai
OpenAI 的相关信息如下: 模型: OpenAI API 由多种具有不同功能和价位的模型提供支持,还可通过微调针对特定用例对原始基本模型进行有限定制。 具体模型包括:GPT4(Beta),是一组改进 GPT3.5 的模型,能理解和生成自然语言或代码;GPT3.5,是一组改进 GPT3 的模型,能理解并生成自然语言或代码;DALL·E(Beta),能在给定自然语言提示的情况下生成和编辑图像;Whisper(Beta),能将音频转换为文本;Embeddings,能将文本转换为数字形式;Codex(Limited Beta),能理解和生成代码,包括将自然语言转换为代码;Moderation,能检测文本是否敏感或不安全的微调模型;GPT3,能理解和生成自然语言。 为何能跑通所有 AGI 技术栈: 方法论明确:通用模型能用到更多数据,减少技术栈,OpenAI 未来可能会继续走通用模型的道路,降低微调等特化的需求,继续增加模型的上下文长度。 用一个模型为另一个模型提供标注:OpenAI 的 Dall E 和 Sora 都用到了大量可能来自于 GPT vision 的数据标注,未来可能会继续加强各个模型的连接。 Transformer 架构:其在各个模态和技术栈具有优势,能复用模型参数和使用一套基础设施框架训练不同模型,新模型若要取代,需通过缩放定律的检验。 稀疏模型。
2024-12-25
有AI工具可以帮我把视频里的文字内容提取吗
以下是一些可以帮助您提取视频里文字内容的 AI 工具和方法: 1. 对于 B 站视频,如果视频有字幕,您可以安装油猴脚本。安装之后,刷新浏览器,点击字幕,会出现“下载”按钮,您可以选择多种字幕格式,然后将下载的字文字内容全选复制发送给 GPTs 进行总结。 2. 如果您想用 AI 把小说做成视频,大致流程如下: 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。
2025-01-22
我想学习关于 comfy ui的内容
以下是一些关于 ComfyUI 的学习资源和相关信息: 1. 学习资料: ComfyUI 官方文档:提供使用手册和安装指南,适合初学者和有经验的用户。网站:https://www.comfyuidoc.com/zh/ 优设网:有详细的 ComfyUI 入门教程,适合初学者。教程地址:https://www.uisdc.com/comfyui3 知乎:有用户分享 ComfyUI 的部署教程和使用说明,适合有一定基础的用户。教程地址:https://zhuanlan.zhihu.com/p/662041596 Bilibili:提供一系列从新手入门到精通的视频教程。教程地址:https://www.bilibili.com/video/BV14r4y1d7r8/ 2. 8 月 13 日 ComfyUI 共学内容: 包括学习交流与活动安排,讨论了学习需求、教程分享、部署问题、应用场景及活动规划。 工作流的分享与探讨,涉及不同场景应用、优势、弊端及学习方法,还有分享会和开源社区情况。 学习交流与报错问题解决,包括使用、工作流分享、报错问题及解决方案,以及课程设计安排。 讨论了 AI 绘图技术在工作中的应用与分享,包括项目实践、技术调研、培训及未来教学计划等。 介绍了课程规划,包括从零基础开始,逐步深入到环境部署、底层技术概念、提示词等内容,还介绍了 config 牛角尖大王系列。 提到具备搭建复杂工作流能力,会拆解分析网上热门工作流,报错问题可分为网络、模型、工作流搭建、环境等方面,安装新插件时可参考项目地址的 requirement 文档,规划了实战案例思路。 3. ComfyUI 自动生成抠图素材: 学习使用 ComfyUI 的原因:更接近 SD 的底层工作原理,自动化工作流,作为强大的可视化后端工具可实现 SD 之外的功能,可根据定制需求开发节点或模块。 作者制作工作流的动机是工作室经常需要抠图素材,传统途径要么花钱要么花时间且不能定制,近期在 github 上看到相关项目,基于此创建了工作流,可自动生成定制需求的抠图素材,几秒即可完成。随后将分享创建工作流的思路及详细步骤讲解。
2025-01-22
概括论文主要内容
以下是对这三篇论文的主要内容概括: 《20240301:1bit LLMs》 作者:Shuming Ma 等 核心观点:提出新的 1bit LLM 变体 BitNet b1.58,在保持与全精度 Transformer LLM 相同性能的同时,显著降低延迟、内存、吞吐量和能源消耗。 亮点:定义新的训练高性能且成本效益的 LLM 的缩放法则和方法,开启为 1bit LLMs 设计特定硬件的新计算范式。 核心贡献:在 3B 模型大小时,与 FP16 LLM 基线在困惑度和端任务性能方面匹配,同时在内存、延迟和能源消耗方面有显著提升。 动机:解决随着 LLMs 规模和能力快速增长带来的部署挑战和环境经济影响。 《20240227:ScreenAI》 作者:Gilles Baechler 等 核心观点:介绍专门用于理解和处理用户界面和信息图表的视图语言模型 ScreenAI。 亮点:通过结合 PaLI 架构和 pix2struct 的灵活拼贴策略,以及在独特的数据集混合上进行训练,实现了在 UI 和信息图表理解任务上的新最佳性能。 核心贡献:在只有 50 亿参数的情况下,在多个基于 UI 和信息图表的任务上取得新的最佳性能,在其他任务上也表现出色。 动机:解决 UI 和信息图表的复杂性,应对其对单一模型理解、推理和交互提出的挑战。 《20240305:Claude 3》 作者:Anthropic 核心观点:介绍 Anthropic 开发的 Claude 3 模型家族,包括 Opus、Sonnet 和 Haiku,在多模态输入、推理、数学和编码方面表现出色,并分析了安全性和社会影响。 亮点:在多个基准测试中取得最先进的结果,非英语语言流畅度提高,适合全球受众;Claude 3 Opus 在推理、数学和编码方面设定新标准,Haiku 是最快速且成本最低的模型,具备视觉能力。 核心贡献:通过多模态输入能力和工具使用提供丰富上下文和扩展用例。 动机:致力于开发安全、负责任的 AI 系统,支持企业自动化任务、生成收入、进行复杂的财务预测和加速研发。
2025-01-19
如何准确调用知识库的内容?
要准确调用知识库的内容,可以从以下方面进行: 维护知识库内容: 为提升召回准确率,可删除、新增或修改知识库内容。 在知识库页面,能看到已创建的知识库及每个知识库内的单元数量和创建时间等信息。单击知识库或编辑图标,可进入知识库详情页面。在详情页可进行新增内容、删除内容、更新单元内的分段、开启引用等操作。若不开启引用,即便 Bot 中使用了所属的知识库,该单元内容也不会被召回。 使用知识库: 可以将知识库直接与 Bot 进行关联用于响应用户回复,也可以在工作流中添加知识库节点。 在 Bot 内使用知识库: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在 Bots 页面,选择指定 Bot 并进入 Bot 详情页。 4. 在 Bot 编排页面的知识库区域,单击加号图标,添加指定的知识库。 5. (可选)添加知识库后,可在自动调用下拉界面内,调整知识库的配置项,如最大召回数量、最小匹配度、调用方式等。在预览与调试区域调试 Bot 能力时,扩展运行完毕的内容可以查看知识库命中并召回的分片内容。 在工作流内使用 Knowledge 节点: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在页面顶部进入工作流页面,并打开指定的工作流。 4. 在左侧基础节点列表内,选择添加 Knowledge 节点。 关于让 AI+知识库回答更准确的示例: 以问答机器人为例,其配置包括 AI 模型、提示词、知识库。大语言模型如同拥有无穷智慧的人,提示词是设定其角色和专注技能,知识库则是工作手册。例如设定 AI 模型为阿里千问模型,提示词角色为“美嘉”,知识库为《爱情公寓》全季剧情,让“美嘉”拥有相关“记忆”。
2025-01-18
有哪些关于AI编程的cursor的内容,比较好的教程和使用经验之类的
以下是一些关于 AI 编程 Cursor 的内容、教程和使用经验: 1. 熊猫 Jay 的教程: 原文地址:https://mp.weixin.qq.com/s/KZt53OxCtlwuTKhplzGCg 涵盖了 Cursor 和其他编程工具的区别、Cursor 入门(安装和使用)、Cursor 初阶案例(开发谷歌插件)、Cursor 进阶案例(开发卡密系统)以及很多加餐项。 2. Cursor 官方介绍: 强调 Cursor 是使用 AI 进行编码的最佳方式,旨在让您极其高效。 包括读懂数据库、使用 tab 来编辑等功能。 3. 三个人和一场黑客松的经历: 作者认为 Cursor 改变了普通人与编程的关系,让不具备代码能力的人可以通过自然语言描述快速开发一些项目。 提到了一些用 AI 做的项目,如各类视频站的整合下载工具、根据 BGM 节奏合成高频卡点视频的 Python 脚本、提取图片颜色生成色板的 Chrome 插件等。 如果您想进一步了解具体内容,可以访问上述提到的链接。
2025-01-17
想用coze做一个可以提取上传pdf文档相关内容的智能体,请给我思路
以下是使用 Coze 做一个可以提取上传 PDF 文档相关内容的智能体的思路: 前期准备: 1. 简化“收集”: 实现跨平台收集功能,支持电脑(web 端)、安卓、iOS 多端操作。 考虑到待阅读内容通常都有网页链接,最理想的方式是只需输入一个 URL 就能完成收集。借鉴微信文件传输助手的直观操作方式,通过聊天窗口完成收集输入会更符合用户习惯。 2. 自动化“整理入库”: 为便于存储和回顾已收集的阅读清单,系统应在入库时自动整理每条内容的关键信息,包括标题、摘要、作者、发布平台、发布日期、收集时间和阅读状态。 同时,这份阅读清单最好也能支持跨平台查看,提高可访问性。 3. 智能“选择”推荐: 根据当前收藏记录,结合用户的阅读兴趣,进行相关性匹配,并生成最合适的阅读计划。 逐步搭建 AI 智能体: 1. 搭建整理入库工作流: 新建工作流「url2table」,根据弹窗要求自定义工作流信息。 工作流全局流程设置: 开始节点:输入 url,由于希望收到用户输入的待收藏 url 就开始流程,所以不需要额外配置(至于如何判断哪些用户输入是需要收藏的 url,则交由外层 bot 的大模型判断)。 变量节点:引入 bot 变量中保存的飞书多维表格地址,为了便于维护充当稍后读存储地址的飞书多维表格链接,我们需要将这个链接存储在 bot 的变量中,并在工作流运行时进行引用。 插件节点:获取页面内容,这一步直接把开始节点的{{BOT_USER_INPUT}},引入到参数{{url}}中;随便设置{{timeout}}为 60000。 通过飞书机器人与 Coze 搭建的智能体进行对话,在聊天窗口中完成链接输入和阅读计划输出,由 Coze 调用大模型、插件,完成内容的整理、推荐,利用飞书多维表格存储和管理稍后读数据。这样一来,理论上无需开发任何插件、APP,也能实现跨平台的稍后读收集与智能阅读计划的推荐。
2025-01-17