Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

ChatGLM开发者团队介绍

Answer

ChatGLM 是一个开源的、支持中英双语的对话语言模型,底座是 GLM 语言模型。其相关信息如下:

  • 地址:https://github.com/THUDM/ChatGLM-6B
  • 简介:中文领域效果最好的开源底座模型之一,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持。

此外,基于 ChatGLM 还有在垂直领域微调的模型,如医疗领域的 Med-ChatGLM,其地址为:https://github.com/SCIR-HI/Med-ChatGLM

Content generated by AI large model, please carefully verify (powered by aily)

References

信鑫:基于大模型 + 知识库的 Code Review 实践

[title]信鑫:基于大模型+知识库的Code Review实践[heading2]名词解释|名词|释义|<br>|-|-|<br>|CR / Code Review|越来越多的企业都要求研发团队在代码的开发过程中要进行CodeReview(简称CR),在保障代码质量的同时,促进团队成员之间的交流,提高代码水平。|<br>|llm /大规模语言模型|大规模语言模型(Large Language Models,LLMs)是自然语言处理中使用大量文本数据训练的神经网络模型,可以生成高质量的文本并理解语言。如GPT、BERT等。|<br>|AIGC|利用NLP、NLG、计算机视觉、语音技术等生成文字、图像、视频等内容。<br>全称是人工智能生成/创作内容(Artificial Intelligence Generated Content);是继UGC,PGC后,利用人工智能技术,自动生成内容的生产方式;AIGC底层技术的发展,驱动围绕不同内容类型(模态)和垂直领域的应用加速涌现。|<br>|Gemma|Gemma是一个轻量级、先进的开放模型系列,采用与创建Gemini模型相同的研究和技术构建而成。Gemma由Google DeepMind和Google的其他团队开发,以拉丁语gemma(意为“宝石”)命名。Gemma模型权重由促进创新、协作和负责任地使用人工智能(AI)的开发者工具提供支持。|<br>|LLaMA|Meta(Facebook)的大型多模态语言模型。|<br>|ChatGLM|ChatGLM是一个开源的、支持中英双语的对话语言模型,底座是GLM语言模型。|<br>|Baichuan|Baichuan 2是百川智能推出的新一代开源大语言模型,采用2.6万亿Tokens的高质量语料训练。|

LLM开源中文大语言模型及数据集集合

[title]LLM开源中文大语言模型及数据集集合[heading4]1.ModelChatGLM:地址:[https://github.com/THUDM/ChatGLM-6B](https://github.com/THUDM/ChatGLM-6B)简介:中文领域效果最好的开源底座模型之一,针对中文问答和对话进行了优化。经过约1T标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持VisualGLM-6B地址:[https://github.com/THUDM/VisualGLM-6B](https://github.com/THUDM/VisualGLM-6B)简介:一个开源的,支持图像、中文和英文的多模态对话语言模型,语言模型基于ChatGLM-6B,具有62亿参数;图像部分通过训练BLIP2-Qformer构建起视觉模型与语言模型的桥梁,整体模型共78亿参数。依靠来自于CogView数据集的30M高质量中文图文对,与300M经过筛选的英文图文对进行预训练。Chinese-LLaMA-Alpaca:地址:[https://github.com/ymcui/Chinese-LLaMA-Alpaca](https://github.com/ymcui/Chinese-LLaMA-Alpaca)简介:中文LLaMA&Alpaca大语言模型+本地CPU/GPU部署,在原版LLaMA的基础上扩充了中文词表并使用了中文数据进行二次预训练

LLM开源中文大语言模型及数据集集合

[title]LLM开源中文大语言模型及数据集集合[heading3][heading4]2.1垂直领域微调[heading5]医疗Med-ChatGLM:地址:[https://github.com/SCIR-HI/Med-ChatGLM](https://github.com/SCIR-HI/Med-ChatGLM)简介:基于中文医学知识的ChatGLM模型微调,微调数据与BenTsao相同。QiZhenGPT:地址:[https://github.com/CMKRG/QiZhenGPT](https://github.com/CMKRG/QiZhenGPT)简介:该项目利用启真医学知识库构建的中文医学指令数据集,并基于此在LLaMA-7B模型上进行指令精调,大幅提高了模型在中文医疗场景下效果,首先针对药品知识问答发布了评测数据集,后续计划优化疾病、手术、检验等方面的问答效果,并针对医患问答、病历自动生成等应用展开拓展。ChatMed:地址:[https://github.com/michael-wzhu/ChatMed](https://github.com/michael-wzhu/ChatMed)简介:该项目推出ChatMed系列中文医疗大规模语言模型,模型主干为LlaMA-7b并采用LoRA微调,具体包括ChatMed-Consult:基于中文医疗在线问诊数据集ChatMed_Consult_Dataset的50w+在线问诊+ChatGPT回复作为训练集;ChatMed-TCM:基于中医药指令数据集ChatMed_TCM_Dataset,以开源的中医药知识图谱为基础,采用以实体为中心的自指令方法(entity-centric self-instruct),调用ChatGPT得到2.6w+的围绕中医药的指令数据训练得到。

Others are asking
开源大模型ChatGLM 系列有哪些版本
ChatGLM 系列的开源版本包括: ChatGLM36B:第三代 ChatGLM 对话模型,采用全新设计的 Prompt 格式,原生支持工具调用、代码执行和 Agent 任务等复杂场景。 ChatGLM36Bbase:第三代 ChatGLM 基座模型,采用更多样的训练数据、更充分的训练步数和更合理的训练策略,在 10B 以下的基础模型中性能较强。 ChatGLM36B32k:第三代 ChatGLM 长上下文对话模型,在 ChatGLM36B 的基础上进一步强化了对长文本的理解能力,能处理最多 32K 长度的上下文。
2024-11-04
ChatGLM3 及相关系列产品有哪些
2023 年 10 月 27 日,智谱 AI 于 2023 中国计算机大会(CNCC)上推出了全自研的第三代基座大模型 ChatGLM3 及相关系列产品。其中,智谱清言是基于 ChatGLM 大模型的产品。 智谱清言的特点包括:在工具使用排名国内第一,在计算、逻辑推理、传统安全能力上排名国内前三。总体更擅长专业能力,但代码能力还有优化空间,知识百科与其他第一梯队模型相比稍显不足。 其适合的应用场景相对广泛,根据 SuperCLUE 测评结果,可优先推进在 AI 智能体方面相关的应用,包括任务规划、工具使用及一些长文本记忆相关的场景。在较复杂推理应用上效果不错,在广告文案、文学写作方面也是很好的选择。
2024-11-04
分析 ChatGLM在文生视频领域的应用产出
ChatGLM 是中文领域效果较好的开源底座模型之一,其地址为:。经过约 1T 标识符的中英双语训练,并辅以监督微调、反馈自助、人类反馈强化学习等技术进行优化,针对中文问答和对话有出色表现。 此外,还有基于 ChatGLM6B 的 VisualGLM6B,地址为:。它是一个开源的、支持图像、中文和英文的多模态对话语言模型,语言模型基于 ChatGLM6B,具有 62 亿参数。图像部分通过训练 BLIP2Qformer 构建起视觉模型与语言模型的桥梁,整体模型共 78 亿参数。依靠来自于 CogView 数据集的 30M 高质量中文图文对,与 300M 经过筛选的英文图文对进行预训练。 在文生视频领域,ChatGLM 及其相关模型可能通过对文本的理解和生成能力,为视频的脚本创作、内容描述生成等方面提供支持,但具体的应用产出还需要结合实际的开发和应用场景来进一步探索和评估。
2024-10-30
ChatGLM视频表现有何特色,优劣分析一下
ChatGLM 是中文领域效果最好的开源底座模型之一,具有以下特色: 1. 针对中文问答和对话进行了优化,能更好地处理中文语境下的任务。 2. 经过约 1T 标识符的中英双语训练,并辅以监督微调、反馈自助、人类反馈强化学习等技术的加持。 其优势包括: 1. 在处理中文相关的任务时表现出色,能提供较为准确和有用的回答。 然而,目前可能存在的不足暂未在提供的内容中有明确提及。但一般来说,与其他先进的语言模型相比,可能在某些复杂场景下的表现还有提升空间。
2024-10-30
ChatGLM在生成视频上表现如何
目前 ChatGLM 主要侧重于自然语言处理和文本生成,在生成视频方面的能力相对有限。它并非专门为视频生成而设计的模型。
2024-10-30
ChatGLM是谁开发的
ChatGLM 是由清华大学开发的。它是一个开源的、支持中英双语的对话语言模型,底座是 GLM 语言模型。其相关项目地址为: 。
2024-10-30
我是0基础代码小白,我希望快速编写一款APP,满足我所需要的要求,我用deepseek生产app开发者文档,然后用bolt.new工具开发,开发到一半,发现要收费,给我中断了,我该怎么办
对于您这种 0 基础代码小白在开发 APP 过程中遇到收费中断的情况,以下是一些建议: 1. 重新评估您的需求和能力:像案例中的白九龄一样,思考您的想法是否过于复杂,是否可以先从简单的插件开发入手,降低开发难度。 2. 学习基础知识:包括代码环境安装、终端操作等,通过基础实践教程资料来弥补知识短板。 3. 借鉴他人成功经验:仔细研究别人的项目,按照成功的案例原封不动地去实现,从中领悟开发的要点。 4. 清晰描述需求:在开发前与工具充分沟通,明确需求和实现步骤,避免盲目开发。 5. 寻找免费替代工具:既然当前使用的工具收费中断,您可以寻找其他类似的免费工具来继续您的开发工作。 6. 做好项目记录:让工具帮忙写一个 README 文档,记录项目进展、下一步计划以及如何开启和关闭项目,方便后续跟进。
2025-02-23
总结一下当前AI发展现状以及指导非开发者一类的普通用户如何使用及进阶使相关工具
当前 AI 发展现状: 涵盖了不同领域的应用和发展,如电子小说行业等。 包括了智能体的 API 调用、bot 串联和网页内容推送等方面。 对于非开发者一类的普通用户使用及进阶相关工具的指导: 可以先从国内模型工具入手,这些工具不花钱。 学习从提示词开始,与模型对话时要把话说清,强调提示词在与各类模型对话中的重要性及结构化提示词的优势。 对于技术爱好者:从小项目开始,如搭建简单博客或自动化脚本;探索 AI 编程工具,如 GitHub Copilot 或 Cursor;参与 AI 社区交流经验;构建 AI 驱动的项目。 对于内容创作者:利用 AI 辅助头脑风暴;建立 AI 写作流程,从生成大纲开始;进行多语言内容探索;利用 AI 工具优化 SEO。 若想深入学习美学概念和操作可报野菩萨课程。国内模型指令遵循能力较弱时,可使用 launch BD 尝试解决。
2025-01-31
以下是大致可以采用的步骤来实现这样一个能自动在大语言模型网站生成不同场景机器人图片的程序(以下以Python语言示例,不过不同平台具体实现会有差异且需遵循对应网站的使用规则和接口规范): ### 1. 选择合适的大语言模型网站及确认其API(应用程序编程接口)情况 不同大语言模型网站对于图片生成通常会提供相应的API来允许外部程序与之交互,比如部分知名的AI绘画相关平台。你需要先确定要使用哪些网站,然后去注册开发者账号等,获取对应的API Key以及详细的API文档,了解如何通过代码向其发起图
以下是为您整合的相关内容: Ollama 框架: 1. 支持多种大型语言模型,如通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同应用场景。 2. 易于使用,适用于 macOS、Windows 和 Linux 系统,支持 cpu 和 gpu,用户能轻松在本地环境启动和运行大模型。 3. 提供模型库,用户可从中下载不同模型,这些模型有不同参数和大小以满足不同需求和硬件条件,可通过 https://ollama.com/library 查找。 4. 支持用户自定义模型,例如修改模型的温度参数来调整创造性和连贯性,或者设置特定的系统消息。 5. 提供 REST API 用于运行和管理模型,以及与其他应用程序的集成选项。 6. 社区贡献丰富,包括多种集成插件和界面,如 Web 和桌面应用、Telegram 机器人、Obsidian 插件等。 7. 安装:访问 https://ollama.com/download/ 进行下载安装。安装完后,确保 ollama 后台服务已启动(在 mac 上启动 ollama 应用程序,在 linux 上通过 ollama serve 启动),可通过 ollama list 确认。 基于 COW 框架的 ChatBot 实现步骤: 1. COW 是基于大模型搭建的 Chat 机器人框架,将多模型塞进自己的微信里实现方案。 2. 基于张梦飞同学的教程: 。 3. 实现内容: 打造属于自己的 ChatBot(文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等)。 常用开源插件的安装应用。 4. 正式开始前需知: ChatBot 相较于在各大模型网页端使用区别:本实现思路需要接入大模型 API 的方式实现(API 单独付费)。 风险与注意事项: 微信端因非常规使用,有封号危险,不建议主力微信号接入。 只探讨操作步骤,请依法合规使用。 大模型生成的内容注意甄别,确保所有操作均符合相关法律法规要求。 禁止用于任何非法目的。 处理敏感或个人隐私数据时注意脱敏,以防滥用或泄露。 5. 多平台接入:微信、企业微信、公众号、飞书、钉钉等。 6. 多模型选择:GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM4/LinkAI 等。 7. 多消息类型支持:能处理文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能。 8. 多部署方法:本地运行、服务器运行、Docker 的方式。
2024-12-29
开发者API接入,帮我写一段推广文本
以下是为您生成的关于开发者 API 接入的推广文本: 曾经,我们在做设计时幻想能用嘴完成设计,随便说几句话电脑就能帮忙画出。随着 AI 的出现,各种提示词插件应运而生。而现在,开发者带来了更强大的功能——提示词都由 AI 自动写好!比如 One Button Prompt 脚本。 安装方式便捷,在扩展面板中搜索 One Button Prompt 可直接安装,或者将下载好的插件放在“……\\sdwebuiakiv4\\extensions”路径文件夹下。安装完成后,重启 webUI,在脚本下拉菜单中就能找到该插件。 使用时,先体验一下。根据官方建议,大模型选择“deliberate”,采样方法设为“DPM++ SDE Karras”,采样步骤设为“25”,并将 CFG 比例降低到“6”。随机等级设为 5,下面还有分别定义主题类型、艺术类型和图像类型的三个下拉选项。您可以选择全随机试试手气,也能加一点自定义条件,比如让它画一幅动物主题的摄影作品。将模型换成“realisticVisionV20”,主题换成人物,再次生成。快来体验这便捷高效的开发者 API 接入吧!
2024-08-08
我是说作为coze开发者如何获取到用户数据
作为 Coze 开发者,您可以通过以下步骤获取用户数据: 1. 建立数据库:用于存储用户数据信息,包括用户信息的相关因素。 2. 在“人设和回复逻辑”中增加对应的技能:明确存储用户信息的关键词,如“手机号”“微信”和“user”。 3. 测试效果:查看用户信息是否已被存储到数据库中。 此外,您还可以使用 Coze IDE 创建插件,并在元数据设置输入参数,通过自动生成模拟数据进行测试。在测试完成后,可在页面右上角单击发布,并在发布对话框中核对工具信息,设置是否启用工具。如果工具会收集、传输用户个人信息,需要在个人信息收集声明对话框中进行相应选择。
2024-06-24
哪里可以找到了解AI模型微调和RAG知识库的外包开发团队?
以下是一些可能找到了解 AI 模型微调和 RAG 知识库的外包开发团队的途径: 1. 相关技术社区和论坛:例如一些专注于 AI 开发的社区,开发者可能会在其中分享经验和提供服务。 2. 专业的自由职业者平台:如 Upwork、Freelancer 等,您可以在这些平台上发布需求,寻找合适的团队或个人。 3. 参考行业报告和研究:部分报告中可能会提及相关的优秀开发团队或公司。 4. 联系 AI 领域的知名机构或公司:他们可能会推荐或提供相关的外包服务。 5. 社交媒体和专业群组:在如 LinkedIn 等社交媒体上的 AI 相关群组中发布需求,可能会得到相关团队的回应。 另外,从提供的资料中,以下信息可能对您有所帮助: 红杉的相关分析提到,迁移学习技术如 RLHF 和微调正变得更加可用,开发者可以从 Hugging Face 下载开源模型并微调以实现优质性能,检索增强生成(RAG)正在引入关于业务或用户的上下文,像 Pinecone 这样的公司的向量数据库已成为 RAG 的基础设施支柱。彬子的经历中,有出海垂直领域 Agent 平台的项目经理咨询 RAG 策略优化。2024 人工智能报告中提到对增强生成检索(RAG)的兴趣增长促使了嵌入模型质量的提高,传统 RAG 解决方案中的问题得到解决。
2025-03-04
waytoagi团队
WaytoAGI 是由一群热爱 AI 的专家和爱好者共同建设的开源 AI 知识库。 其涵盖了多个版块,如 AI 绘画、AI 视频、AI 智能体、AI 3D 等,并通过举办赛事和活动促进大家动手实践,拥有超千万次的访问量。 离谱村是由 WaytoAGI 孵化的千人共创项目,参与者不分年龄层,都能通过 AI 工具创作出各种作品。这里是一个没有被定义的地方,每个人心中都有自己想象中的离谱村,它不仅是物理空间,更是灵魂的避风港。 “通往 AGI 之路”不仅是一个知识库,还是连接学习者、实践者和创新者的社区,以“无弯路,全速前进”为目标,助力每一个怀揣 AI 梦想的人疾速前行。 2023 年 4 月 26 日 WayToAGI 诞生,社群的口号是让更多的人因 AI 而强大,有很多学社和共学共建的活动。打开“waytoagi.com”即可找到社群。
2025-02-24
AI安全治理这个方向的国内外的团队和人
以下是 AI 安全治理方向的国内外团队和人员相关信息: 美国:拜登签署了 AI 行政命令,美国政府已就 AI 治理框架与多国进行了广泛协商,包括澳大利亚、巴西、加拿大、智利、欧盟、法国、德国、印度、以色列、意大利、日本、肯尼亚、墨西哥、荷兰、新西兰、尼日利亚、菲律宾、新加坡、韩国、阿联酋和英国等。此外,美国迅速跟进世界首个人工智能安全研究所 AISA,美国能源部也一直在利用其内部测试床评估人工智能可能对关键基础设施和能源安全带来的风险。 英国:创建了世界上第一个人工智能安全研究所 AISA,AISA 有在部署前对高级模型进行评估、建立国家能力并开展研究、协调国际合作伙伴等三个核心功能,还发布了用于 LLM 安全评估的框架 Inspect。英国通过其高级研究与发明机构(ARIA)花费 5900 万英镑开发“守门员”系统,负责了解和减少关键领域中其他人工智能代理的风险,还计划设立“AI 安全研究实验室”。 OpenAI:OpenAI LP 约有 100 名员工,分为技术能力(推动 AI 系统功能发展)、安全保障(确保系统符合人类价值观)和政策治理(确保适当治理系统)三个主要方向。
2025-02-20
调研一下AI安全治理这个方向的国内外的团队和人。包括AI安全治理的子方向,每一个子方向国内外有哪些科研院所的哪些团队在做相关方向的工作,以及这些团队有哪些骨干成员,他们有哪些观点。以及这个团队有哪些治理成果,尽量详细
以下是关于 AI 安全治理方向的国内外团队和人的相关调研: 国外团队和人员: OpenAI:首席科学家 Ilya 对模型安全较为关注,提出了通过“指令层次结构”来修复“忽略所有先前指令“攻击的方法,并已在 GPT40 Mini 中得到部署。 Anthropic:在多重越狱方面的工作表明了“警告防御”的潜力,在前面和后面添加警告文本,以警示模型不要被越狱。 Gray Swan AI 的安全专家:试用“断路器”,专注于重新映射有害表示,效果比标准拒绝训练更好。 图灵奖得主 Hinton:支持对 AI 监管,认为大模型及其驱动的 AI 必须引入安全性监管,防止其失控或对人类造成伤害,并在网上签署了联名公开信。 英国:创建了世界上第一个人工智能安全研究所 AISA,具有在部署前对高级模型进行评估、建立国家能力并开展研究、协调国际合作伙伴等核心功能,还发布了 Inspect 框架用于 LLM 安全评估,并宣布与美国等效机构签署谅解备忘录,计划在美国旧金山设立办事处。 国内团队和人员:目前调研内容中未提及国内相关团队和人员的具体信息。 在观点方面,Bengio、Hinton、姚期智等著名研究者认为大模型及其驱动的 AI 必须引入安全性监管,确保大模型是 Safety 的,防止其失控或对人类造成伤害,并签署了联名公开信表达对于 AI 失控的担忧,呼吁学术界和工业界对大模型进行监管。吴恩达和 Lecun 则认为模型的能力不足以使其脱离人类的限制。 治理成果方面,英国通过其高级研究与发明机构(ARIA)花费 5900 万英镑开发“守门员”,负责了解和减少在能源、医疗保健和电信等关键领域中其他人工智能代理的风险。英国政府还计划设立一个“AI 安全研究实验室”。美国能源部一直在利用其内部测试床评估人工智能可能对关键基础设施和能源安全带来的风险。LLM 测试初创公司 Haize Labs 与 Hugging Face 合作创建了首个红队抵抗组织基准,汇编了常用的红队数据集并根据模型评估它们的成功率。Scale 根据私人评估推出了自己的稳健性排行榜。
2025-02-20
国际做AI安全 治理的团队
以下是一些国际上从事 AI 安全治理的团队和相关情况: 英国创建了世界上第一个人工智能安全研究所(AISA),其具有在部署前对高级模型进行评估、建立国家能力并开展研究、协调国际合作伙伴等三个核心功能,还发布了用于 LLM 安全评估的框架 Inspect。英国宣布与美国等效机构签署谅解备忘录,并计划在美国旧金山设立办事处。此外,英国通过其高级研究与发明机构(ARIA)花费 5900 万英镑开发“守门员”系统,负责了解和减少关键领域中其他人工智能代理的风险,还报道称计划设立一个“AI 安全研究实验室”,旨在汇集政府关于敌对国家使用进攻性 AI 的知识。 美国能源部一直在利用其内部测试床评估人工智能可能对关键基础设施和能源安全带来的风险。 需要注意的是,全球在 AI 治理上的合作存在尴尬局面,承诺多而实际行动少。同时,国家和地区法规存在角力,美国和欧盟等国家或地区正在通过有争议的国家层面立法。
2025-02-20
适合团队一起应用开发的AI
以下是一些适合团队一起应用开发的 AI 类型及示例场景: 1. 智能体应用(Assistant): 简介:基于上下文对话,自主决策并调用工具来完成复杂任务的对话式 AI 应用。通过简单配置可快速上手实现基本功能。 示例场景:客户服务(了解诉求、解决问题,如查询订单状态、处理退款等)、个人助理(管理日程安排、提醒事项、发送邮件等)、技术支持(了解技术问题,提供解决方案,排除故障)。 参考链接: 2. 工作流应用(Workflow): 简介:将复杂任务拆解为若干子任务,以提高工作流程可控性的流程式 AI 应用。用户可通过拖拽节点创建自定义任务流程。 示例场景:AI 翻译(实现初步翻译、内容审校、再次优化的翻译流程,提升翻译质量)。 参考链接: 3. 智能体编排应用: 简介:支持多智能体协作的流程式 AI 应用,能编排多个智能体的执行逻辑,使多个智能体自动规划和执行任务。 示例场景:综合调研报告(组建报告撰写团队,包括负责写作意图识别、大纲书写、总结摘要、智能绘图、事件研判、段落撰写、文笔润色等任务的智能体)、软件开发团队(组建智能体开发团队,包括负责需求分析、系统设计、编码实现、测试调试、文档编写等任务的智能体)。 参考链接: 此外,还有以下摊位展示的相关 AI 应用: 1. 简单高效地构建 AI+装修,AI+行业应用平台,并进行模型的训练和微调。 2. ai+家庭教育咨询与体验服务。 3. 摄影+AI 效果叠加。 4. ai 模型部署,使用,交流的一站式平台。 5. 自传语伴:帮助普通人轻松撰写自传,用户通过与 AI 聊天讲述人生故事,生成自传。 在 6 月 3 日的参赛 bot 试玩分享中,讨论了多个团队的相关产品,包括: 1. AI 秒学团队的儿童绘本故事生成:将新闻转化为绘本故事,结合李普村的 AI 会话和分镜,使用 ByteDance AI 画图。 2. Lux 珀尔团队的卡通头条:在海外版搜索新闻应用中,根据用户选择生成不同风格的图片。 3. 吴琪的 AI 工具:通过简单提问生成小朋友喜欢的图片。 4. 核心搭子团队的产品:帮助父母辟谣的 AI,可识别三种体裁,根据疑问生成对应回复并保存知识,有热情和冷淡回复两种模式。 5. 学以致用团队的产品:提供日本市场实时信息的工具。 6. 李小白聊天机器人:具备陪聊、诗句生成、新闻展示等功能。 7. 两款智能写作机器人:喵喵日报(从 100 条新闻中挑选 5 条科技咨询定时推送,可根据用户问题自动搜索和重新组稿)、芋头小宝(帮助用户列出文章框架、生成配图以及汇总新闻等)。
2025-02-18
介绍AI进阶操作
以下是关于 AI 进阶操作的介绍: 在 Obsidian 中使用 AI 工具的进阶配置方法包括: 1. 笔记仓库嵌入大模型(Copilot) 2. 笔记内容作为 RAG 嵌入大模型(Smart Conections) 3. 笔记内使用大模型编写内容 在 Liblibai 中,有以下进阶概念和功能: 1. 迭代步数:调整图片内容的次数,并非越多越好,效果提升非线性。 2. 尺寸:影响图片生成的大小,需适中选择,高清图可设置中等尺寸并用高分辨率修复。 3. 生成批次:用本次设置重复生成的图批次数。 4. 每批数量:每批次同时生成的图片数量。 5. 提示词引导系数:影响图像与 prompt 的匹配程度,过高会使图像质量下降。 6. 随机数种子:固定后可对图片进行“控制变量”操作。 7. ADetailer:面部修复插件,高阶技能。 8. ControlNet:控制图片中特定图像,高阶技能。 9. 重绘幅度:图生图时,幅度越大,输出图与输入图差别越大。 此外,杭州站的 AI 活动聚焦在动手操作上,共分为 5 天进行,被定义为带领大家进阶玩转 AI 的实操落地活动,从学习写 prompt 到生成图片再到分组成立项目,活动形式丰富多样,难度和节奏层层递进。
2025-03-04
我如何给小白介绍deepseek的原理
DeepSeek 的原理主要包括以下几个方面: 1. AI 特性定位: 支持文本/代码/数学公式混合输入。 具有动态上下文,对话式连续记忆约 4K tokens 上下文窗口,换算成汉字约 8000 字左右。 任务适应性强,可切换创意生成/逻辑推理/数据分析模式。 2. 系统响应机制: 采用意图识别+内容生成双通道。 自动检测 prompt 中的任务类型、输出格式、知识范围。 对位置权重(开头/结尾)、符号强调敏感。 3. 基础指令框架: 可以套用四要素模板。 掌握格式控制语法,如强制结构使用```包裹格式要求,用{{}}标注需填充内容,使用优先级符号>表示关键要求,!表示禁止项。 4. 进阶控制技巧: 思维链引导,包括分步标记法和苏格拉底式追问。 知识库调用,如领域限定指令和文献引用模式。 支持多模态输出。 此外,DeepSeek 还具有一些设计思路,如将 Agent 封装成 Prompt 并储存在文件,通过提示词文件实现同时使用联网功能和深度思考功能,在模型默认能力基础上优化输出质量等。您可以通过搜索 www.deepseek.com 并按照相关步骤开始使用 DeepSeek。
2025-02-28
我如何给小白介绍deepseek
DeepSeek 是一个具有多种功能和特点的产品: 1. 效果对比:通过 Coze 进行了小测试,可对比查看相关结果。 2. 使用方法: 搜索 www.deepseek.com,点击“开始对话”。 将装有提示词的代码发给 DeepSeek。 认真阅读开场白后正式开始对话。 3. 设计思路: 将 Agent 封装成 Prompt 并储存在文件,减轻调试负担。 通过提示词文件让 DeepSeek 实现同时使用联网和深度思考功能。 在模型默认能力基础上优化输出质量,减轻 AI 味,增加可读性。 设计了阈值系统,可能会根据反馈修改。 用 XML 进行规范设定。 4. 完整提示词:有特定版本,如 v1.3。 5. 特别鸣谢:李继刚的【思考的七把武器】提供了思考方向,Thinking Claude 是设计灵感来源,Claude 3.5 Sonnet 是得力助手。 此外,关于 DeepSeek 还有以下信息: 1. 智能纪要: 能进行自然语言理解与分析、编程、绘图等。 使用优势是能用更少的词做更多事,思维发散,给出创意思路和高级内容。 存在问题是思维链长不易控制,可能输出错误内容,增加纠错成本。 审核方法可用其他大模型解读其内容。 使用时要有自己的思维雏形,多看思考过程,避免被冲刷原有认知。 适用于阅读、育儿、写作、交流等场景。 有案例展示,如与孩子共读时制作游戏,左脚踩右脚式的模型交互。 2. DeepSeek 只是品牌名,需搭配具体模型,如 DeepSeek V3(类 GPT4o)和 DeepSeek R1(类 OpenAI o1)。相关文档在 3 群和 4 群分享,也可在 v to a gi 的飞书知识库中搜索获取。
2025-02-28
请介绍Coze开发平台中,扣子API有什么功能?怎么用它?
在 Coze 开发平台中,扣子 API 具有以下功能和使用方法: 获取 accessToken: 在 coze 界面右侧的扣子 API 授权,或者打开链接 https://www.coze.cn/open/oauth/pats 。 添加令牌,设置 token 的名称和过期时间(为安全起见,最多 1 个月)。 设置权限,可选择会话管理和对话,拿不准可全部选择,完成后点击“确定”按钮。 最后一定要点击按钮复制下拉获取令牌,此令牌只会出现一次。 获取 botid: 从“工作空间”打开一个 bot,点击商店按钮,查看地址栏中“bot/”之后的数字。 发布为 bot api: 注意在前端使用 bot 必须发布成为 API,点击发布,选择 API,等待审核通过。 此外,智能体沟通页面在 Zion 中采用 OAuth 鉴权机制,准备工作包括: 获取 Coze bot 应用鉴权密钥:在 Coze 主页点击左下方扣子 API,选择 Oauth 授权模式,添加新令牌并配置基本信息,创建 Key 过程中会生成公钥和私钥(私钥需单独下载保存),最后勾选全部权限。 获取 Bot ID:进入自己的智能体在地址栏内复制“bot/”之后的数字,且 bot 发布时要选择 Agent as API。 在 Coze 上发布 bot:发布时记得勾选 API 及 WEB SDK,Coze bot 发布有审核周期(1 30 分钟),需确认发布成功。 在扣子中手搓插件方面: Body:用于传递请求主体部分,GET 方法中通常不使用来传递参数。 Path:定义请求路径部分,GET 方法中可编码为 URL 一部分传递参数。 Query:定义请求查询部分,是 GET 方法中常用的参数传递方式。 Header:定义 HTTP 请求头信息部分,GET 方法中通常不用于传递参数。 配置输出参数:填对信息后可点击自动解析,若成功会显示并填好输出参数,然后保存并继续,建议填写参数描述。 调试与校验:测试工具能否正常运行,运行后查看输出结果,点击 Response 可看到解析后的参数。
2025-02-27
给我一个ai介绍的ppt
以下是为您整合的关于 AI 的相关内容: 一、AI 工具在组会准备中的应用 1. 使用了 Claude 和 Gamma.app 两个工具,能够快速寻找符合条件的论文、提取精炼论文信息、找到适合的 PPT 制作工具并教会使用。 2. Claude 可解决学术网站条件搜索问题,如搜索营销领域权威期刊及其中关于 chatgpt 的最新论文,并进行相关内容的摘要和介绍。 3. 询问了哪些 AI 工具能快速制作 PPT 以及如何使用 gamma app 制作 PPT。 二、与 AI 交流的技巧 1. 给 AI 设定角色,蕴含角色背景和输出要求,让其更明确如何应对问题。 2. 举例子,能使 AI 更准确了解要求。 3. 连续提问,根据回复不断细化要求,帮助清晰想法和找到有用答案。 4. 当不知如何提问时,可先问 AI 如何提问,再用其产生的问题问它。 三、AI 发展的相关情况 1. OpenAI 公司不断推进技术路线,为人类打开新世界大门。 2. AI 发展不仅依赖软件,还需要相配的芯片算力支持。GPU 厂商在算力提升方面表现出色,其强大之处在于并行性,与 AI 人工神经网络计算原理匹配。 3. 目前大模型采用文字接龙的生成方法。 以上内容部分来源于台大李宏毅老师的人工智能课程。
2025-02-26
我是少儿编程老师,现在我需要知道编程每个语言之间的区别,并绘制出一张思维导图给我详细介绍
很抱歉,目前没有关于编程各语言区别的详细内容来为您绘制思维导图。但一般来说,不同的编程语言在语法、应用场景、性能特点等方面存在差异。例如,Python 语法简洁,常用于数据科学和人工智能;Java 应用广泛,在企业级开发中表现出色;C++ 性能高效,常用于系统编程和游戏开发等。您可以通过在线编程学习网站、相关书籍以及技术论坛获取更详细准确的信息来绘制思维导图。
2025-02-19