Navigate to WaytoAGI Wiki →
Home/question.detail.breadcrumb.questionList/question.detail.breadcrumb.questionDetail

通义千问是怎么训练的?

Answer

通义千问是阿里推出的一款超大规模预训练语言模型,其训练过程包括以下方面:

  1. 大规模预训练:基于先进的深度学习技术进行研发。
  2. 精细微调:提升智能水平,使其表现更接近人类,进一步提升代码、数学、推理、指令遵循、多语言理解等能力,并学会对齐人类价值观,变得更有帮助、诚实和安全。
    • 探索多种自动方法获取高质量、可靠、有创造力的指令和偏好数据,如针对数学的拒绝采样、针对代码和指令遵循的代码执行反馈、针对创意写作的回译、针对角色扮演的 scalable oversight 等。
    • 结合有监督微调、反馈模型训练以及在线 DPO 等方法,并采用在线模型合并的方法减少对齐税。

不久后,通义千问团队将推出 Qwen2 的技术报告。Qwen 系列模型在全球爆火,近一个月内总下载量翻倍,已突破 1600 万次。海内外开源社区已经出现了超过 1500 款基于 Qwen 二次开发的模型和应用。

Content generated by AI large model, please carefully verify (powered by aily)

References

最近招聘信息-持续更新中

[title]最近招聘信息-持续更新中阿里云智能-客户端(Android)研发专家/高级工程师-通义大模型工作地点:杭州业务介绍:通义千问是阿里推出的一款超大规模预训练语言模型,它基于先进的深度学习技术进行研发,能够理解和生成自然语言文本,并通过不断的迭代和优化,实现精准的智能问答、多轮对话、内容创作、逻辑推理等;同时也可以通过通义生成自己的agent,实现各种辅助你工作、生活、娱乐的“智能体”;另外通义APP上还有舞蹈生产、智能作画等等有趣的大模型应用;欢迎在各大应用使用下载“通义千问”了解我们。岗位职责:1.负责通义大模型客户端研发,包括文生文、文生图、图生图、语音对话等多模态交互功能研发;2.负责各种C端用户玩法的产品功能研发;3.负责产品架构的改进和性能、以及稳定性优化;4.了解和引入各种阿里客户端中间件;5.学习通义大模型各种能力,参与产品设计和体验改进;职位描述1.熟练使用Java或Kotlin语言,具有良好的面向对象编程思想,对设计模式有一定理解;2.熟悉Android开发平台框架,有App或SDK的设计、开发经验,熟练使用Android各种控件和特性,掌握Android应用的编译、运行原理;3.掌握TCP/IP、HTTP、HTTPS、WebSocket等基础网络协议,熟悉多线程编程;4.熟练使用git、adb、linux的常用命令;5.对技术有激情,喜欢钻研,主动性高,具有良好的沟通能力以及较强的独立工作能力和解决问题的能力。加分项:

Qwen 2开源了 模型性能超越目前所有开源模型和国内闭源模型

[title]Qwen 2开源了模型性能超越目前所有开源模型和国内闭源模型[heading1]相关参考信息大规模预训练后,通义千问团队对模型进行精细的微调,以提升其智能水平,让其表现更接近人类。这个过程进一步提升了代码、数学、推理、指令遵循、多语言理解等能力。此外,模型学会对齐人类价值观,它也随之变得更加对人类有帮助、诚实以及安全。通义千问团队的微调过程遵循的原则是使训练尽可能规模化的同时并且尽可能减少人工标注。团队探索了如何采用多种自动方法以获取高质量、可靠、有创造力的指令和偏好数据,其中包括针对数学的[拒绝采样](https://arxiv.org/pdf/2308.01825)、针对代码和指令遵循的代码执行反馈、针对创意写作的回译、针对角色扮演的[scalable oversight](https://arxiv.org/pdf/2401.12474)、等等。在训练方面,团队结合了有监督微调、反馈模型训练以及在线DPO等方法。还采用了[在线模型合并](https://arxiv.org/pdf/2405.17931)的方法减少对齐税。这些做法都大幅提升了模型的基础能力以及模型的智能水平。不久后,通义千问团队将推出Qwen2的技术报告。四、Qwen2系列模型在开源社区的影响力怎么样?Qwen系列模型正在全球爆火,近一个月内总下载量翻倍,已突破1600万次。海内外开源社区已经出现了超过1500款基于Qwen二次开发的模型和应用。事实上,自今年2月Qwen1.5发布前后,就有大量开发者催更Qwen2(附件:海外开发者催更)。6月7日晚上24点左右Qwen2上线后,多个重要的开源生态伙伴火速宣布支持Qwen2,包括TensorRT-LLM、OpenVINO、OpenCompass、XTuner、LLaMA-Factory、Firefly、OpenBuddy、vLLM、Ollama等。

问:国内免费的大模型app有哪些?

[title]问:国内免费的大模型app有哪些?Kimi智能助手、文心一言、通义千问这几个都是国内免费的APP。Kimi智能助手:Kimi是一个有着超大“内存”的智能助手,可以一口气读完二十万字的小说,还会上网冲浪,Moonshot AI出品的智能助手。文心一言:百度出品的AI对话产品,它的定位是智能伙伴,能写文案、想点子,又能陪你聊天、答疑解惑。通义千问:通义千问是由阿里云开发的聊天机器人,能够与人交互、回答问题及协作创作。还有更多大模型产品,可以访问网站查看:内容由AI大模型生成,请仔细甄别。

Others are asking
通义千问和智谱清言对比
以下是通义千问和智谱清言的对比情况: 在对结构化 prompt 的测试中: 输入同样的 prompt 后,智谱清言的改写效果不错,能够理解 prompt,输出内容感觉良好,且认识到结构化 prompt 的重要性以及需要不断迭代优化。 通义千问的输入效果不错,能够一次输出,但输出的内容要差一些,需要提高。 在 Stepback prompting 评测中: 智谱清言的综合评分为 3 分,表现中规中矩。 通义千问的综合评分为 3.125 分,表现还算不错,只要内容上再提高一些,体验感和专业性会更好。 在小七姐的小样本测评中: 对于复杂提示词理解和执行的第一轮任务中,智谱清言首次回应初始化执行正常,但在生成内容时推理错误,且未回应特定问题,对于提示词中要求的逐步推理过程,可能因模型对已知问题答案生成的优先级高于用户设定的生成逻辑而未按步骤执行。 未提及通义千问在该轮任务中的具体表现。
2024-11-05
通义千问开源大模型种类
通义千问开源了多种大模型,其中 Qwen 2 模型性能超越目前所有开源模型和国内闭源模型。以下是相关信息: 性能突破:在中国大模型领域,开源模型显示出超越最强闭源模型的势头,从性能到生态都具备了媲美美国 Llama3 的能力。开源模型用实力证明其正在变得越来越强。 开源历程:2023 年 8 月,阿里云成为国内首个宣布开源自研模型的科技企业,推出通义千问第一代开源模型 Qwen;2024 年 2 月,1.5 代开源模型 Qwen1.5 发布;不到 4 个月后,Qwen2 开源。不到一年时间,通义先后开源数十款不同尺寸的模型,包括大语言模型、多模态模型、混合专家模型、代码大模型。 性能特点:Qwen 2 包括 5 种尺寸的预训练和指令调整模型,如 Qwen20.5B、Qwen21.5B、Qwen27B、Qwen257BA14B 和 Qwen272B。除英语和中文外,还接受过另外 27 种语言的数据训练,在大量基准评估中表现出最先进的性能,代码和数学性能显著提高,全面超越 llama3,增大了上下文长度支持。相比 Qwen1.5,Qwen2 实现了整体性能的代际飞跃。在国际权威测评中,Qwen272B 获十几项世界冠军,超过美国的 Llama3。 体验和下载:Qwen2 系列已上线魔搭社区 ModelScope 和阿里云百炼平台,开发者可在魔搭社区体验、下载模型,或通过阿里云百炼平台调用模型 API。同时,Qwen272binstruct 模型已经上线中国大语言模型评测竞技场 Compass Arena,所有人都可以登录体验 Qwen2 的性能,或者选择 Qwen2 模型与其他大模型进行对比测评。测评地址为。Compass Arena 是由上海人工智能实验室和魔搭社区联合推出的大模型测评平台,集齐了国内主流的 20 多款大模型。 您还可以通过玉宝搞的 LLM 在线评估(https://www.llmrank.cn/)查看国内各个闭源大模型的 HUMANEVAL 测评得分,并与 QWEN2 对比。
2024-11-04
在一个设定中,使用阿里千问模型,设定角色为“美嘉”,知识库为《爱情公寓》全季剧情,实现问答。
在一个设定中,使用阿里千问模型,将角色设定为“美嘉”,知识库设定为《爱情公寓》全季剧情来实现问答。 大语言模型就像一个学习过无数本书、拥有无穷智慧的人,对公共知识、学识技能、日常聊天很擅长,但在工作场景中需要提示词来告诉它角色和专注技能,变成所需的“员工”。知识库则相当于给这个“聪明员工”发放的工作手册,比如知道老板娘吃饭要打三折等特定信息。 这里的设定为:AI 模型使用阿里千问模型,提示词设定的角色是“美嘉”,按照其人设、背景和对话风格设定,知识库是《爱情公寓》全季剧情,让“美嘉”拥有过往“记忆”。 例如,提问“你是谁?你和子乔在台球厅吵架那次是为了什么吵架?”,回复是“我是陈美嘉,那次在台球厅和吕子乔吵架是因为他约会被人撞见,我讽刺他脸大影响信号,他还反击我。后来谈到过去的事情,我指责他忘恩负义,他就说我平。最后,我伤心地说要分手,因为他之前甩过我。” 然而,有时回答会不准确,比如提问“一菲为美嘉找了一份助教工作”,AI 可能未根据正确的知识库内容回答,这是常见的错误场景,在严肃场景中不能接受。优化 AI 更准确回答问题的过程称为 RAG(RetrievalAugmented Generation),即检索增强生成,由检索器从外部知识中快速找到与问题相关的信息,生成器利用这些信息制作精确连贯的答案,适合处理需要广泛知识的任务,如问答系统,能提供详细准确的回答。
2024-10-29
通义千问和文心一言有什么不一样
通义千问和文心一言的不同点主要体现在以下几个方面: 1. 开发团队:文心一言由百度出品,通义千问由阿里云开发。 2. 功能特点: 文心一言定位为智能伙伴,能写文案、想点子,陪用户聊天、答疑解惑。 通义千问能够与人交互、回答问题及协作创作。 3. 在一些具体应用场景中的表现: 在律师答辩状 prompt 评测中,文心一言 3.5 输入起诉状后,直接给出起诉状范本,未理解 prompt 输出答辩状,提示后主体少、不专业、错误多,输出应诉方案能按 prompt 结构,内容简洁可作框架。 通义千问在律师答辩状 prompt 评测中,欢迎语直接,输入起诉状后两个答辩人正确,能按 prompt 结构输出但专业性稍差,未引用法律条文,提示输出应诉方案能按 prompt 结构,整体内容及格无亮点。
2024-10-20
通义千问怎么登陆
要登陆通义千问,您可以按照以下步骤进行操作: 1. 访问 OneAPI,访问地址为:http://这里改成您自己宝塔左上角的地址:3001/(举例:http://11.123.23.454:3001/),账号默认 root,密码 123456。 2. 点击【渠道】。 3. 类型选择阿里通义千问,名称随意,类型不用删减。 4. 把千问里创建的 API Key 粘贴到秘钥里中,点击确认。 5. 点击【令牌】【添加新令牌】。 6. 名称随意,时间设为永不过期、额度设为无限额度,点击【提交】。 7. 点击【令牌】,会看到自己设置的。点击复制,出现 key,然后在标红那一行中,自己手动复制下来。 8. OneAPI 配置完成,保存好这个 KEY。
2024-09-10
通义千问怎么登陆
要登录通义千问,您可以按照以下步骤进行操作: 1. 访问 OneAPI。访问地址:http://这里改成您自己宝塔左上角的地址:3001/(举例:http://11.123.23.454:3001/),账号默认 root,密码 123456。 2. 点击【渠道】。 3. 类型选择阿里通义千问,名称随意,类型不用删减。 4. 把千问里创建的 API Key 粘贴到秘钥里中,点击确认。 5. 点击【令牌】【添加新令牌】。 6. 名称随意,时间设为永不过期、额度设为无限额度,点击【提交】。 7. 点击【令牌】,会看到自己设置的。点击复制,出现 key,然后在标红那一行中,自己手动复制下来。 8. OneAPI 配置完成,保存好这个 KEY。
2024-09-10
豆包,kimi,迅飞星火,通义,文心一言哪个好
以下是对这些大模型的简要介绍: GPT4Turbo:OpenAI 于 2023 年 11 月 7 日发布的 GPT4 的升级版本。 通义千问 2.0:阿里巴巴官方公开发布的 API 版本。 文心一言 4.0:百度官方的产品,有 API 版本和网页版。 云雀大模型(豆包):字节跳动官方网页版产品。 讯飞星火:科大讯飞发布的模型。 然而,要说哪个好并不能简单地一概而论,这取决于您的具体需求和使用场景。每个大模型都有其特点和优势,例如在语言理解、生成能力、特定领域的表现等方面可能存在差异。您可以根据自己的需求对它们进行试用和比较,以确定哪个更适合您。
2024-12-12
通义听悟
通义听悟是阿里云推出的一款基于大模型的工作学习 AI 助手。它主要针对音视频内容,具备以下功能: 实时记录交流内容并同步翻译。 批量转写音视频文件并区分发言人。 智能提炼全文概要、章节速览和发言总结。 提取视频中的 PPT 并总结摘要。 自动提取关键词和待办事项。 编辑整理笔记并导出分享。 通义听悟依托大模型技术,能帮助用户更高效地记录、整理和分析音视频内容,提高工作和学习效率。它于 2023 年 6 月 1 日开始公测,并在 2023 年 11 月的云栖大会上正式上线。
2024-11-14
现在国内语言生成式AI有多少个在做的,比如说百度的文心一言和阿里的通义
目前国内在做语言生成式 AI 的有不少,例如百度的文心一言、阿里的通义千问、讯飞的讯飞星火、智谱华章的智谱清言、字节跳动的豆包、腾讯的元宝、昆仑万维的天工 AI 等。 此外,还有一些在特定时间上线的大模型,如 8 月正式上线的包括北京的百度(文心一言)、抖音(云雀大模型)、智谱 AI(GLM 大模型)、中科院(紫东太初大模型)、百川智能(百川大模型),上海的商汤(日日新大模型)、MiniMax(ABAB 大模型)、上海人工智能实验室(书生通用大模型)。 需要注意的是,不同的大模型具有各自的特点和功能,在使用和应用场景上可能存在差异。
2024-11-06
智谱清言和通义哪个更强大
在不同的测评维度中,智谱清言和通义千问各有优势。 在多轮开放式问题基准 SuperCLUEOPEN 的胜率方面,智谱清言和通义千问 2.0 的胜率均超过 25%。 在工具使用能力的测评中,GPT4 Turbo 取得满分,国内大模型中智谱清言表现不俗,取得 83.78 的高分,排名国内模型第一,通义千问 2.0 也有超过 70 分的表现。 在对结构化 prompt 的测试中,通义千问能够一次输出,但输出内容有待提高;智谱清言在经过改写 prompt 等操作后也有不错的表现。 总体而言,难以简单地判定智谱清言和通义千问哪个更强大,其表现会因具体的测评维度和任务而有所不同。
2024-11-03
ChatGPT如何训练需要的模型
ChatGPT 的训练模型主要包括以下几个方面: 1. 预训练(Pretrain)阶段:建立模型的能力上限,如确定模型各方面能力的天花板。此阶段跟 GPT3 的方法近似,例如采用 decoderonly 的网络架构,有特定的模型大小、输入窗口大小、单词本大小,见过大量的 tokens,使用大量的原始训练文本。 2. 监督微调(Supervised Finetune,SFT)阶段:让模型学会对话的形式展开,即知道如何按照对话的格式进行交流。 3. 强化学习从人类反馈(Reinforcement Learning from Human Feedback,RLHF)阶段:细分为奖励模型(RM)阶段和强化学习(RL)阶段,能激发模型具备多种能力,包括安全性、推理能力和稳定性等。 训练方式主要是通过材料学习,不断形成模型。其本质功能是“单字接龙”,通过自回归生成的方式,将生成的下一个词与之前的上文组合,不断重复生成任意长的下文。训练的目的不是记忆,而是学习提问和回答的通用规律,实现举一反三,即泛化。学习材料用于调整模型,得到通用模型,以处理未被数据库记忆的情况。ChatGPT 不是搜索引擎的升级版,搜索引擎无法给出未被数据库记忆的信息,而 ChatGPT 作为生成模型可以创造不存在的文本,但可能存在混淆记忆、无法直接查看和更新所学、高度依赖学习材料以及缺乏及时性和准确性等缺点。
2024-12-24
如何训练模型
训练模型的方法有多种,以下为您介绍几种常见的训练模型方式: 1. 用 SD 训练一套贴纸 LoRA 模型: 原始形象:MJ 初步产出符合设计想法的贴纸原始形象。 二次加工:完成贴纸的白色边线等细节加工。 处理素材:给训练集图片打 tag,修改 tag。 训练模型:将上述处理好的数据集做成训练集,进行训练。 2. 基于百川大模型训练虚拟专家: 选择 Baichuan27BChat 模型作为底模,配置模型本地路径,配置提示模板。 在 Train 页面里,选择 sft 训练方式,加载定义好的数据集 wechat 和 self_cognition。 学习率和训练轮次非常重要,根据自己的数据集大小和收敛情况来设置。 使用 FlashAttention2 可减少显存需求,加速训练速度。 显存小的朋友可以减少 batch size 和开启量化训练,内置的 QLora 训练方式非常好用。 需要用到 xformers 的依赖。 显存占用 20G 左右,耐心等待一段时间。 3. 使用编码器解码器架构构建诗歌生成器: 在训练模型之前,需要一个损失函数,由于本质上是一个多类分类问题,损失将是稀疏的分类交叉熵损失,配置从 logits 计算的损失。 有了损失后编译模型,将损失和优化器联系在一起。 选择训练的时期,一个时期是对数据集的完整传递,进行多次训练,并提供回调以确保在训练期间保存权重。 从实际的字符串中提取字符序列,使用 TensorFlow 的 TF 字符串 Unicode 拆分功能。 将字符序列转化为数字,使用 TF Keras 层中的 StringLookup 函数将每个字符映射到给定的 ID,也可使用同一层的 StringLookup 函数获得反向映射。 将处理后的数据作为神经网络的训练数据集,使用 TF Data Dataset API。
2024-12-24
ai训练
AI 的训练是指通过大数据训练出一个复杂的神经网络模型。这一过程需要使用大量标记过的数据来训练相应的系统,使其能够适应特定的功能。训练具有以下特点: 1. 需要较高的计算性能,以处理海量的数据。 2. 具有一定的通用性,以便完成各种各样的学习任务。 机器学习是人工智能的一个分支,其发展有着从以“推理”为重点,到以“知识”为重点,再到以“学习”为重点的脉络。机器学习是实现人工智能的途径之一,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。 自然语言(NLP)是人工智能和语言学领域的分支学科,包括认知、理解、生成等部分。自然语言的认知和理解是让电脑把输入的语言变成有意义的符号和关系,然后根据目的再处理,自然语言生成系统则是把计算机数据转化为自然语言。 推理是指利用训练好的模型,使用新数据推理出各种结论。借助神经网络模型进行运算,利用输入的新数据来一次性获得正确结论的过程,也称为预测或推断。
2024-12-22
你是Ai产品经理,我想使用训练一个智能体帮我改写新闻标题,请告诉我应该怎么做
训练一个智能体来改写新闻标题,您可以按照以下步骤进行: 1. 明确需求和目标:确定您希望智能体改写新闻标题的风格、重点和要求,例如更简洁、更吸引人、突出特定信息等。 2. 收集数据:收集大量的新闻标题样本,包括各种类型和主题的,以便智能体有足够的学习材料。 3. 选择合适的技术和框架:根据您的技术能力和需求,选择适合的人工智能框架和算法,例如自然语言处理相关的技术。 4. 数据预处理:对收集到的数据进行清洗、分词、标记等预处理操作,以便智能体能够更好地理解和学习。 5. 训练模型:使用预处理后的数据训练智能体,调整参数以优化训练效果。 6. 评估和优化:使用测试数据评估智能体的性能,根据评估结果对模型进行优化和改进。 7. 部署和应用:将训练好的智能体部署到实际应用中,并不断监测和改进其表现。 需要注意的是,训练智能体是一个复杂的过程,可能需要一定的技术知识和经验。
2024-12-19
怎么训练模型进行标题改写
训练模型进行标题改写可以参考以下方法: Sora 模型: 对于视频标题改写,首先训练一个能够为视频生成详细描述的视频标题生成器。可利用 CoCa 架构进行视频标题生成,如 VideoCoCa,通过取视频的多个帧并将每个帧输入到图像编码器,产生的帧令牌嵌入被展平并连接成一个长序列的视频表示,再由生成性池化器和对比性池化器处理,与对比损失和标题生成损失一起联合训练。构建视频标题生成器的其他替代方法包括 mPLUG2、GIT、FrozenBiLM 等。为确保用户提示与训练数据中的描述性标题格式一致,执行额外的提示扩展步骤,用 GPT4V 将用户输入扩展为详细的描述性提示。 对于语言指令跟随,通过开发一个能够生成长而详细标题的字幕器,然后用这些标题来训练模型。但收集用于训练此类字幕器的数据的过程未知,且可能需要大量劳动。 DALL·E 3 模型:通过用详细、描述性的标题重新标注现有图像来解决指令遵循问题。首先训练一个图像标题生成器,这是一个视觉语言模型,用于生成精确和描述性的图像标题。然后,使用标题生成器生成的描述性图像标题来微调文本到图像模型。具体来说,DALL·E 3 遵循对比标题生成器(CoCa)的方法,联合训练一个图像标题生成器,该生成器具有 CLIP 架构和一个语言模型目标。进一步在详细描述图像的主要对象、周围环境、背景、文本、风格和颜色方面进行微调后,图像标题生成器能够为图像生成详细的描述性标题。文本到图像模型的训练数据集是由图像标题生成器生成的重新标注数据集和真实人类编写的数据混合而成,通过上采样来解决实际用户提示与训练数据中的描述性图像描述之间的不匹配问题。 关于 Midjourney 的训练 prompt: The issue with DMs is that the powerful ones often consume hundreds of GPU days,and inference is quite expensive due to sequential evaluations.To enable DM training on limited computational resources without compromising their quality as well as flexibility,DMs are applied in the latent space of powerful pretrained autoencoders. Training a diffusion model on such a representation makes it possible to achieve an optimal point between complexity reduction and detail preservation,significantly improving visual fidelity.Introducing a cross attention layer to the model architecture turns the diffusion model into a powerful and flexible generator for generally conditioned inputs such as text and bounding boxes,enabling highresolution convolutionbased synthesis. Midjourney 会例行发布新的模型版本以提高效率、连贯性和质量。最新的模型是默认的,但可以使用 version 或 v 参数或通过 /settings 命令选择其他模型版本。不同的模型在不同类型的图像上表现出色。Midjourney V5 模型是最新和最先进的模型,于 2023 年 3 月 15 日发布。使用此模型,可在 prompt 末尾添加 v 5 参数,或使用 /settings 命令并选择 MJ Version 5。该模型具有很高的连贯性,擅长解释自然语言提示,分辨率更高,并支持诸如 tile 等高级功能。其新特点包括更广泛的风格范围、对提示更敏感、更高的图像质量、更详细的图像、细节更可能正确以及更少不需要的文本。
2024-12-19
怎么自己训练ai?
自己训练 AI 通常包括以下主要步骤: 1. 选择合适的部署方式: 本地环境部署。 云计算平台部署。 分布式部署。 模型压缩和量化。 公共云服务商部署。需根据自身的资源、安全和性能需求来选择。 2. 准备训练所需的数据和计算资源: 确保有足够覆盖目标应用场景的训练数据。 准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础: 可以使用开源的预训练模型如 BERT、GPT 等。 也可以自行训练一个基础模型。 4. 针对目标任务进行模型微调训练: 根据具体应用场景对预训练模型进行微调训练。 优化模型结构和训练过程以提高性能。 5. 部署和调试模型: 将训练好的模型部署到生产环境。 对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护: 大模型涉及大量数据和隐私信息,要重视安全性和合规性。 总的来说,训练自己的 AI 需要综合考虑多方面因素,包括部署方式、数据准备、模型训练、部署调试以及安全性等。要根据具体需求选择合适的方法,并注意优化各个环节以提高模型性能和应用效果。 在独立游戏开发中,如《玩具帝国》的人机 AI 采用 Unity 的 mlagent 进行训练,有以下经验: 选择自己开发 AI 是因为游戏是离线模式且对决策实时性和本地 AI 运行性能有要求,无法使用线上接口。 通过“即时奖励”和“预测奖励”进行长周期决策 AI 的训练,数学模型可调,可改变 AI 的决策倾向。 为让每次输入的向量等长,对观察的内容进行处理。 先训练掌握基本规则的底模,再在此基础上做分支训练得到适用于不同文明策略的模型。 为避免过拟合,在每个 Episode 前对初始条件进行随机,决策时对 AI 的可选项进行随机 Dropout。 关于判断一张图片是否为 AI 生成,目前已有不少网站通过对大量图片数据的抓取和分析来给出画作属性的判断可能性,例如 ILLUMINARTY 网站。但在测试中存在一些问题,如结构严谨的真实摄影作品可能被误判为 AI 作图,这是因为鉴定 AI 自身的逻辑算法不能像人类一样综合考虑各种不符合逻辑的表现。
2024-12-16