自己训练 AI 通常包括以下主要步骤:
总的来说,训练自己的 AI 需要综合考虑多方面因素,包括部署方式、数据准备、模型训练、部署调试以及安全性等。要根据具体需求选择合适的方法,并注意优化各个环节以提高模型性能和应用效果。
在独立游戏开发中,如《玩具帝国》的人机 AI 采用 Unity 的 ml-agent 进行训练,有以下经验:
关于判断一张图片是否为 AI 生成,目前已有不少网站通过对大量图片数据的抓取和分析来给出画作属性的判断可能性,例如 ILLUMINARTY 网站。但在测试中存在一些问题,如结构严谨的真实摄影作品可能被误判为 AI 作图,这是因为鉴定 AI 自身的逻辑算法不能像人类一样综合考虑各种不符合逻辑的表现。
根据搜索结果,以下是部署和训练自己的大模型的主要步骤:1.选择合适的部署方式本地环境部署云计算平台部署分布式部署模型压缩和量化公共云服务商部署根据自身的资源、安全和性能需求选择合适的部署方式。2.准备训练所需的数据和计算资源确保有足够的训练数据覆盖目标应用场景准备足够的计算资源,如GPU服务器或云计算资源3.选择合适的预训练模型作为基础可以使用开源的预训练模型如BERT、GPT等作为基础也可以自行训练一个基础模型4.针对目标任务进行模型微调训练根据具体应用场景对预训练模型进行微调训练优化模型结构和训练过程以提高性能5.部署和调试模型将训练好的模型部署到生产环境对部署的模型进行在线调试和性能优化6.注意安全性和隐私保护大模型涉及大量数据和隐私信息,需要重视安全性和合规性总的来说,部署和训练自己的大模型需要综合考虑多方面因素,包括部署方式、数据准备、模型训练、部署调试以及安全性等。需要根据具体需求选择合适的方法,并注意优化各个环节以提高模型性能和应用效果。内容由AI大模型生成,请仔细甄别
《玩具帝国》的人机AI采用的是Unity的ml-agent,通过强化学习训练能够进行长周期复杂决策的人机AI。原来写决策树很痛苦,现在可以直接挂机炼丹。为什么选择自己开发ai?没有选用调动ChatGPT之类线上接口的原因有很多,首先这是人机AI是在离线游戏模式使用的,而且对决策的实时性有要求,因此不可能接受连入一个线上的接口。而且《玩具帝国》需要兼容低配置甚至移动平台,所以对这个本地AI运行的性能也有很高的要求。ml-agent里给的实例都算是比较简单的决策问题,一次任务的周期也很短,《玩具帝国》的就比较长,决策也很复杂,所以我们使用了“即时奖励”和“预测奖励”进行长周期决策AI的训练。因为数学模型是可调的,所以AI依然可控,只需要根据通过简单的参数调整,就可以改变AI的决策倾向。推公式还是要一步步推的,希望以后有个AI帮我把这部分工作也做了。为了让每次输入的向量等长,在观察时,场上的三条路被分成了许多块,在每一块上,统计在其上单位的平均数值或求和,最后加上单独的数值,组合得到完整的向量。因为不同的文明玩法不一样,但是基本的规则又是一致的,所以先训练一个能掌握基本规则的底模。从教会AI基本的分配工人开始,每次增加训练一项新科目,不断迭代完善,就能得到一个掌握大致规则的底模。在这个底模的基础上做分支训练,就可以得到适用于不同文明策略的模型。为了避免过拟合,每个Episode前,都对初始条件进行一次随机,譬如不同的资源水平、不同的敌人强度,每次决策时也会对AI的可选项进行随机Dropout,总之尽可能地让AI在训练时接触到所有的可选行为。
当然,要培养出鉴赏AI的技能,多少还是需要我们训练训练自己的大脑模型的。那如果不善于此的朋友,想要判断眼前的作品是否是AI造物呢?AI技术自己带来的造假难题,也该由AI自己的同僚互鉴打假来解决。现在已有不少网站在做这件事情,通过对大量的图片数据的抓取和分析,给出对画作属性的判断可能性。例如使用AI来鉴别AI绘图性质的网页:ILLUMINARTY(https://app.illuminarty.ai/)。但在测试过程中,有些结构严谨的真实摄影作品,反而会被识别为AI作图。这跟我们前面提到的,AI作画很难完成严谨真实的结构这一点,是相互矛盾的。鉴别的AI认为,过于严谨的图像不像是真实的人造产物。而画图的AI其实难以生成严谨的结构造型。这就是鉴定AI自身的逻辑算法,并不能像人类一样综合去考虑不符合人的逻辑的各种表现。多试几张,就能磕着瓜子看AI吵架了。甚至作长者摇头抚须状,长叹一声,「AI后生们,还有很长的路要走啊。」我们看完AI显眼包的快乐丢撵后,来聊聊「我们为什么要鉴别AIGC」?已经「知其然」,也大略「知其所以然」,而后终于能顺势讨论讨论「知何由以知其所以然」。