以下是关于人工智能赋能玩具行业的相关内容:
2025 年 1 月 2 日,“威震天”变形金刚凭借先进的自动变形技术和高达 1700 美元的售价迅速售罄,反映出玩具行业通过 AI 和机器人技术实现创新,推动市场向情感消费转型。预计到 2025 年,AI 驱动的玩具将占全球市场 15%以上,智能玩具的拟人化特征将提升互动体验,吸引更多成年消费者。
有创业公司聚焦于陪伴 3 - 6 岁孩子成长的 AI Friends 场景,推出 AI 毛绒玩具。这类玩具能与孩子多轮对话、用 IP 角色的音色交流,非常自然。孩子们会把玩具当作有生命、会说话的,且对其不感到惊讶。目前大模型能力尚不足以成为成年人日常的 AI 助手,儿童陪伴场景用户容忍度更高,且 AI 毛绒玩具定价几百元,客单价低于家庭机器人,几乎没有市场教育成本。近年来,毛绒玩具市场快速增长,中国玩具品牌分散,全球销量前十的毛绒玩具里没有中国品牌。
在独立游戏《玩具帝国》开发中,人机 AI 采用 Unity 的 ml - agent,通过强化学习训练能够进行长周期复杂决策。由于游戏是离线模式且对决策实时性和本地 AI 运行性能有要求,未选用调用 ChatGPT 之类的线上接口。通过“即时奖励”和“预测奖励”进行长周期决策 AI 的训练,数学模型可调,AI 可控。为让输入向量等长,对场上道路进行分块统计数值。先训练掌握基本规则的底模,再做分支训练得到适用于不同文明策略的模型。为避免过拟合,对初始条件和每次决策时的可选项进行随机处理。
《[马斯克也心动的机器人玩具,2025年开启一场行业级的AI革命](https://mp.weixin.qq.com/s/iUg_HhgLyuVim178uVYKWQ)》“威震天”变形金刚凭借其先进的自动变形技术和高达1700美元的售价,迅速售罄。这一现象反映出玩具行业正在通过AI和机器人技术实现创新,推动市场向情感消费转型。预计到2025年,AI驱动的玩具将占全球市场15%以上,智能玩具的拟人化特征将提升互动体验,吸引更多成年消费者。《[2024,“大模型六小虎”逐梦AI圈|甲子光年](https://mp.weixin.qq.com/s/zLTWt_f3oil50ymk2W7bAQ)》2024年,AI创业公司“六小虎”面临竞争加剧,深度求索等新兴公司迅速崛起。虽然六小虎的综合能力相似,但融资情况却存在差异,部分公司可能掉队。随着国内外科技巨头的进军,六小虎的实现AGI战略开始分化,智谱等公司采取稳重路线,关注技术进展和市场变化。整体来看,AI行业将迎来更加激烈的竞争和不断变化的格局。
另外,毛绒玩具能说话,也是戳中孩子的真正需求。学龄前的孩子会把非生命体赋予生命,对非生命体带有生命幻想,例如认为小猪佩奇这些IP形象本身就会讲话、有生命。比如当一个毛绒玩具掉落地上,孩子会问玩具疼不疼。随着年龄和学识的增长,孩子才逐渐克制了这种幻想。大模型出现后,AI毛绒玩具与孩子多轮对话、用IP角色的音色交流,非常自然。李勇回忆起用户调研时的一个故事:当孩子给AI毛绒玩具开机的时候,毛绒玩具会说:“小朋友,请帮助我联网吧(AI毛绒玩具的对话功能须在联网状态下使用)。”参与调研的那个孩子刚上幼儿园。他立马说:“好,请等等,我让妈妈来帮你联网。”孩子们真的以为玩具本来就是有生命、会说话的,他们对这件事一点也不惊讶。站在初创公司的视角,创业团队要找到一个精准细分的场景来解决问题。跃然创新聚焦的场景是陪伴3-6岁孩子成长的AI Friends。目前大模型的能力还不足以成为成年人日常的AI助手,儿童陪伴场景用户的容忍度更高;故事机、音箱、平板等功能性的产品价格竞争更加激烈,而且往往也是巨头的必争入口,对初创企业来说并不友好。另外,不同的品类,意味着消费者的价格接受度也不同。AI毛绒玩具的定价也就是几百块钱,整体客单价要远远低于家庭机器人,几乎没有市场教育成本。近年来,毛绒玩具市场也是一个快速增长的市场。“尤其是在经济不那么高歌猛进的时候,这类产品增长得很快。大家都需要心灵慰藉和情感陪伴。”从占比来看,中国的玩具品牌非常分散,全球销量前十的毛绒玩具里,没有中国品牌。
《玩具帝国》的人机AI采用的是Unity的ml-agent,通过强化学习训练能够进行长周期复杂决策的人机AI。原来写决策树很痛苦,现在可以直接挂机炼丹。为什么选择自己开发ai?没有选用调动ChatGPT之类线上接口的原因有很多,首先这是人机AI是在离线游戏模式使用的,而且对决策的实时性有要求,因此不可能接受连入一个线上的接口。而且《玩具帝国》需要兼容低配置甚至移动平台,所以对这个本地AI运行的性能也有很高的要求。ml-agent里给的实例都算是比较简单的决策问题,一次任务的周期也很短,《玩具帝国》的就比较长,决策也很复杂,所以我们使用了“即时奖励”和“预测奖励”进行长周期决策AI的训练。因为数学模型是可调的,所以AI依然可控,只需要根据通过简单的参数调整,就可以改变AI的决策倾向。推公式还是要一步步推的,希望以后有个AI帮我把这部分工作也做了。为了让每次输入的向量等长,在观察时,场上的三条路被分成了许多块,在每一块上,统计在其上单位的平均数值或求和,最后加上单独的数值,组合得到完整的向量。因为不同的文明玩法不一样,但是基本的规则又是一致的,所以先训练一个能掌握基本规则的底模。从教会AI基本的分配工人开始,每次增加训练一项新科目,不断迭代完善,就能得到一个掌握大致规则的底模。在这个底模的基础上做分支训练,就可以得到适用于不同文明策略的模型。为了避免过拟合,每个Episode前,都对初始条件进行一次随机,譬如不同的资源水平、不同的敌人强度,每次决策时也会对AI的可选项进行随机Dropout,总之尽可能地让AI在训练时接触到所有的可选行为。