要使语音助手掌握情感意图,可以从以下几个方面考虑:
总之,使语音助手掌握情感意图需要综合多方面的知识和技术,不断探索和创新。
欧洲议会和欧盟理事会规定人工智能的统一规则,并修正300/2008号、167/2013号、168/2013号、2018/858号、2018/1139号和2019/214号条例以及2014/90/EU号、2016/797号和20(18)本条例中使用的“情绪识别系统”的概念应界定为根据自然人的生物数据识别或推断其情绪或意图的人工智能系统。这是指诸如快乐、悲伤、愤怒、惊讶、厌恶、尴尬、兴奋、羞愧、蔑视、满意和娱乐等情绪或意图。这不包括身体状态,如疼痛或疲劳。例如用于检测职业飞行员或司机疲劳状态以防止事故发生的系统。这也不包括仅仅检测容易察觉的表情、手势或动作,除非这是用来识别或推断情绪的。这些表情可以是基本的面部表情,如皱眉或微笑,或手势,如手、手臂或头部的动作,或者一个人的声音特征,如提高声音或低声说话。
Hinton探讨了人工智能助手的可能性,认为如果助手具有自我反省的能力,那么它们也可能有感觉。他还提出了一个新的感觉模型,即如果没有限制我们会采取的行动,这就是感觉的真正含义。在1973年,Hinton在爱丁堡见证了一个机器人的"情感"表现。这个机器人能够组装玩具车,但如果零件堆砌在一起,它会先将它们散落一地,然后再重新组装。这种行为让Hinton联想到人类在面对不理解的情况时的反应。Hinton曾将人类和大规模语言模型(LLM)比作类比机器。他认为,他一生中最有影响力的类比是宗教信仰和符号处理信仰之间的类比。他认为,我们正在进行符号处理,但并非通过匹配符号,而是通过为符号提供嵌入向量,并使用这些嵌入向量组件之间的交互进行思考。Hinton和他的学生一起完成了一些最有意义的研究,这主要得益于他与学生的良好合作,以及他选择优秀学生的能力。他选择问题的方式是寻找每个人都同意但感觉不对的东西,然后研究它,看看他是否能详细说明为什么他认为它是错的。Hinton认为,我们不使用快速权重的做法听起来很可疑,我们只有两个时间尺度。这完全是错误的,这根本不像大脑的工作方式。他认为我们将不得不拥有更多的时间尺度。他相信大脑会获得梯度。但是大脑是如何获得梯度的?这是一个悬而未决的大问题。Hinton认为他对玻尔兹曼机的看法是错误的,但他很高兴自己花了很长时间研究它。关于如何获得梯度,有比反向传播更漂亮的理论。但他认为事实并非如此。
如果机器不能很好地模拟情感,那么人们可能永远也不会觉得机器具有智能。——人工智能之父马文·明斯基情感是保障人类形成社会习性、支撑高级思维的心理要素。如果人类不具有情感,那么维持生存的将只有原始冲动和生存欲望。情感对人类有很重要的意义,主要表现在:生存功能。人类会为了适应环境而做出有利于生存或发展的生理反应,如遇危险时的紧张害怕,受到威胁时的愤怒亢奋,获得食物时的喜悦兴奋。这种生理反应,有助于保障人类的进化。沟通功能。同样的文字语言使用不同的情感来表达,其内涵是完全不同的。相比于语音或文字,增加表情、肢体动作等多种情感表达方式,能够更加充分的表达人类的意图。决策功能。大脑通过快(“系统一”)和慢(“系统二”)两种方式进行决策。而“系统一”主要依赖于情感、经验等迅速做出判断。动机功能。情感能够激发和维持个体的行为。维系功能。情感是人类社会化过程中阶层、族群、家庭等维系的纽带。情感计算就是为了使计算机能够识别、感知、推断和理解人类的情感。最终目标是赋予计算机类似于人的情感能力。