人机交互方面的知识如下:
[title]问:具身智能是什么?具身智能(Embodied Intelligence)是人工智能领域的一个子领域,它强调智能体(如机器人、虚拟代理等)需要通过与物理世界或虚拟环境的直接交互来发展和展现智能。这一概念认为,智能不仅仅是处理信息的能力,还包括能够感知环境、进行自主导航、操作物体、学习和适应环境的能力。具身智能的核心在于智能体的“身体”或“形态”,这些身体可以是物理形态,如机器人的机械结构,也可以是虚拟形态,如在模拟环境中的虚拟角色。这些身体不仅为智能体提供了与环境互动的手段,也影响了智能体的学习和发展。例如,一个机器人通过其机械臂与物体的互动,学习抓取和操纵技能;一个虚拟代理通过在游戏环境中的探索,学习解决问题的策略。具身智能的研究涉及多个学科,包括机器人学、认知科学、神经科学和计算机视觉等。在机器人学中,具身智能关注的是如何设计能够自主行动和适应环境的机器人;在认知科学和神经科学中,研究者探索大脑如何处理与身体相关的信息,以及这些机制如何应用于人造智能系统;在计算机视觉中,研究者致力于开发算法,使智能体能够理解和解释视觉信息,从而进行有效的空间导航和物体识别。具身智能的一个重要应用是在机器人领域,特别是在服务机器人、工业自动化和辅助技术等方面。通过具身智能,机器人可以更好地理解和适应人类的生活环境,提供更加自然和有效的人机交互。此外,具身智能也在虚拟现实、增强现实和游戏设计等领域有着广泛的应用,通过创造更具沉浸感和交互性的体验,丰富了人们的数字生活。尽管具身智能在理论和技术上取得了显著进展,但它仍面临许多挑战。例如,如何设计智能体的身体以最大化其智能表现,如何让智能体在复杂多变的环境中有效学习,以及如何处理智能体与人类社会的伦理和安全问题等。未来的研究将继续探索这些问题,以推动具身智能的发展和应用。
[title]Inhai:Agentic Workflow:AI重塑了我的工作流AI与人的协同关系生成式AI的人机协同分为3种产品设计模式:Embedding(嵌入式)、Copilot(副驾驶)、Agent(智能代理),在这3种模式下,人与AI的协作流程也是有所差异。Embedding模式:人类完成大多数工作。Copilot模式:人类和AI协同工作。Agents模式:AI完成大多数工作。Agentic Workflow驱动角色工作流变革使用Multiagent Collaboration的方法,让不同角色的Agent按照根据任务要求自主规划选择工具、流程进行协作完成一件任务。我作为一个产品经理角色,我的诉求很简单,需要完成某一个产品功能设计,这个时候通过Agents拆解成多个独立的任务,然后遵循不同的工作流,最后给我生成一份在大体上符合我期望的输出结果,我再修修改改就能够达到可用的阶段了。所以,我从原子能力层重新思考,面对这个快速变化的时代,我该如何去重塑我自己的工作流,以不变应万变呢?我抽象化拆解了大模型的一些底层能力,例如:翻译、识别、提取、格式化等等,其实所有的一些都会围绕几个词“输入”、“处理”、“输出”、“反馈”。“输入”、“处理”、“输出”、“反馈”构建了我最底层的信息处理逻辑,我把它比作四个齿轮,齿轮之间通过不同的衔接工具逐步推动运转,从需求作为输入、结果作为输出,围绕着信息加速,不断驱动我向前。重塑获取信息的方式搜索引擎作为互联网基础设施,同时也是互联网的入口,对于用户而言,从解决问题出发,搜索引擎和基于大模型的聊天机器人的目标从根本上是一致的。自2022年底ChatGPT发布,其通过问答形式被认为将对传统搜索引擎带来颠覆。
1.如何交互(目前的人机协同模式是什么样)?之前很多人都说到大模型可能会有3种交互模型模式一:以人为主导,大模型提供建议(copilot阶段)像一个副驾驶,开车的时候给你提供建议,但是决定权还是在你手上模式二:人和大模型协同工作,合作完成同一个工作(embedding阶段)在实际的工作场景中,有一些小的环节可以让大模型来完成,从整个工作流程的角度来看这样确确实实的嵌入到我们的工作中,提高的效率模式三:人指挥大模型工作(数字员工阶段)这个阶段目前看来,非常少见。大模型还不能完全独立于人来完成某一个非常具体的工作。可能是一个工程上的问题,也有可能是大模型本身能力欠缺导致。个人观点:当下最应该努力的方向其实:如何从简单使用大模型得到建议,转变为让大模型深度的融入到工作流里面去。这样的一套agent一定是有很高价值的。至于数字员工这个阶段,还不是特别成熟,可以让其他大厂和学界先多试一下作者:朱一鸣,锤子