以下是关于 AI 指导长期项目的相关内容:
负责任的 AI 原则: 2018 年 6 月宣布了七项 AI 原则来指导工作,包括:
AGI 的短期与长期: 短期:AGI 未催生大量“明星 APP”和“变现机器”,只有少数 App 实现用户突破,上层应用 APP 昙花一现,投资人谨慎,公众对 AI 麻木。 长期:技术稳定且加速迭代,如视频生成、音频生成、代理 Agent、记忆能力、模型小型化等虽距离商用有问题,但突破只是时间问题。
AIGC 相关: 对于某些项目,在 AI 技术进一步改进前等待可能更有利,特别是耗时长且 AI 已有合理表现的任务。在构建和维护生产级大型语言模型应用程序中,评估指标很重要,可分为端到端和步骤/组件式评估。语言模型可能出现“幻觉”,可采用高级提示、少样本提示、思维链式提示、数据增强(如检索增强生成、工具集成)等策略缓解。
2018年6月,我们宣布了七项AI原则来指导我们的工作。这些是积极管理我们的研究和产品开发并影响我们的业务决策的具体标准。以下是对每一个的概述:1.人工智能应该对社会有益。任何项目都应考虑广泛的社会和经济因素,并且只有在我们认为总体可能收益大大超过可预见的情况下才会进行风险和不利因素。2.人工智能应避免产生或加强不公平的偏见。我们力求避免对人造成不公正的影响,尤其是那些与种族、民族、性别、国籍、收入、性取向、能力和政治等敏感特征相关的影响或宗教信仰。3.人工智能应该被构建和测试以确保安全。我们将继续制定和应用强有力的安全措施,以避免产生伤害风险的意外结果。4.人工智能应该对人负责。我们将设计AI系统,为反馈、相关解释和申诉提供适当的机会。5.人工智能应纳入隐私设计原则。我们将提供通知和同意的机会,鼓励具有隐私保护措施的架构,并提供适当的透明度和对数据使用的控制。6.人工智能应该坚持科学卓越的高标准。我们将与一系列利益相关者合作,促进这一领域深思熟虑的领导,借鉴科学严谨和多学科的方法。我们将通过发布教育材料、最佳实践和研究来负责任地分享AI知识,使更多人能够开发有用的AI应用程序。7.人工智能应该用于符合这些原则的用途。许多技术有多种用途,因此我们将努力限制可能有害或滥用的应用程序。除了这七个原则之外,还有一些人工智能应用我们是不会追求的。我们不会在这四个应用领域设计或部署人工智能:造成或可能造成整体危害的技术。其主要目的或实施是造成或直接造成的武器或其他技术便于对人造成伤害。收集或使用违反国际公认规范的信息进行监视的技术。以及其目的违反广泛接受的国际法和人权原则的技术。确立原则是一个起点,而不是终点。仍然真实的是,我们的AI原则很少直接回答我们关于如何构建产品的问题。他们不会——也不应该——允许我们回避艰难的对话。它们是确立我们的立场、我们构建的内容以及构建它的原因的基础,它们是我们企业AI产品成功的核心。
短期:AGI并没有马上催生出大量“明星APP”和“变现机器”。只有ChatGPT,Charactor.ai等少数App实现了用户突破。大量上层应用APP就像韭菜一样:不仅昙花一现,迅速被OpenAI官方所取代,而且还无法做到成本打平。于是,投资人极端谨慎,公众也渐渐对于AI麻木。长期:技术的稳定的、加速度的迭代。23年3月预测的众多技术到现在都有了长足进步:视频生成、音频生成、代理Agent、记忆能力、模型小型化……它们距离商用可能还有各种各样的问题,但捅破这层窗户纸只是时间问题。人间一日,AI十年。这篇万字长文算为婴儿期的AGI做一个快照;算是在激流的2023找个锚点,更是为了2024更好地出发。上篇:回顾AI在2023年发生的大事,为大家梳理出2023年AI圈的主线下篇:不自量力地做些2024年的推断,为大家提供一些启发和点子这里,我不会过多讨论技术细节,更多是从商业视角、个体视角来审视着这场技术海啸。文中有很多自不量力的估计,也有很多不准确、不完整的地方;欢迎大家找我聊天,告诉我你们的想法。另外,这是我的新公众号,有关AI的文章都会集中放在这里。恳请大家收藏、加星、点赞、转发。Image:"Explosion of AGI-with some order",with Dall-E
鉴于AI正在快速发展并能够执行广泛的任务,作者认为对于某些项目,在AI技术进一步改进之前等待可能更加有利。这一点在那些耗时长且AI已有合理表现的任务中尤为显著,如写作小说或软件开发。该文章讨论了在构建和维护生产级大型语言模型(LLM)应用程序(如GitHub Copilot)中,评估指标的重要性。这些指标对于质量控制和防止重复故障案例至关重要。LLM应用程序的评估可以分为端到端和步骤/组件式评估。前者提供了整体质量感知,而后者有助于识别和减轻可能影响LLM应用程序整体质量的故障模式。该文章概述了适用于端到端和组件式评估的不同场景的评估指标。这些见解来自研究文献以及与其他LLM应用程序构建者进行的讨论。文章还提供了Python代码示例。语言模型(LLMs)如GPT-4是无监督任务的强大工具,但可能会出现“幻觉”,即生成似是而非的信息。为了缓解这一问题,可以采用以下几种策略:高级提示:这涉及在系统提示中提供清晰的指示,以避免传播错误或不可验证的信息。例如,使用一个提示来指导模型不要传播不正确的数据。少样本提示:向LLM提供少量特定示例以引导其回应,有助于它专注于主题和上下文。示例的质量至关重要,因为糟糕的示例可能导致更多幻觉。思维链式提示:鼓励LLM在最终答案之前生成推理步骤,可以通过逐步思考或提供推理示例来实现。然而,这可能会引入产生幻觉推理的风险。数据增强:当上下文超出模型窗口时,数据增强可以通过添加专有数据或外部工具/知识来帮助。技术包括:检索增强生成(RAG):将模型知识与检索系统结合起来,在实时中获取相关数据。工具集成:使用函数调用、API调用和其他工具来提高准确性,尽管这需要进行广泛测试和实验。