Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

perplexity

Answer

Perplexity 是一个与自然语言处理相关的指标。

首先,文章提到作者因项目需要关注 transformer 相关进展,并计划从算法(包括 NLP、CV、多模态下的 transformer 网络结构)、训练(transformer 的分布式训练)、部署(transformer 的 tvm 量化与推理)五个方面介绍 transformer,本系列的第一篇侧重介绍 NLP 中常用的 perplexity 指标的含义。

文中会先从熟悉的 entropy 指标开始,逐步介绍针对自然语言的改进版 N-gram Entropy 指标,最后介绍 perplexity 指标。

关于 perplexity 指标是否越低越好,在 XLNet 论文中提到越低的 perplexity 可能会损害下游任务的精度,而在 RoBERTa 论文中则指出对于像 RoBERTa 这样 encoder-only 结果的网络,perplexity 越低在 NLU 任务表现就越好。因此,perplexity 是不错的引领性指标,但最终的判别标准还是得结合下游任务表现一起考察。

总的来说,Perplexity、Cross-Entropy、Bits Per Character 都是围绕熵来刻画语言模型的信息量和复杂度。最后作者强烈推荐阅读《Evaluation Metrics for Language Modeling》,并表示自己刚上手 transformer 相关内容,难免有错,欢迎指正。如果想了解更多关于 transformer 的知识,可以关注作者。

Content generated by AI large model, please carefully verify (powered by aily)

References

风格提示词|STYLE PROMPTS

关联流派:Ambient,Progressive Rock,Classical●Disarming定义/描述:Disarming指的是解除武装和令人放松的音乐风格,通常具有温暖和亲和的特质。典型使用:用于表现亲切和温暖情感的音乐作品。示例:Norah Jones的《Don't Know Why》。关联流派:Jazz,Folk,Singer-Songwriter●Discerning定义/描述:Discerning指的是有眼光和鉴赏力的音乐风格,通常具有高雅和复杂的特质。典型使用:用于表现精致和复杂情感的音乐作品。示例:Miles Davis的《Kind of Blue》。关联流派:Jazz,Classical,Progressive Rock●Dischordant定义/描述:Dischordant指的是不和谐和刺耳的音乐风格,通常具有冲突和不稳定的音效。典型使用:用于表现紧张和冲突情感的音乐作品。示例:Schoenberg的《五首管弦乐作品》。关联流派:Modern Classical,Avant-garde,Experimental●Discrete定义/描述:Discrete指的是离散和独立的音乐风格,通常具有清晰和独立的音符和音效。典型使用:用于表现清晰和独立情感的音乐作品。示例:Philip Glass的极简主义作品。关联流派:Minimalism,Electronic,Classical●Disjunct定义/描述:Disjunct指的是不连续和跳跃的音乐风格,通常具有突兀和不连贯的旋律。典型使用:用于表现不规则和跳跃情感的音乐作品。

(1)Perplexity指标究竟是什么?

大家好,我是aaronxic,大家可以叫我小A。最近由于项目需要开始关注transformer相关的进展,结果眼花缭乱的工作让大脑计算存储都严重溢出。围绕transformer相关的进展日新月异,难怪陆奇都说都有点赶不上大模型时代的狂飙速度。网上不乏大量优秀文章介绍transformer的方方面面,观点非常有insight,分析也极尽的详实。但是从新手角度看仍然希望有这样的transformer上手资料内容覆盖相对较全。能把transformer相关的算法、训练和部署方法一齐串讲,让新手快速建立该领域的know-how详略得当,兼顾bottom-up和top-down。对容易被大部分文章忽略的细节bottom-up详细理清逻辑链,对大量看似独立但又相互关联的知识进行top-down梳理。笔者小A从自己实际入坑的经验出发,尝试总结梳理出新手友好的transformer入坑指南。一方面能倒逼自己理清知识脉络,另一方面希望能让后面的新同学少走弯路,更快拿到自己想要的知识。本系列计划从以下五个方面对transformer进行介绍算法1:NLP中的transformer网络结构算法2:CV中的transformer网络结构算法3:多模态下的transformer网络结构训练:transformer的分布式训练部署:transformer的tvm量化与推理由于笔者小A并没有亲手撸过上述内容的所有细节,大部分是通过研究代码和精读优秀文章的方式总结而来,本质上是个拾人牙慧的知识搬运工,所以终究是纸上谈兵。因此希望各方有实际经验的大佬猛锤,思维碰撞才生火花,真理越辩越明。每个方面可能由若干篇文章组成,如果对某些部分感兴趣可以关注小A,后续会逐步更新相应章节。接下来是本系列的第一篇,侧重介绍NLP中最常用的perplexity指标究竟是什么含义本文会先从大家熟悉的entropy指标开始,逐步介绍针对自然语言的改进版N-gram Entropy指标,最后介绍基于此改进的perplexity指标。

(1)Perplexity指标究竟是什么?

上一节回答了问题1中如何计算LM的熵,那我们追求更低的Perplexity就一定有好处吗?在XLNet论文里面说越低的perlexity可能会损害下游任务的精度RoBERTa论文里面说对于像RoBERTa这样encoder-only结果的网络,perplexity越低那么在NLU任务表现就越好因此可见perlexity是不错的引领性指标,但最终的判别标准还是得结合下游任务表现一起考察[heading2]结尾[content]总的来说Perplexity/Cross-Entropy/Bits Per Character都是类似的东西,他们都是围绕熵来刻画LM的信息量和复杂度。最后强烈推荐阅读[Evaluation Metrics for Language Modeling](https://link.zhihu.com/?target=https%3A//thegradient.pub/understanding-evaluation-metrics-for-language-models/),配合本文食用效果更佳。此外由于笔者小A刚上手transformer相关内容,难免有错的地方,还请大佬们指正。如果后续想了解transformer在NLP/CV/多模态的算法知识,分布式训练的知识,以及如何在TVM上做PTQ量化和部署,可以关注aaronxic哦~[知乎个人主页](https://www.zhihu.com/people/aaronxic)

Others are asking
Perplexity是谁做的
Perplexity 是由前 OpenAI 研究科学家 Aravind Srinivas 与前 Meta 研究科学家 Denis Yarats(Perplexity CTO)等合伙人共同创办的。它是一家专注于开发新一代 AI 搜索引擎的公司,创立于 2022 年 8 月。其搜索引擎采用了大型语言模型(LLM)技术,具有理解能力强、生成式回答、个性化和上下文感知等优势,但也存在训练成本高、可解释性差、潜在的偏差和不当内容等劣势。Perplexity 将 LLM 技术应用于搜索引擎领域,试图颠覆传统的基于关键词匹配的搜索范式,为用户提供更自然和智能的搜索体验,还融合了个性化和上下文感知等功能。
2025-02-20
perplexity.ai这个东西是什么东西
Perplexity AI 是一家专注于开发新一代 AI 搜索引擎的公司,创立于 2022 年 8 月,由前 OpenAI 研究科学家 Aravind Srinivas 与前 Meta 研究科学家 Denis Yarats(Perplexity CTO)等合伙人共同创办。 其优势包括: 1. 理解能力强:能够深入理解查询的语义,而非仅仅匹配关键词,提供更准确和相关的结果。 2. 生成式回答:可以生成通顺的自然语言回答,而非简单返回网页链接和片段,使结果更易于理解和使用。 3. 个性化和上下文感知:能根据用户的历史查询和偏好个性化结果,提供更贴合需求的答复。 劣势有: 1. 训练成本高:训练大型 LLM 模型需要大量计算资源和高质量训练数据,成本较高。 2. 可解释性差:LLM 的工作原理较为黑箱,难以解释为何给出某个结果,缺乏透明度。 3. 潜在的偏差和不当内容:由于训练数据的局限性,可能产生偏见或不当内容。 独特之处在于将 LLM 技术应用于搜索引擎领域,试图颠覆传统基于关键词匹配的搜索范式,为用户提供更自然和智能的搜索体验,还融合了个性化和上下文感知等功能,努力成为新一代的“智能助手”。 此外,Perplexity AI 还是一款人工智能教育应用程序,允许用户将问题格式化为线程以便消化信息,可作为 Web 应用程序、Android 应用程序和 IOS 应用程序使用。有趣的是,其创始人曾在 Google AI 工作。
2024-11-28
perplexity公司
Perplexity 是一家专注于开发新一代 AI 搜索引擎的公司,创立于 2022 年 8 月,由前 OpenAI 研究科学家 Aravind Srinivas 与前 Meta 研究科学家 Denis Yarats(Perplexity CTO)等合伙人共同创办。 其优势包括: 1. 理解能力强:能够深入理解查询的语义,而非仅仅匹配关键词,提供更准确和相关的结果。 2. 生成式回答:可以生成通顺的自然语言回答,而非简单返回网页链接和片段,使结果更易于理解和使用。 3. 个性化和上下文感知:能根据用户的历史查询和偏好个性化结果,提供更贴合需求的答复。 劣势有: 1. 训练成本高:训练大型 LLM 模型需要大量计算资源和高质量训练数据,成本较高。 2. 可解释性差:LLM 的工作原理较为黑箱,难以解释为何给出某个结果,缺乏透明度。 3. 潜在的偏差和不当内容:由于训练数据的局限性,可能产生偏见或不当内容。 独特之处在于将 LLM 技术应用于搜索引擎领域,试图颠覆传统基于关键词匹配的搜索范式,为用户提供更自然和智能的搜索体验,还融合了个性化和上下文感知等功能,努力成为新一代的“智能助手”。 在成立的 18 个月内,Perplexity 达到了 10 亿美元估值。但它与其他由 LLM 驱动的服务一样面临着幻觉问题等挑战,同时人工智能驱动的搜索也存在可靠性问题。
2024-11-14
我想找一个类似perplexity的AI工具
以下是一些类似 Perplexity 的 AI 工具: 1. ChatGPT Plus:用户可开启 web browsing 功能实现联网。 2. Bing Copilot:作为 AI 助手,旨在简化在线查询和浏览活动。 3. You.com 和 Neeva AI:搜索引擎,提供基于人工智能的定制搜索体验,并保持用户数据的私密性。 此外,在移动设备上,美图秀秀(https://apps.apple.com/us/app/meituphotoeditoraiart/id416048305)、SNOW(https://apps.apple.com/us/app/snowaiprofile/id1022267439)和 Adobe Express(https://apps.apple.com/us/app/adobeexpressaiphotovideo/id1051937863)也是相关的应用。Perplexity AI 是一款人工智能教育应用程序,可作为 Web 应用程序、Android 应用程序和 IOS 应用程序使用,其创始人曾在 Google AI 工作,于 2022 年 8 月创立该公司。它专注于提供简明、实时和准确的查询答案,并引用来源,在访问时长方面略胜于 ChatGPT,用户参与度很高。
2024-08-31
Perplexity的网站进不去
以下是关于 Perplexity 的一些信息: Perplexity 是一款聊天机器人式的搜索引擎,允许用户用自然语言提问,使用生成式 AI 技术从各种来源收集信息并给出答案。以 Perplexity.AI 为例,我们可以利用其强大的搜索功能来获取信息。首先,访问该网站并使用其搜索功能。为了获得更专业和深入的搜索结果,可以启用 Pro 功能(搜索框右边的开关),该功能每天都会提供一定次数的免费使用。如果您经常使用,可以考虑开通会员服务以享受更多便利。但目前您提到 Perplexity 的网站进不去,可能是由于网络故障、服务器维护等原因导致的,您可以稍后再尝试访问。
2024-08-13
perplexity
Perplexity 是一款基于给搜索引擎加上 LLM 以带来更优信息检索体验的思路而开发的产品,其目标是取代 Google 搜索。该思路的技术实现并不复杂,贾扬清大佬用不到 500 行 Python 代码就实现了一个基础版。作者最近在 Coze 上体验手搓 AI Bot,也顺手搓了一个极简版的 Perplexity,只写了 36 行“粘合剂”代码和 41 行提示词。此外,Claude 官方文档中提到了处理幻觉的方法,包括允许 Claude 说“我不知道”、告诉 Claude 只有在非常确信回答正确时才回答问题、让 Claude 在回答问题之前“逐步思考”、在回答之前给 Claude 留出思考的空间、让 Claude 在长篇文档中找到相关引文并使用这些引用来回答等。
2024-06-21