AI 的错误率因任务类型和具体应用场景而异。
对于一些像开车这样的任务,其容错率相当低,结果由物理定律和现实约束决定,正确性的衡量标准非常客观且明确,AI 在这类任务中的表现往往难以令人满意。
而在写作任务中,由于结果的好坏更多取决于人类的理解和接受程度,允许很多的近似和模糊性,所以相对来说,AI 在写作任务中的错误可能更容易被接受和解释。
例如,OpenAI 发布的 o1 基础版,其错误率比起预览版降低了 35%。但在现阶段,即使是最好的大模型,在大多数时候也根本无法独立完成生产任务,仅限于降本增效。
同时,我们还需要认识到人类自身也存在认知偏差,如确认偏误、锚定效应等,这也会影响我们对 AI 错误的判断和理解。为了更好地应对 AI 可能出现的错误,我们需要不断提升自身的认知能力,锻炼逻辑思维和掌握数据分析能力。
要解答这个问题,请假设我们现在要让各种诸如GPT或是Claude的大模型去完成这两类任务:开车和写文章。这里的开车和写文章实际上是一种隐喻,可以是任何类似的任务。但是你可以发现,几乎没有人敢坐GPT开的车,实际上它也开不了。但是不论愿不愿意,至少所有人都敢读AI写的文章。这种差别是根本原因之一,请让我们来对比它们。让我们首先来看“开车”类任务。这是一个黑白分明,讨厌不确定性的任务。它的结果由物理定律和现实约束决定,正确性的衡量标准非常客观且明确。特别的,这项活动的容错率相当低。撞上去就是撞上去了,车是不会理解你的差不多的。小错就是刮蹭,大错就是事故。接下来是写作任务。写作任务互动的不是客观的物理世界,而是主观的人类认知。结果的好坏是由你的理解和接受程度决定的,允许很多的近似和模糊性,是没有标准答案的。在写作任务上,如果你出了一点小错,大家会说这个表达很有意思,如果出了一个大错,我们也许会说“AI有创造力,实在太棒了”。这就是所谓的“小错小创新,大错大创新”。所以,写作任务非常合适由现阶段的AI完成。在现阶段,即使是最好的大模型o1,在大多数时候也根本无法独立完成生产任务,仅限于降本增效。我现在已经成功从一个产品经理转型为一个全栈工程师,在AI的帮助下,我可以在两周内写出一个需要3-5人的团队,工作一个月才能开发出的困难音视频处理项目。如果没有AI,我绝对做不成这件事。然而,在这个过程中我仍然感到相当的痛苦。
大脑就像精密仪器,需要不断学习和训练才能高效运转。为了避免“想当然”的错误,我们要不断提升认知能力,就像给大脑定期升级系统、打补丁。认清“思维陷阱”:就像学习识别网络钓鱼邮件一样,我们也需要了解常见的认知偏差,例如:确认偏误:我们会倾向于寻找支持自己已有观点的信息,而忽略反面的证据。例如,相信星座的人更容易关注符合自己星座描述的内容,而忽视不符合的部分。锚定效应:我们容易受第一印象的影响,即使这个印象是错误的。例如,商家先标一个高价,再打折促销,我们会觉得很划算,即使这个折扣后的价格仍然高于市场价。锻炼逻辑思维:就像学习数学一样,我们需要学习如何进行逻辑推理,识别错误的论证。例如,如果有人说“所有天鹅都是白的,因为我见过的天鹅都是白的”,这就是一种不严谨的逻辑,因为存在黑天鹅。掌握数据分析能力:在信息爆炸的时代,我们每天都会接触到大量的数字和统计数据。学习一些基本的统计学知识,可以帮助我们更好地理解和分析数据,避免被误导。例如,一则广告声称某种保健品有效率高达90%,但却没有说明样本量和实验方法,我们就需要保持警惕,不能盲目相信。
OpenAI马拉松发布会Day1:GPT-o1全新升级发布🎉[[twi]@宝玉(@_twi(5).mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/WHvFbqLRVoMgoGx9asvcD4pSnAb?allow_redirect=1)翻译视频by宝玉https://x.com/dotey/status/1865128769582961154[heading3]🚀省流版总结[content]今天发布了两款全新模型:o1基础版和o1 Pro版,以及全新的ChatGPT Pro订阅计划。[heading3]🛠01基础版[content]适用于日常使用,功能强大、反应迅速。核心亮点:1.多模态能力增强📷:处理文本和图像的能力大幅提升,支持图像内容分析和相关问题解答。2.语言理解能力提升🗣️:更准确捕捉语言细节和上下文,文本生成、翻译和摘要表现更加流畅自然。3.错误率降低✅:比起预览版,错误率降低了35%,生成内容更加准确可靠。4.响应速度提升⚡:速度提升50%,减少用户等待时间,带来更流畅的使用体验。