ChatGPT 目前存在以下局限:
但即便如此,我们发现,从ChatGPT到GPT3.5甚至GPT4.0,其在深度逻辑推理、复杂计算、科研探索等领域仍存在着较大的局限性,我的观点猜想是当时ChatGPT在进行最后阶段的RLHF时也有可能仅仅是在做一些通用泛化上的alignment(通用泛化这里仅指在跨表象领域中的所提取出的某种维度的浅层共性Pattern),如整体上基于QA交互层面对生成内容的交互性、合理性、安全性、风险性等进行对齐,当然在对齐数据的标注筹备中亦是要体现更加全面、多样化的场景通用性。如在GPT-4的官方技术报告中我们可以得出(https://openai.com/research/gpt-4):GPT-4尽管功能很强大,但它和早期的GPT模型有相似的局限性,有时候会虚构事实并作出错误的推理。大家在体验ChatGPT的时候可能也发现了,它对稍微大一点的场景设计容易出现上下文衔接不上的问题。前几句回复还能保持和当前场景融合,越到后面越会脱离当前场景做一些新的设计,并且这些设计并不符合当前的场景。OpenAI表示,在每次迭代中都会改进,这也是ChatGPT开放使用的意义,在训练中持续优化。这些问题GPT-4虽然没有完全解决,但是相对于以前的模型,在我们的内部对抗性真实性评估中,GPT-4的得分比GPT-3.5高40%。
掌握技术能显著提升生产力。在新技术诞生之际,要保持好奇心和探索精神。借助技术力量,人们能从繁琐、重复和低效的劳动中解脱出来,从而腾出更多时间进行思考。不可否认,ChatGPT目前仍存在很多缺陷,也离不开人工的监管。至于ChatGPT到底会不会淘汰我们,淘汰的应该是不会用ai的运营人,而不是运营人吧。一个与ChatGPT的暖心对话,莫名还有点感动
但是,当涉及到训练(也就是学习)大脑和当前计算机的不同“硬件”(以及可能的未开发算法思想)时,ChatGPT需要使用一种可能相当不同(并且在某些方面效率远低于)大脑的策略。还有另一件事:与典型的算法计算甚至不同,ChatGPT内部没有“循环”或“重新计算数据”。这不可避免地限制了它的计算能力,甚至相对于当前的计算机,但绝对相对于大脑。目前尚不清楚如何“解决这个问题”并且仍然保持训练系统具有合理效率的能力。但是这样做可能会让未来的ChatGPT能够做更多“类似于大脑的事情”。当然,有很多大脑做得不太好的事情,尤其是涉及到相当于不可约计算的内容。对于这些问题,大脑和ChatGPT这样的东西都必须寻找“外部工具”——例如Wolfram语言。但现在看到ChatGPT已经能够做到的事情是令人兴奋的。在某种程度上,它是一个绝佳的基本科学事实,即大量简单的计算元素可以做出令人惊讶和意想不到的事情。但它也为我们在两千年内对人类语言和背后的思维过程的基本特征和原则有更好的理解提供了最好的动力。一些读书笔记张无常https://mp.weixin.qq.com/s/cpLDPDbTjarU0_PpBK_RDQ