Claude 和 ChatGPT 没有直接的关系。
Claude 是由 Anthropic 开发的语言模型,ChatGPT 是由 OpenAI 开发的。
关于哪个好用,这取决于具体的使用场景和个人需求。在一些情况下,Claude 可能因其某些特点而更适合某些用户,例如在阅读 PDF 和长文方面。而 ChatGPT 也有其优势,比如在输出内容品质上可能给人较好的感觉。
但需要注意的是,它们的性能和适用性会因用户的具体任务和期望而有所不同。
[title]教育:一个历史老师用GPT给学生讲课In the second half of this post,I go into detail about what exactly I mean by “simulating history.” I am under no illusions that these simulations are accurate:they are littered with confidently-stated falsehoods and hallucinations.Sometimes,though,hallucinations can be a feature,not a bug.At the end of this post,I include links to detailed prompts which you can use to simulate different historical settings,or customize to use with[Claude](https://claude.ai/chats)or[ChatGPT](https://openai.com/chatgpt)(the free versions of both work about equally well,though GPT-4 works best).I invite readers to share their experiences in the comments.
[title]构建外脑/智变时代的个人知识管理[heading2]5.理想的工具[heading3]专业用户的武器库Claude 2是我现在最常用的PDF与长文阅读器,可以多文章对比阅读,另外ChatGPT配合ShowMe和WebPilot插件也会非常有效,特别是集成了GPT-4V多模态后,一些图表的解释很方便,结果配合原图一起保存。LLMs / LMMs帮外脑实现了理解能力,这是工具的飞跃!创作(Creating)Notion是最主要的外脑想法组装工厂,因为所有的「专注」过程产生的笔记都在这里,Notion AI会对创作有些帮助,用来延展和修改内容。ChatGPT在输出内容品质上的感觉是最好的,配合Notion一起使用,最后用Google Doc来完成输出的交付物。大语言模型驱动的这些智能对话工具,已经作为智能副驾(Copilot)进入我现在的工作流了。很快,它们就会成为用户使用工具的入口,微软在今年三月GPT-4刚推出的时候,就宣布了自己的Office套件会集成GPT-4作为它的Copilot能力,而且[OneNote将是首个可以Copilot的套件应用](https://www.theverge.com/2023/10/11/23912691/microsoft-onenote-copilot-ai-feature-november-launch?ref=indigox.me),计划在今年11月正式上线;智能争夺战的另外一边Google也[宣布把Bard集成到了自己的全线产品](https://x.com/DataChaz/status/1704123675036029151?s=20&ref=indigox.me),除了Search之外,Google Map整合Bard能力,还有Google Workspace,这里面包含了办公套件、Drive还有Gmail,几乎我们在Google留下的所有数据,都要对Google的大语言模型开放了。
[title]大雨:【技术深度解析】探索ChatGPT:从代码越狱到安全防护全过程[heading1]2、GPTs的数据架构示意图从这个图可以看出来,GPT 4和ChatGPT不是一回事,这就好理解了,ChatGPT这么难用了。本文旨在探索GPTs的安全。从上面这个图我们可以看出来。GPTs很有可能有单独的存储,按照OpenAI官方的说法,我们所有的会话都会保留30天,以备合规查阅,也明确提到这些会话会被用于训练。但是在我看来,这个信息很有可能不会是当前版本中进行,从商业角度,从产品角度,从系统稳定性考虑都没有必要调整模型。那么如果为了让GPTs越来越好用,就比如需要多多个会话的内容,以某种形式保留下来,从而让这个GPTs越来越“好用“。因为它在每次启动的时候,很有可能拿了历史数据做为上下文信息。也就是说,A用户用了某个GPTs,B用户也用了某个GPTs,他们俩分别有会话记录,这个会话记录最终应该都会汇总到这个GPTs的某个存储上。从这个意义上说,我们很有可能有机会获取这个GPTs的所有历史会话。也很有可能可以获取GPTs的所有历史文件。GPTs(包括ChatGPT等服务)可能会将用户的会话记录保留一段时间,用于合规查阅或进一步训练模型,这在技术和业务角度上是合理的。然而,这也引出了几个关键的安全和隐私问题: