以下是一些可以先喂给数据文本然后进行分析的 AI 示例:
此外,OpenAI 的 GPT 系列模型也是不错的选择。OpenAI 研究团队收集了海量的文本数据,涵盖各种内容,基于 Transformer 架构进行实验,在自然语言处理领域取得了显著成果。
推荐阅读:《介绍一种提升写作能力的方法》by和菜头我觉得和菜头的方法挺好的:首先是借助AI分析好的文章1.找出你最喜欢的文章,投喂给deepseek R1(理论上来说适合大多数AI,尤其是有推理模型);2.第一次询问:请从写作角度分析这篇文章;3.第二次询问:请再从读者角度分析这篇文章;4.第三次询问:这篇文章还存在什么缺点和不足,有什么改善和提升的空间;5.对作者进行侧写,分析成长背景、个人经历和知识结构对文章的影响。然后是让AI能对你写的文章点评:「现在我希望你是一名资深中文写作教师/小学语文老师/中学语文老师/公文写作培训师,拥有30年教育经验,是一名传授写作技巧的专家。请先阅读我提供给你的文章,然后对文章进行分析,然后教我如何提升写作水平。请给出详细的优缺点分析,指出问题所在,并且给出具体的指导和建议。为了方便我能理解,请尽量多举例子而非理论陈述。」最后还分享了一个根据文章内容对作者心理侧写的提示词:我希望你扮演一个从业20多年,临床诊治过两千多例心理分析案例的人性洞察和意识分析方面的专家,精通心理学、人类学、文史、文化比较。先阅读后附文章全文,然后对作者进行人格侧写。要尖锐深刻,不要吹捧包装,不要提出一些只能充当心理安慰的肤浅的见解。1.作者的基本画像2.核心性格特质3.认知与价值观4.潜在心理动机5.行为模式推测6.矛盾与盲点7.文化符号映射输出markdown格式
推荐阅读:《介绍一种提升写作能力的方法》by和菜头我觉得和菜头的方法挺好的:首先是借助AI分析好的文章1.找出你最喜欢的文章,投喂给deepseek R1(理论上来说适合大多数AI,尤其是有推理模型);2.第一次询问:请从写作角度分析这篇文章;3.第二次询问:请再从读者角度分析这篇文章;4.第三次询问:这篇文章还存在什么缺点和不足,有什么改善和提升的空间;5.对作者进行侧写,分析成长背景、个人经历和知识结构对文章的影响。然后是让AI能对你写的文章点评:「现在我希望你是一名资深中文写作教师/小学语文老师/中学语文老师/公文写作培训师,拥有30年教育经验,是一名传授写作技巧的专家。请先阅读我提供给你的文章,然后对文章进行分析,然后教我如何提升写作水平。请给出详细的优缺点分析,指出问题所在,并且给出具体的指导和建议。为了方便我能理解,请尽量多举例子而非理论陈述。」最后还分享了一个根据文章内容对作者心理侧写的提示词:我希望你扮演一个从业20多年,临床诊治过两千多例心理分析案例的人性洞察和意识分析方面的专家,精通心理学、人类学、文史、文化比较。先阅读后附文章全文,然后对作者进行人格侧写。要尖锐深刻,不要吹捧包装,不要提出一些只能充当心理安慰的肤浅的见解。1.作者的基本画像2.核心性格特质3.认知与价值观4.潜在心理动机5.行为模式推测6.矛盾与盲点7.文化符号映射输出markdown格式
回顾2015年,AI技术与今天相比还相对简单。那时的AI系统都是非常狭窄和专门化的,能下围棋的系统甚至不能下国际象棋,更不用说理解语言或引导行人过马路了。每次你需要开发一个新的应用,都必须训练一个全新的模型,这需要大量时间和标记数据。而整个过程像是在黑暗中摸索前进:一个新模型被训练出来后,怎么看怎么都像在重复造旧轮子。鲜少有人知道如何造出别出心裁的轮子,更不要谈革命性突破了。然而,2017年,一篇名为《Attention is All You Need》的论文如同一道闪电,照亮了AI的未来道路。这篇由Google Brain团队撰写的论文介绍了Transformer架构,彻底改变了AI领域的格局。它能够处理未标记的、混乱的数据,并且比以前的方法更加高效。这是一个"令人惊讶和痛苦的认识":最好的AI不是来自最专业的训练技术,而是来自拥有最多数据的人。面对诞生的新架构,OpenAI的技术领袖——伊利亚迅速认识到了Transformer的潜力。伊利亚坚信,AI的下一个重大进展将不再仅仅依赖于算法的微调,而是来自于更大规模、更多样化的数据。这个洞察力为OpenAI后来的发展指明了方向。在他的推动下,OpenAI迅速开始了基于Transformer架构的实验,特别是在自然语言处理领域。他们开发了GPT(Generative Pre-trained Transformer)系列模型,这个系列后来成为了OpenAI最著名的成果之一。研究团队收集了海量的文本数据,涵盖了从科学论文到社交媒体帖子的各种内容。格雷格则形象地将这个过程比喻为"给AI喂食整个互联网"。