以下是为您整合的关于 AI 的相关内容:
一、AI 工具在组会准备中的应用
二、与 AI 交流的技巧
三、AI 发展的相关情况
以上内容部分来源于台大李宏毅老师的人工智能课程。
上午做了个尝试,感觉AI近期就能帮大多数学生从繁琐细碎的组会准备工作中解放出来。我只使用了Claude+Gamma.app。其中Claude已经足够好用,帮我节省绝大部分时间。用这两个工具达到了以下目的:1.快速寻找符合条件的论文;2.提取精炼论文中某部分信息;3.帮我找到适合自己的PPT制作工具,并教会我使用。[heading2]二、Claude的用法[content]我一直以来不会使用各类学术网站的条件搜索,但是跟Claude对话解决了我的问题。为了节省篇幅,我只把我的问题罗列出来,并呈现一下最终的效果。Q1:帮我搜索一下营销领域最权威的期刊是哪几本Q2:好的谢谢,帮我搜索一下这几本期刊中关于chatgpt的最新论文,并帮我筛选出3篇被引用次数最多的论文Q3:请帮我分别把这三篇论文的主要内容做一个摘要,摘要应该包括以下内容:摘要描述、研究问题、基本假设、实验方法、实验结论、文章主要结论、研究展望,帮我用英文给出回复Q4:“The Road to Conversational Artificial Intelligence:Understanding Consumer Perceptions of and Responses to Chatbot-Based Service Encounters”帮我用英文介绍这篇文章的摘要、研究问题、详细假设、详细的实验方法和主要结论,我需要用这些内容制作一份介绍这篇研究的30页PPTQ5:请问能用英文回答我吗(这是因为上个问题的回答不是英文)Q6:这篇文章中还提到了哪些理论,能给我做个简单介绍吗,请使用英文Q7:哪些ai工具能帮我快速制作pptQ8:请问怎么使用gamma app把这些内容制作成一份ppt(gamma app不是Claude告诉我的,是我事先了解到的)
第二条是给AI设定一个角色。这个方法用起来非常简单,例如ppt提到的那样,只需要加上一句话“你是一个XXXX角色”就可以。但是,这句话所蕴含的信息量其实是很大的,它蕴含了这个角色应该需要了解的背景,甚至一些输出的要求。我们日常和人交流的时候,会很清楚不同的问题应该找不同的人来问,本质上就是因为角色不同背景不同。AI的能力很强,它拥有很多知识,可以扮演很多角色,但是它需要知道应该以什么角色面对你这个问题。所以在与AI交流的时候,往往给它先赋予一个角色,它会更知道怎么做比较好。第三条是举例子。在很多时候最有效说明要求的方法不是正面描述,而是举几个实际的例子。这和我们日常交流的体验也是一致的。对于很多要求来说,直接给出1个或者几个例子,会使得AI能够非常准确的了解你的要求。第四条技巧是连续提问。现在的AI是可以处理很多轮次的对话的。你可以就一个问题连续提问,根据AI的回复不断细化要求。一句话问不清楚,就不断补充呗,它是不会烦的。此外,你可能会有这样的经验,有很多好的想法是和他人讨论的时候出现的。事实上,AI在这方面可以作为你的一个很好的助手和伙伴。对于很多探索性的问题,在一开始的时候并不能完全想清楚自己的要求,但是可以通过和AI的交流,不断延申和拓展,帮助你不断清晰自己的想法以及找到对你有用的答案。第五条技巧比较有意思,当你不知道如何提问的时候,可以直接问AI如何提问,然后拿它产生的问题再问它自己就可以了。是不是感觉有点像贪吃蛇的游戏?这个技巧看上去比较神奇,其实只是多了一个步骤,AI扮演了一个伙伴,帮助你捋清思路,整理需求罢了。但是,这也说明了目前AI的无限可能。只要使用得当,它的能力边界就只和我们的想象力相关。
在这里,必须指出的是OpenAI公司的努力,在涌现能力发现之前,模型性能随着模型参数规模的提高是有限的,但是模型参数增大一点,它的研发成本却是指数级增长。值得庆幸的事,他们始终有条件和有决心按照自己相信的技术路线不断推进和做尝试,才给人类打开了新世界的大门。AI的发展并不只是依赖软件。这么大的模型和计算量,必须要有相配的芯片算力做支持。可能有些同学听说过摩尔定律,每18个月芯片性能会提高一倍。在2010年以后,因为慢慢逼近物理极限,以Intel为代表的CPU厂商很难继续延续这一规律;以英伟达为代表的GPU厂商接过了棒,在算力翻倍的道路上一路狂奔,在10年内增加了近1000倍,也正是这样,才使得大模型AI得以成为现实。相应的,市场也给予了英伟达非常丰厚的回报,得益于AI的发展,它的股价在短短几年之内就达到了3万亿美元规模。大家可能会很好奇,为什么GPU能算得这么快,它为什么不受物理极限的限制?下面的视频以非常直观有趣的方式展现了CPU和GPU的区别。在你被震撼之余,你会了解GPU的强大之处在于它的并行性。它的每一个单元执行的能力相对简单,远没有CPU强大,但是它强在可以大规模的并行。这恰好非常匹配AI人工神经网络计算的原理,每个神经元的计算非常简单,但是规模非常巨大。所以,GPU和AI具有非常紧密的联系。你可能会想到,这么大规模的神经网络,如果我们像之前手写数字识别一样给它准备问答的数据,这需要的量也太大了。事实上,目前的大模型采用了一种很聪明的生成方法,文字接龙。接下来的几页ppt来源于台大李宏毅老师的人工智能课程,顺便推荐一下,李老师的课程是人工智能入门非常棒的学习资料。